California Establece un Precedente en Regulación de IA con la SB 53
La SB 53, una ley pionera en seguridad y transparencia de inteligencia artificial, fue firmada por el gobernador de California, Gavin Newsom, esta semana, demostrando que la regulación estatal no tiene por qué obstaculizar el progreso de la IA.
Transparencia y Protocolos de Seguridad Obligatorios
En esencia, la SB 53 es la primera ley a nivel nacional que exige a los grandes laboratorios de IA ser transparentes sobre sus protocolos de seguridad, específicamente en cómo previenen riesgos catastróficos, como el uso de modelos para cometer ciberataques en infraestructura crítica o construir bioweapons. La ley también obliga a las empresas a cumplir con estos protocolos, que serán aplicados por la Office of Emergency Services.

Voces a Favor: Adam Billen y Encode AI
Adam Billen, vicepresidente de políticas públicas en Encode AI, destacó en una entrevista que «los legisladores saben que debemos hacer algo, y hay una manera de aprobar leyes que protegen la innovación mientras aseguran que estos productos sean seguros». Billen argumenta que muchas empresas ya realizan pruebas de seguridad y publican tarjetas de modelo, pero la ley previene que recorten en estas áreas bajo presión competitiva.
Por ejemplo, OpenAI ha declarado públicamente que podría «ajustar» sus estándares de seguridad si un rival lanza un sistema de alto riesgo sin salvaguardas similares. La SB 53 busca hacer cumplir estas promesas de seguridad existentes.
Oposición y Contexto Federal
Aunque la oposición pública a la SB 53 fue menor en comparación con su predecesora SB 1047 —vetada por Newsom el año pasado—, actores de Silicon Valley y laboratorios de IA argumentan que casi cualquier regulación de IA es perjudicial para el progreso y podría frenar a Estados Unidos en su carrera contra China.
Empresas como Meta, fondos de capital de riesgo como Andreessen Horowitz, y figuras como Greg Brockman de OpenAI están invirtiendo millones en super PACs para apoyar políticos pro-IA. Además, se ha impulsado una moratoria de IA que prohibiría a los estados regular la IA durante 10 años, pero Encode AI y más de 200 organizaciones trabajaron para detener esta propuesta.
Iniciativas Federales en Juego
- SANDBOX Act: Propuesto por el senador Ted Cruz, permitiría a las empresas de IA solicitar exenciones para evitar regulaciones federales hasta por 10 años.
- Chip Security Act: Busca imponer controles de exportación de chips avanzados a China, mientras que la CHIPS and Science Act fomenta la producción nacional.
Billen advierte que una legislación federal estrecha podría «eliminar el federalismo para la tecnología más importante de nuestro tiempo», y señala que empresas como Nvidia se oponen a ciertos controles por incentivos financieros, ya que China representa una parte significativa de sus ingresos.
La Carrera con China y el Futuro de la IA
Billen enfatiza que la SB 53 no es un obstáculo en la competencia con China: «Si te importa vencer a China en la carrera de IA, entonces deberías impulsar controles de exportación en el Congreso y asegurar que las empresas estadounidenses tengan los chips». Sin embargo, critica que la industria no está presionando en esa dirección.
La administración de Trump mostró mensajes inconsistentes: en abril de 2025 expandió una prohibición de exportación de chips avanzados a China, pero tres meses después revirtió el curso, permitiendo a Nvidia y AMD vender algunos chips a cambio del 15% de los ingresos.
Conclusión: Un Ejemplo de Democracia en Acción
Billen concluye que la SB 53 es un ejemplo de cómo la industria y los legisladores pueden colaborar para lograr un consenso. «Este proceso de democracia y federalismo es la base de nuestro país y sistema económico, y espero que sigamos haciéndolo con éxito», afirmó, destacando que esta ley es una prueba de que la regulación y la innovación pueden coexistir.