California Busca Ser Pionera en Transparencia de Inteligencia Artificial
El senador estatal Scott Wiener presentó este miércoles enmiendas clave al proyecto de ley SB 53, que obligaría a gigantes tecnológicos como OpenAI, Google, Anthropic y xAI a publicar protocolos de seguridad y reportar incidentes críticos en sus sistemas de IA.

Cambios Tras Veto Anterior
Esta iniciativa llega después que el gobernador Gavin Newsom vetara el proyecto SB 1047 en 2024. Según el nuevo enfoque, el SB 53 fue influenciado por recomendaciones del grupo de expertos en IA convocado por Newsom, incluyendo a la investigadora de Stanford Fei-Fei Li.
Pilares Fundamentales del Proyecto
- Transparencia: Publicación obligatoria de protocolos de seguridad y reportes de incidentes
- Protección a Denunciantes: Amparo legal para empleados que alerten sobre riesgos que puedan causar más de 100 muertes o daños superiores a $1,000 millones
- CalCompute: Creación de un clúster público de computación en la nube para apoyar startups e investigadores
Diferencias Clave con Legislación Anterior
A diferencia del vetado SB 1047, este proyecto:
- No responsabiliza a desarrolladores por daños causados por sus modelos de IA
- Exime a startups e investigadores que trabajen con modelos de código abierto
- Busca equilibrar transparencia con crecimiento de la industria tecnológica californiana
Camino Legislativo y Contexto Nacional
El SB 53 avanza ahora al Comité de Privacidad y Protección al Consumidor de la Asamblea estatal. Paralelamente, Nueva York evalúa una iniciativa similar (RAISE Act). Un intento federal de imponer moratoria de 10 años a regulaciones estatales de IA fue rechazado por el Senado en votación 99-1 a principios de julio.
Resistencia Industrial y Desafíos
Mientras Anthropic apoya mayor transparencia, empresas como OpenAI, Google y Meta han mostrado resistencia. Se observan inconsistencias en reportes de seguridad: Google retrasó el informe de su modelo Gemini 2.5 Pro, mientras OpenAI omitió reporte de seguridad para GPT-4.1.