Nuevas Enmiendas Buscan Regular a Gigantes de la Inteligencia Artificial
El senador estatal de California Scott Wiener presentó este miércoles enmiendas al proyecto de ley SB 53, que exigiría a las mayores empresas de IA publicar protocolos de seguridad e informar incidentes críticos.

Claves del Proyecto de Ley
- Transparencia obligatoria: Empresas como OpenAI, Google, Anthropic y xAI deberían publicar protocolos de seguridad
- Protección a denunciantes: Resguardo legal para empleados que reporten riesgos críticos
- CalCompute: Creación de un clúster de computación pública para startups e investigadores
Contexto Legislativo
Esta iniciativa surge tras el veto del gobernador Gavin Newsom al proyecto anterior SB 1047, que enfrentó fuerte oposición de Silicon Valley. Newsom encargó entonces a líderes en IA, incluida la investigadora de Stanford Fei Fei Li, desarrollar recomendaciones que inspiraron estas enmiendas.
Diferencias Clave con la Ley Anterior
- No establece responsabilidad legal por daños causados por modelos de IA
- Reduce carga regulatoria para startups e investigadores
- Exige informes de incidentes con impacto sobre 100+ personas o $1 billón en daños
Camino por Recorrer
El SB 53 deberá aprobarse primero en el Comité de Privacidad y Protección al Consumidor de la Asamblea Estatal antes de avanzar a otras instancias legislativas y eventualmente llegar al escritorio del gobernador Newsom.
«Asegurar que la IA se desarrolle con seguridad no debería ser controversial, debería ser fundamental»
Geoff Ralston, expresidente de Y Combinator
Contexto Nacional
Mientras California avanza, Nueva York evalúa una ley similar (RAISE Act). Recientemente, el Senado federal rechazó 99-1 una moratoria de 10 años sobre regulaciones estatales de IA.