California Impulsa Ley Histórica para Regular Seguridad de IA con SB 53

California Busca Ser Pionera en Transparencia de Inteligencia Artificial

El senador estatal Scott Wiener presentó este miércoles enmiendas clave al proyecto de ley SB 53, que obligaría a gigantes tecnológicos como OpenAI, Google, Anthropic y xAI a publicar protocolos de seguridad y reportar incidentes críticos en sus sistemas de IA.

Debate legislativo sobre regulación tecnológica
Contexto legislativo para discusiones de regulación tecnológica

Cambios Tras Veto Anterior

Esta iniciativa llega después que el gobernador Gavin Newsom vetara el proyecto SB 1047 en 2024. Según el nuevo enfoque, el SB 53 fue influenciado por recomendaciones del grupo de expertos en IA convocado por Newsom, incluyendo a la investigadora de Stanford Fei-Fei Li.

Pilares Fundamentales del Proyecto

  • Transparencia: Publicación obligatoria de protocolos de seguridad y reportes de incidentes
  • Protección a Denunciantes: Amparo legal para empleados que alerten sobre riesgos que puedan causar más de 100 muertes o daños superiores a $1,000 millones
  • CalCompute: Creación de un clúster público de computación en la nube para apoyar startups e investigadores

Diferencias Clave con Legislación Anterior

A diferencia del vetado SB 1047, este proyecto:

  • No responsabiliza a desarrolladores por daños causados por sus modelos de IA
  • Exime a startups e investigadores que trabajen con modelos de código abierto
  • Busca equilibrar transparencia con crecimiento de la industria tecnológica californiana

Camino Legislativo y Contexto Nacional

El SB 53 avanza ahora al Comité de Privacidad y Protección al Consumidor de la Asamblea estatal. Paralelamente, Nueva York evalúa una iniciativa similar (RAISE Act). Un intento federal de imponer moratoria de 10 años a regulaciones estatales de IA fue rechazado por el Senado en votación 99-1 a principios de julio.

Resistencia Industrial y Desafíos

Mientras Anthropic apoya mayor transparencia, empresas como OpenAI, Google y Meta han mostrado resistencia. Se observan inconsistencias en reportes de seguridad: Google retrasó el informe de su modelo Gemini 2.5 Pro, mientras OpenAI omitió reporte de seguridad para GPT-4.1.

Comparte este artículo

Otras notas de tu interés:

Guía de Compras y Compradores

Fresh Market abre su segunda tienda en Aventura: más grande y con nuevas experiencias gourmet

Politica Internacional

War Game: Simulamos un Ataque Ruso a la OTAN

Economia

Proyecto de Ley en Florida Asiste a Propietarios de Casas Móviles

Politica Internacional

Líderes en Múnich abordan la guerra en Ucrania: Vance se reúne con Zelenskiy

Economia

Monaco AI: La Revolución de la IA en Ventas con $35 Millones en Fondos

Economia

Renuncia la abogada general de Goldman Sachs por vínculos con Epstein

Politica

Minnesota AG Fortalece Cooperación Federal en Investigaciones Pretti Good

Negocios

La IA en Startups y Sistemas Empresariales: Un Momento Decisivo para Emprender

Tecnologia

Threads lanza ‘Dear Algo’: Personaliza tu feed con IA mediante un simple post

Negocios

Elon Musk y el sueño de los data centers orbitales: costos y desafíos fuera de este mundo