Primera Ley Estatal de Transparencia para Modelos de IA Avanzada
Los legisladores de Nueva York aprobaron este jueves la Ley RAISE, un proyecto pionero que busca prevenir que modelos avanzados de inteligencia artificial de empresas como OpenAI, Google y Anthropic causen escenarios catastróficos. La medida establece que las empresas deberán evitar daños que resulten en más de 100 muertes o lesiones o pérdidas superiores a $1.000 millones.

Requisitos Clave para las Empresas de IA
- Reportes de seguridad: Publicación obligatoria de evaluaciones de riesgos detalladas
- Incidentes críticos: Notificación inmediata de comportamientos anómalos o robos de modelos
- Sanciones: Multas de hasta $30 millones por incumplimiento
Alcance y Limitaciones
La normativa aplica específicamente a compañías que invirtieron más de $100 millones en recursos computacionales para entrenar sus modelos. El senador estatal Andrew Gounardes, coautor del proyecto, enfatizó que fue diseñado para «no obstaculizar la innovación en startups o investigadores académicos».
«La ventana para establecer salvaguardas se reduce rápidamente dada la velocidad de esta tecnología», afirmó Gounardes
Diferencias con la Propuesta de California
A diferencia del vetado proyecto SB 1047 de California, la Ley RAISE no exige interruptores de emergencia en los modelos ni responsabiliza a empresas que realicen ajustes posteriores al entrenamiento principal.
Reacciones y Próximos Pasos
La industria tecnológica ha mostrado resistencia, calificando la iniciativa como «otra ley estatal tonta» según Anjney Midha de Andreessen Horowitz. Mientras, Jack Clark de Anthropic expresó preocupación sobre posibles impactos en empresas pequeñas.
El proyecto ahora espera la decisión de la gobernadora Kathy Hochul, quien puede convertirlo en ley, devolverlo para enmiendas o vetarlo completamente.