Trump Busca Unificar la Regulación de IA con un Marco Federal que Anula Leyes Estatales
La administración del presidente Donald Trump presentó este viernes un marco legislativo que establecería una política única para la inteligencia artificial en Estados Unidos, centralizando el poder en Washington y preemptiendo las leyes estatales sobre IA, lo que podría socavar los recientes esfuerzos de los estados para regular el uso y desarrollo de esta tecnología.

Objetivos Clave del Framework: Innovación por Encima de Todo
El marco esboza siete objetivos clave que priorizan la innovación y el escalamiento de la IA, y propone un enfoque federal centralizado que anularía las regulaciones estatales más estrictas. Coloca una responsabilidad significativa en los padres para temas como la seguridad infantil, y establece expectativas relativamente suaves y no vinculantes para la rendición de cuentas de las plataformas.
Por ejemplo, dice que el Congreso debería requerir que las empresas de IA implementen características que «reduzcan los riesgos de explotación sexual y daño a menores», pero no establece ningún requisito claro y exigible.
Contexto: Orden Ejecutiva y Desafío a los Estados
El framework de Trump llega tres meses después de que firmara una orden ejecutiva que dirige a las agencias federales a desafiar las leyes estatales de IA. La orden dio al Departamento de Comercio 90 días para compilar una lista de leyes estatales de IA «onerosas», lo que potencialmente arriesgaría la elegibilidad de los estados para fondos federales como subvenciones de banda ancha. La agencia aún no ha publicado esa lista.
La orden también dirigió a la administración a trabajar con el Congreso en una ley uniforme de IA. Esta visión se está enfocando, y refleja la estrategia anterior de Trump sobre IA, que se centró menos en barreras protectoras y más en promover el crecimiento de las empresas.
Críticas y Apoyo: Un Debate Polarizado
Los críticos argumentan que los estados son los «laboratorios de la democracia» y han sido más rápidos en aprobar leyes sobre riesgos emergentes. Notoriamente, la Ley RAISE de Nueva York y la SB-53 de California buscan asegurar que las grandes empresas de IA tengan y adhieran a protocolos de seguridad que estén documentados públicamente.
«El zar de IA de la Casa Blanca, David Sacks, continúa haciendo el juego de Big Tech a expensas de los estadounidenses comunes y trabajadores», dijo Brendan Steinhauser, CEO de The Alliance for Secure AI. «Este marco federal de IA busca evitar que los estados legislen sobre IA y no proporciona un camino hacia la rendición de cuentas para los desarrolladores de IA por los daños causados por sus productos.»
Por otro lado, muchos en la industria de la IA celebran esta dirección porque les da libertades más amplias para «innovar» sin la amenaza de la regulación.
«Este marco es exactamente lo que las startups han estado pidiendo: un estándar nacional claro para que puedan construir rápido y escalar», afirmó Teresa Carlson, presidenta de General Catalyst Institute. «Los fundadores no deberían tener que navegar por un mosaico de leyes estatales de IA conflictivas que impiden la innovación.»
Temas Específicos: Seguridad Infantil, Copyright y Censura
Seguridad Infantil y Responsabilidad Parental
El marco se emite en un momento en que la seguridad infantil ha surgido como un punto central en el debate sobre la IA. Ciertos estados han actuado agresivamente para aprobar leyes destinadas a proteger a los menores y colocar más responsabilidad en las empresas tecnológicas. La propuesta de la administración apunta en una dirección diferente, colocando mayor énfasis en el control parental que en la responsabilidad de las plataformas.
«Los padres están mejor equipados para manejar el entorno digital y la crianza de sus hijos», dice el framework. «La Administración hace un llamado al Congreso para que dé a los padres herramientas para hacer eso efectivamente, como controles de cuenta para proteger la privacidad de sus hijos y gestionar el uso de sus dispositivos.»
Copyright y «Uso Justo»
Sobre el tema del copyright, el marco intenta encontrar un término medio entre proteger a los creadores y permitir que los sistemas de IA sean entrenados en obras existentes, citando la necesidad del «uso justo». Ese tipo de lenguaje refleja los argumentos que las empresas de IA han hecho mientras enfrentan un número creciente de demandas por derechos de autor sobre sus datos de entrenamiento.
Censura y Expresión Política
Las principales barreras protectoras que el marco de IA de Trump parece esbozar implican asegurar que «la IA pueda perseguir la verdad y la precisión sin limitación». Específicamente, se centra en prevenir la censura impulsada por el gobierno, en lugar de la moderación de contenido por parte de las plataformas.
«El Congreso debe evitar que el gobierno de Estados Unidos coaccione a los proveedores de tecnología, incluidos los proveedores de IA, para prohibir, obligar o alterar contenido basado en agendas partidistas o ideológicas», lee el framework. También instruye al Congreso a proporcionar una forma para que los estadounidenses busquen reparación legal contra las agencias gubernamentales que buscan censurar la expresión en las plataformas de IA o dictar la información proporcionada por una plataforma de IA.
Caso Judicial: Anthropic vs. el Gobierno
El framework llega cuando Anthropic está demandando al gobierno por supuestamente infringir sus derechos de la Primera Enmienda después de que el Departamento de Defensa (DOD) lo etiquetara como un riesgo de cadena de suministro. Anthropic argumenta que el DOD lo designa como tal en represalia por no permitir que el ejército use sus productos de IA para la vigilancia masiva de estadounidenses o para tomar decisiones de apuntar y disparar en armas letales autónomas. Trump se ha referido a Anthropic y su CEO Dario Amodei como «woke» y un «izquierdista radical».
Implicaciones y Futuro de la Regulación de IA
El lenguaje del framework, que enfatiza proteger la «expresión política legal o el disenso», parece basarse en la orden ejecutiva anterior de Trump dirigida a la «IA woke», que impulsó a las agencias federales a adoptar sistemas considerados ideológicamente neutrales.
Samir Jain, vicepresidente de políticas del Center for Democracy and Technology, señaló: «[El framework] dice correctamente que el gobierno no debe coaccionar a las empresas de IA para prohibir o alterar contenido basado en ‘agendas partidistas o ideológicas’, sin embargo, la Orden Ejecutiva de ‘IA woke’ de la Administración este verano hace exactamente eso.»
Queda claro que este marco legislativo buscaría centralizar la formulación de políticas de IA en Washington mientras reduce el espacio para que los estados actúen como reguladores tempranos de riesgos emergentes, configurando una batalla política sobre el futuro de la tecnología.