Un llamado a la acción: La Declaración Pro-Humana
Mientras Washington evidencia una falta total de reglas coherentes para gobernar la inteligencia artificial, una coalición bipartidista de expertos ha ensamblado lo que el gobierno ha declinado producir hasta ahora: un marco para cómo debería ser realmente un desarrollo responsable de la IA.
La «Pro-Human Declaration» (Declaración Pro-Humana) fue finalizada antes del reciente enfrentamiento entre el Pentágono y la empresa Anthropic, pero la colisión de ambos eventos no pasó desapercibida para los involucrados. Max Tegmark, físico del MIT e investigador de IA que ayudó a organizar el esfuerzo, señaló que algo notable ha sucedido en Estados Unidos: «El 95% de todos los estadounidenses se oponen a una carrera no regulada hacia la superinteligencia».

Los Cinco Pilares Fundamentales
El documento, firmado por cientos de expertos, exfuncionarios y figuras públicas, plantea que la humanidad está en una encrucijada. Un camino, llamado «la carrera para reemplazar», llevaría a que los humanos sean suplantados primero como trabajadores y luego como tomadores de decisiones. El otro conduce a una IA que expanda masivamente el potencial humano.
Este último escenario depende de cinco pilares clave:
- Mantener a los humanos al mando.
- Evitar la concentración de poder.
- Proteger la experiencia humana.
- Preservar la libertad individual.
- Hacer que las empresas de IA rindan cuentas legalmente.
Entre sus disposiciones más contundentes se encuentran la prohibición total del desarrollo de superinteligencia hasta que haya consenso científico sobre su seguridad y aprobación democrática genuina, interruptores de apagado obligatorios en sistemas poderosos, y una prohibición de arquitecturas capaces de autorreplicación, auto-mejora autónoma o resistencia al cierre.
El Costo de la Inacción: El Enfrentamiento con Anthropic
La publicación de la declaración coincide con un período que hace apreciar su urgencia. A fines de febrero, el Secretario de Defensa, Pete Hegseth, designó a Anthropic —cuya IA ya funciona en plataformas militares clasificadas— como un «riesgo para la cadena de suministro», después de que la empresa se negó a otorgar al Pentágono uso ilimitado de su tecnología. Horas después, OpenAI cerró su propio acuerdo con el Departamento de Defensa, un pacto que, según expertos legales, será difícil de hacer cumplir de manera significativa.
«Esto no es solo una disputa sobre un contrato», dijo Dean Ball, miembro principal de la Foundation for American Innovation. «Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA».
Un Apoyo Inusual: Bannon y Rice en el Mismo Documento
Es significativo que el exasesor de Trump, Steve Bannon, y Susan Rice, Asesora de Seguridad Nacional del presidente Obama, hayan firmado el mismo documento, junto con el exjefe del Estado Mayor Conjunto, Mike Mullen, y líderes religiosos progresistas.
«En lo que están de acuerdo, por supuesto, es que todos son humanos», afirma Tegmark. «Si se trata de si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que van a estar del mismo lado».
La Seguridad Infantil como Punto de Presión
Tegmark ve la seguridad de los niños como el punto de presión más probable para romper el actual estancamiento en Washington. La declaración exige pruebas obligatorias antes del despliegue de productos de IA, especialmente chatbots y aplicaciones de compañía dirigidas a usuarios jóvenes, cubriendo riesgos como el aumento de la ideación suicida, la exacerbación de condiciones de salud mental y la manipulación emocional.
«Si un hombre mayor y espeluznante envía mensajes de texto a un niño de 11 años pretendiendo ser una niña joven e intenta persuadir a este niño para que se suicide, el tipo puede ir a la cárcel por eso», dijo Tegmark. «Ya tenemos leyes. Es ilegal. Entonces, ¿por qué es diferente si lo hace una máquina?».
Él cree que una vez que se establezca el principio de pruebas previas al lanzamiento para productos infantiles, el alcance se ampliará casi inevitablemente para incluir otros riesgos, como la ayuda a terroristas para crear bioweapons o la amenaza a la estabilidad gubernamental.