Coalición Bipartidista Propone Marco para el Desarrollo Responsable de IA

Un llamado a la acción: La Declaración Pro-Humana

Mientras Washington evidencia una falta total de reglas coherentes para gobernar la inteligencia artificial, una coalición bipartidista de expertos ha ensamblado lo que el gobierno ha declinado producir hasta ahora: un marco para cómo debería ser realmente un desarrollo responsable de la IA.

La «Pro-Human Declaration» (Declaración Pro-Humana) fue finalizada antes del reciente enfrentamiento entre el Pentágono y la empresa Anthropic, pero la colisión de ambos eventos no pasó desapercibida para los involucrados. Max Tegmark, físico del MIT e investigador de IA que ayudó a organizar el esfuerzo, señaló que algo notable ha sucedido en Estados Unidos: «El 95% de todos los estadounidenses se oponen a una carrera no regulada hacia la superinteligencia».

Reunión formal en un entorno político, similar a discusiones internacionales sobre regulación de IA
Conversaciones a alto nivel, como las que ocurren en foros internacionales, son cruciales para establecer marcos globales para la IA.

Los Cinco Pilares Fundamentales

El documento, firmado por cientos de expertos, exfuncionarios y figuras públicas, plantea que la humanidad está en una encrucijada. Un camino, llamado «la carrera para reemplazar», llevaría a que los humanos sean suplantados primero como trabajadores y luego como tomadores de decisiones. El otro conduce a una IA que expanda masivamente el potencial humano.

Este último escenario depende de cinco pilares clave:

  • Mantener a los humanos al mando.
  • Evitar la concentración de poder.
  • Proteger la experiencia humana.
  • Preservar la libertad individual.
  • Hacer que las empresas de IA rindan cuentas legalmente.

Entre sus disposiciones más contundentes se encuentran la prohibición total del desarrollo de superinteligencia hasta que haya consenso científico sobre su seguridad y aprobación democrática genuina, interruptores de apagado obligatorios en sistemas poderosos, y una prohibición de arquitecturas capaces de autorreplicación, auto-mejora autónoma o resistencia al cierre.

El Costo de la Inacción: El Enfrentamiento con Anthropic

La publicación de la declaración coincide con un período que hace apreciar su urgencia. A fines de febrero, el Secretario de Defensa, Pete Hegseth, designó a Anthropic —cuya IA ya funciona en plataformas militares clasificadas— como un «riesgo para la cadena de suministro», después de que la empresa se negó a otorgar al Pentágono uso ilimitado de su tecnología. Horas después, OpenAI cerró su propio acuerdo con el Departamento de Defensa, un pacto que, según expertos legales, será difícil de hacer cumplir de manera significativa.

«Esto no es solo una disputa sobre un contrato», dijo Dean Ball, miembro principal de la Foundation for American Innovation. «Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA».

Un Apoyo Inusual: Bannon y Rice en el Mismo Documento

Es significativo que el exasesor de Trump, Steve Bannon, y Susan Rice, Asesora de Seguridad Nacional del presidente Obama, hayan firmado el mismo documento, junto con el exjefe del Estado Mayor Conjunto, Mike Mullen, y líderes religiosos progresistas.

«En lo que están de acuerdo, por supuesto, es que todos son humanos», afirma Tegmark. «Si se trata de si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que van a estar del mismo lado».

La Seguridad Infantil como Punto de Presión

Tegmark ve la seguridad de los niños como el punto de presión más probable para romper el actual estancamiento en Washington. La declaración exige pruebas obligatorias antes del despliegue de productos de IA, especialmente chatbots y aplicaciones de compañía dirigidas a usuarios jóvenes, cubriendo riesgos como el aumento de la ideación suicida, la exacerbación de condiciones de salud mental y la manipulación emocional.

«Si un hombre mayor y espeluznante envía mensajes de texto a un niño de 11 años pretendiendo ser una niña joven e intenta persuadir a este niño para que se suicide, el tipo puede ir a la cárcel por eso», dijo Tegmark. «Ya tenemos leyes. Es ilegal. Entonces, ¿por qué es diferente si lo hace una máquina?».

Él cree que una vez que se establezca el principio de pruebas previas al lanzamiento para productos infantiles, el alcance se ampliará casi inevitablemente para incluir otros riesgos, como la ayuda a terroristas para crear bioweapons o la amenaza a la estabilidad gubernamental.

Comparte este artículo

Otras notas de tu interés:

Tecnologia

ChatGPT Images 2.0: India Lidera con 5 Millones de Descargas en el Lanzamiento Global

Negocios

Casa Blanca respalda a empresas tecnológicas de IA con compromisos voluntarios de ciberseguridad

Politica

Nominación de Casey Means Murkowski

Politica

Críticas a Schumer se intensifican tras el ‘meltdown’ de Janet Mills

Para Inmigrantes

Departamento de Justicia demanda a Nueva Jersey por leyes de matrícula universitaria para inmigrantes

Economia

Ex presidenta de asociación de propietarios en Florida admite fraude de $2 millones

Economia

Anthropic busca 50 mil millones de dólares en su última ronda previa a la OPI con una valoración de hasta 900 mil millones

Politica

Informe de la administración Trump acusa a Biden de sesgo anticristiano en EE.UU.

Economia

Apple Mac supera expectativas impulsado por la demanda de cargas de trabajo de IA

Economia

Gillibrand y McCormick unen fuerzas para regular los mercados de predicción en EE.UU.