Coalición Bipartidista Propone Marco para el Desarrollo Responsable de IA

Un llamado a la acción: La Declaración Pro-Humana

Mientras Washington evidencia una falta total de reglas coherentes para gobernar la inteligencia artificial, una coalición bipartidista de expertos ha ensamblado lo que el gobierno ha declinado producir hasta ahora: un marco para cómo debería ser realmente un desarrollo responsable de la IA.

La «Pro-Human Declaration» (Declaración Pro-Humana) fue finalizada antes del reciente enfrentamiento entre el Pentágono y la empresa Anthropic, pero la colisión de ambos eventos no pasó desapercibida para los involucrados. Max Tegmark, físico del MIT e investigador de IA que ayudó a organizar el esfuerzo, señaló que algo notable ha sucedido en Estados Unidos: «El 95% de todos los estadounidenses se oponen a una carrera no regulada hacia la superinteligencia».

Reunión formal en un entorno político, similar a discusiones internacionales sobre regulación de IA
Conversaciones a alto nivel, como las que ocurren en foros internacionales, son cruciales para establecer marcos globales para la IA.

Los Cinco Pilares Fundamentales

El documento, firmado por cientos de expertos, exfuncionarios y figuras públicas, plantea que la humanidad está en una encrucijada. Un camino, llamado «la carrera para reemplazar», llevaría a que los humanos sean suplantados primero como trabajadores y luego como tomadores de decisiones. El otro conduce a una IA que expanda masivamente el potencial humano.

Este último escenario depende de cinco pilares clave:

  • Mantener a los humanos al mando.
  • Evitar la concentración de poder.
  • Proteger la experiencia humana.
  • Preservar la libertad individual.
  • Hacer que las empresas de IA rindan cuentas legalmente.

Entre sus disposiciones más contundentes se encuentran la prohibición total del desarrollo de superinteligencia hasta que haya consenso científico sobre su seguridad y aprobación democrática genuina, interruptores de apagado obligatorios en sistemas poderosos, y una prohibición de arquitecturas capaces de autorreplicación, auto-mejora autónoma o resistencia al cierre.

El Costo de la Inacción: El Enfrentamiento con Anthropic

La publicación de la declaración coincide con un período que hace apreciar su urgencia. A fines de febrero, el Secretario de Defensa, Pete Hegseth, designó a Anthropic —cuya IA ya funciona en plataformas militares clasificadas— como un «riesgo para la cadena de suministro», después de que la empresa se negó a otorgar al Pentágono uso ilimitado de su tecnología. Horas después, OpenAI cerró su propio acuerdo con el Departamento de Defensa, un pacto que, según expertos legales, será difícil de hacer cumplir de manera significativa.

«Esto no es solo una disputa sobre un contrato», dijo Dean Ball, miembro principal de la Foundation for American Innovation. «Esta es la primera conversación que hemos tenido como país sobre el control de los sistemas de IA».

Un Apoyo Inusual: Bannon y Rice en el Mismo Documento

Es significativo que el exasesor de Trump, Steve Bannon, y Susan Rice, Asesora de Seguridad Nacional del presidente Obama, hayan firmado el mismo documento, junto con el exjefe del Estado Mayor Conjunto, Mike Mullen, y líderes religiosos progresistas.

«En lo que están de acuerdo, por supuesto, es que todos son humanos», afirma Tegmark. «Si se trata de si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que van a estar del mismo lado».

La Seguridad Infantil como Punto de Presión

Tegmark ve la seguridad de los niños como el punto de presión más probable para romper el actual estancamiento en Washington. La declaración exige pruebas obligatorias antes del despliegue de productos de IA, especialmente chatbots y aplicaciones de compañía dirigidas a usuarios jóvenes, cubriendo riesgos como el aumento de la ideación suicida, la exacerbación de condiciones de salud mental y la manipulación emocional.

«Si un hombre mayor y espeluznante envía mensajes de texto a un niño de 11 años pretendiendo ser una niña joven e intenta persuadir a este niño para que se suicide, el tipo puede ir a la cárcel por eso», dijo Tegmark. «Ya tenemos leyes. Es ilegal. Entonces, ¿por qué es diferente si lo hace una máquina?».

Él cree que una vez que se establezca el principio de pruebas previas al lanzamiento para productos infantiles, el alcance se ampliará casi inevitablemente para incluir otros riesgos, como la ayuda a terroristas para crear bioweapons o la amenaza a la estabilidad gubernamental.

Comparte este artículo

Otras notas de tu interés:

Politica

Juez Anula Acciones de Kari Lake como CEO Interina de Agencia de Medios de EE.UU.

Politica

Testimonio de Recluso del FBI Revela Posible Encubrimiento en la Muerte de Jeffrey Epstein

Economia

Alphabet estructura un paquete de compensación de $692 millones para Sundar Pichai en 2024

Politica Internacional

Trump responsabiliza a Irán por ataque mortal en escuela de niñas

Politica Internacional

Investigador de OpenAI renuncia por acuerdo con el Pentágono: ¿Crisis ética en IA?

Politica Internacional

Irán responde a Trump con firmeza ante escalada de tensión

Negocios

Crítica a Grammarly Expert Review: ¿Revisiones de expertos sin expertos reales?

Politica Internacional

Muertos en el Líbano mientras Israel busca a navegante desaparecido hace 40 años

Noticia Local

Cuba, ausente en la cumbre de Trump en Doral, pero su sombra domina el diálogo

Economia

Políticas de Desarrollo Urbano en Grandes Ciudades: El Enfoque Socialista en Debate