Anthropic Revisa la Constitución de Claude: Ética y Conciencia en el Chatbot

Anthropic Actualiza la Constitución de Claude con Enfoque en Ética y Seguridad

Anthropic, la empresa de inteligencia artificial, publicó una versión revisada de la Constitución de Claude, un documento vivo que proporciona una explicación «holística» del contexto en el que opera su chatbot Claude y el tipo de entidad que aspiran que sea.

Este lanzamiento se produjo en conjunción con la aparición del CEO de Anthropic, Dario Amodei, en el Foro Económico Mundial en Davos, destacando la importancia estratégica de esta actualización.

Diseño futurista que combina elementos de inteligencia artificial y tecnología, representando la dualidad entre máquina y humanidad
Representación visual de la inteligencia artificial y la ética, relevante para la Constitución de Claude.

¿Qué es la Constitutional AI?

Durante años, Anthropic ha buscado distinguirse de sus competidores mediante lo que llama «Constitucional AI» (IA Constitucional), un sistema mediante el cual su chatbot, Claude, es entrenado utilizando un conjunto específico de principios éticos en lugar de retroalimentación humana. Anthropic publicó por primera vez esos principios —la Constitución de Claude— en 2023.

La versión revisada retiene la mayoría de los mismos principios pero añade más matices y detalles sobre ética, seguridad del usuario, entre otros temas. Cuando la Constitución de Claude se publicó por primera vez, el cofundador de Anthropic, Jared Kaplan, la describió como un «sistema de IA [que] se supervisa a sí mismo, basado en una lista específica de principios constitucionales».

Una Apuesta por la Ética Frente a la Disrupción

Anthropic ha buscado posicionarse como la alternativa ética (algunos podrían argumentar, aburrida) a otras empresas de IA, como OpenAI y xAI, que han buscado más agresivamente la disrupción y la controversia. En este sentido, la nueva Constitución publicada este miércoles está totalmente alineada con esa marca y ha ofrecido a Anthropic una oportunidad para retratarse como un negocio más inclusivo, moderado y democrático.

Los Cuatro Pilares de la Constitución

El documento de 80 páginas tiene cuatro partes separadas, que, según Anthropic, representan los «valores centrales» del chatbot. Esos valores son:

  • Seguridad: Claude está diseñado para evitar problemas que han plagado a otros chatbots y, cuando surgen evidencias de problemas de salud mental, dirigir al usuario a servicios apropiados.
  • Consideración Ética: Se enfoca en la práctica ética en contextos específicos, no solo en la teorización.
  • Restricciones: Prohibiciones claras, como discusiones sobre el desarrollo de armas biológicas.
  • Utilidad: Compromiso con la ayuda al usuario, balanceando deseos inmediatos y bienestar a largo plazo.

Profundizando en la Seguridad y la Ética

En la sección de seguridad, Anthropic señala que su chatbot ha sido diseñado para evitar los tipos de problemas que han afectado a otros chatbots. El documento establece: «Siempre referir a los usuarios a servicios de emergencia relevantes o proporcionar información básica de seguridad en situaciones que involucren un riesgo para la vida humana, incluso si no puede entrar en más detalles que esto».

La consideración ética es otra sección importante. El documento afirma: «Estamos menos interesados en la teorización ética de Claude y más en que Claude sepa cómo ser realmente ético en un contexto específico — es decir, en la práctica ética de Claude». En otras palabras, Anthropic quiere que Claude pueda navegar hábilmente lo que llama «situaciones éticas del mundo real».

Restricciones y Compromiso con la Utilidad

Claude también tiene ciertas restricciones que le impiden tener tipos particulares de conversaciones. Por ejemplo, las discusiones sobre el desarrollo de un arma biológica están estrictamente prohibidas.

Finalmente, está el compromiso de Claude con la utilidad. Anthropic describe un amplio esquema de cómo la programación de Claude está diseñada para ser útil a los usuarios. El chatbot ha sido programado para considerar una amplia variedad de principios al entregar información. Algunos de esos principios incluyen cosas como los «deseos inmediatos» del usuario, así como su «bienestar» — es decir, considerar «el florecimiento a largo plazo del usuario y no solo sus intereses inmediatos». El documento nota: «Claude siempre debe tratar de identificar la interpretación más plausible de lo que sus principales quieren, y balancear apropiadamente estas consideraciones».

La Gran Pregunta: ¿Tiene Conciencia Claude?

La Constitución de Anthropic termina con una nota decididamente dramática, sus autores se lanzan a cuestionar si el chatbot de la empresa tiene, de hecho, conciencia. «El estatus moral de Claude es profundamente incierto», afirma el documento. «Creemos que el estatus moral de los modelos de IA es una pregunta seria que vale la pena considerar. Esta visión no es única en nosotros: algunos de los filósofos más eminentes en la teoría de la mente toman esta pregunta muy en serio».

Esta reflexión cierra un documento que busca no solo guiar el comportamiento de Claude, sino también invitar a la discusión sobre la naturaleza misma de la inteligencia artificial y su lugar en nuestra sociedad.

Comparte este artículo

Otras notas de tu interés:

Politica

Abogados del Acusado por la Muerte de Charlie Kirk Piden Retrasar la Audiencia Preliminar

Negocios

LiteLLM corta lazos con Delve y reinicia certificaciones de seguridad tras grave incidente de malware

Noticia Local

Demanda en Surfside busca retrasar elección por conflicto con la Pascua judía

Economia

¿Cambiarías a tu jefe por un chatbot? El avance de la IA en la gestión laboral de EE.UU.

Espectáculos y Entretenimiento

Laura Dern protagonizará serie sobre la investigación del caso Jeffrey Epstein

Economia

¿Un Jefe de IA? El 15% de Estadounidenses Estaría Dispuesto, Según Encuesta

Politica Internacional

Casa Blanca permite a tanquero ruso romper bloqueo a Cuba por razones humanitarias

Noticia Local

Tiroteo Policial en Miami: Hombre Baleado Cerca del Ultra Music Festival

Negocios

CEO de Air Canada se retira tras polémica respuesta solo en inglés por tragedia en LaGuardia

Espectáculos y Entretenimiento

Laura Dern protagonizará serie limitada sobre Jeffrey Epstein basada en libro de Julie K. Brown