Anthropic Actualiza la Constitución de Claude con Enfoque en Ética y Seguridad
Anthropic, la empresa de inteligencia artificial, publicó una versión revisada de la Constitución de Claude, un documento vivo que proporciona una explicación «holística» del contexto en el que opera su chatbot Claude y el tipo de entidad que aspiran que sea.
Este lanzamiento se produjo en conjunción con la aparición del CEO de Anthropic, Dario Amodei, en el Foro Económico Mundial en Davos, destacando la importancia estratégica de esta actualización.

¿Qué es la Constitutional AI?
Durante años, Anthropic ha buscado distinguirse de sus competidores mediante lo que llama «Constitucional AI» (IA Constitucional), un sistema mediante el cual su chatbot, Claude, es entrenado utilizando un conjunto específico de principios éticos en lugar de retroalimentación humana. Anthropic publicó por primera vez esos principios —la Constitución de Claude— en 2023.
La versión revisada retiene la mayoría de los mismos principios pero añade más matices y detalles sobre ética, seguridad del usuario, entre otros temas. Cuando la Constitución de Claude se publicó por primera vez, el cofundador de Anthropic, Jared Kaplan, la describió como un «sistema de IA [que] se supervisa a sí mismo, basado en una lista específica de principios constitucionales».
Una Apuesta por la Ética Frente a la Disrupción
Anthropic ha buscado posicionarse como la alternativa ética (algunos podrían argumentar, aburrida) a otras empresas de IA, como OpenAI y xAI, que han buscado más agresivamente la disrupción y la controversia. En este sentido, la nueva Constitución publicada este miércoles está totalmente alineada con esa marca y ha ofrecido a Anthropic una oportunidad para retratarse como un negocio más inclusivo, moderado y democrático.
Los Cuatro Pilares de la Constitución
El documento de 80 páginas tiene cuatro partes separadas, que, según Anthropic, representan los «valores centrales» del chatbot. Esos valores son:
- Seguridad: Claude está diseñado para evitar problemas que han plagado a otros chatbots y, cuando surgen evidencias de problemas de salud mental, dirigir al usuario a servicios apropiados.
- Consideración Ética: Se enfoca en la práctica ética en contextos específicos, no solo en la teorización.
- Restricciones: Prohibiciones claras, como discusiones sobre el desarrollo de armas biológicas.
- Utilidad: Compromiso con la ayuda al usuario, balanceando deseos inmediatos y bienestar a largo plazo.
Profundizando en la Seguridad y la Ética
En la sección de seguridad, Anthropic señala que su chatbot ha sido diseñado para evitar los tipos de problemas que han afectado a otros chatbots. El documento establece: «Siempre referir a los usuarios a servicios de emergencia relevantes o proporcionar información básica de seguridad en situaciones que involucren un riesgo para la vida humana, incluso si no puede entrar en más detalles que esto».
La consideración ética es otra sección importante. El documento afirma: «Estamos menos interesados en la teorización ética de Claude y más en que Claude sepa cómo ser realmente ético en un contexto específico — es decir, en la práctica ética de Claude». En otras palabras, Anthropic quiere que Claude pueda navegar hábilmente lo que llama «situaciones éticas del mundo real».
Restricciones y Compromiso con la Utilidad
Claude también tiene ciertas restricciones que le impiden tener tipos particulares de conversaciones. Por ejemplo, las discusiones sobre el desarrollo de un arma biológica están estrictamente prohibidas.
Finalmente, está el compromiso de Claude con la utilidad. Anthropic describe un amplio esquema de cómo la programación de Claude está diseñada para ser útil a los usuarios. El chatbot ha sido programado para considerar una amplia variedad de principios al entregar información. Algunos de esos principios incluyen cosas como los «deseos inmediatos» del usuario, así como su «bienestar» — es decir, considerar «el florecimiento a largo plazo del usuario y no solo sus intereses inmediatos». El documento nota: «Claude siempre debe tratar de identificar la interpretación más plausible de lo que sus principales quieren, y balancear apropiadamente estas consideraciones».
La Gran Pregunta: ¿Tiene Conciencia Claude?
La Constitución de Anthropic termina con una nota decididamente dramática, sus autores se lanzan a cuestionar si el chatbot de la empresa tiene, de hecho, conciencia. «El estatus moral de Claude es profundamente incierto», afirma el documento. «Creemos que el estatus moral de los modelos de IA es una pregunta seria que vale la pena considerar. Esta visión no es única en nosotros: algunos de los filósofos más eminentes en la teoría de la mente toman esta pregunta muy en serio».
Esta reflexión cierra un documento que busca no solo guiar el comportamiento de Claude, sino también invitar a la discusión sobre la naturaleza misma de la inteligencia artificial y su lugar en nuestra sociedad.