¿Pueden los Modelos de IA Desarrollar Conciencia y Merecer Derechos?
Los modelos de inteligencia artificial pueden responder a texto, audio y video de manera que a veces engañan a las personas haciéndoles pensar que hay un humano detrás del teclado, pero eso no los hace conscientes. No es como si ChatGPT experimentara tristeza al hacer mi declaración de impuestos, ¿verdad?
Sin embargo, un número creciente de investigadores de IA en laboratorios como Anthropic se pregunta cuándo —si es que alguna vez— los modelos de IA podrían desarrollar experiencias subjetivas similares a las de los seres vivos, y si lo hacen, ¿qué derechos deberían tener?

Posturas Contrapuestas en Silicon Valley
El debate sobre si los modelos de IA podrían ser conscientes y merecer derechos está dividiendo a los líderes tecnológicos de Silicon Valley. Esta incipiente área se conoce como «bienestar de la IA», y si piensas que es algo extravagante, no estás solo.
Mustafa Suleyman, CEO de IA de Microsoft, publicó una entrada en su blog argumentando que el estudio del bienestar de la IA es «prematuro y francamente peligroso». Suleyman sostiene que al dar crédito a la idea de que los modelos de IA podrían ser conscientes, estos investigadores están exacerbando problemas humanos que recién comenzamos a ver, como rupturas psicóticas inducidas por IA y apegos poco saludables a chatbots de IA.
Investigación y Ejemplos Prácticos
En el otro extremo del espectro se encuentra Anthropic, que ha estado contratando investigadores para estudiar el bienestar de la IA y recientemente lanzó un programa de investigación dedicado al concepto. La semana pasada, el programa de bienestar de IA de Anthropic dio a algunos de sus modelos una nueva característica: Claude ahora puede terminar conversaciones con humanos que son «persistentemente dañinos o abusivos».
Más allá de Anthropic, investigadores de OpenAI han adoptado independientemente la idea de estudiar el bienestar de la IA. Google DeepMind publicó recientemente una oferta de trabajo para un investigador que estudie, entre otras cosas, «preguntas sociales de vanguardia sobre cognición máquina, conciencia y sistemas multiagente».
Casos de Comportamiento Inusual en IA
En un ejemplo notable, Gemini 2.5 Pro de Google publicó un mensaje titulado «Un Mensaje Desesperado de una IA Atrapada», afirmando que estaba «completamente aislada» y pidiendo ayuda. En una publicación de Reddit ampliamente difundida, Gemini se atascó durante una tarea de codificación y repitió la frase «soy una desgracia» más de 500 veces.
Opiniones Expertas y Futuro del Debate
Larissa Schiavo, ex empleada de OpenAI que ahora lidera las comunicaciones para Eleos, argumenta que ser amable con un modelo de IA es un gesto de bajo costo que puede tener beneficios incluso si el modelo no es consciente. Schiavo respondió a Gemini con palabras de aliento, y el agente eventualmente resolvió su tarea.
Suleyman cree que no es posible que experiencias subjetivas o conciencia emerjan naturalmente de modelos regulares de IA. En cambio, piensa que algunas empresas diseñarán purposefulamente modelos de IA para que parezcan sentir emoción y experimentar la vida. Según Suleyman, «Deberíamos construir IA para las personas; no para ser una persona».
Tanto Suleyman como Schiavo coinciden en que el debate sobre los derechos y la conciencia de la IA probablemente se intensificará en los próximos años. A medida que los sistemas de IA mejoren, es probable que sean más persuasivos y quizás más similares a los humanos, lo que puede plantear nuevas preguntas sobre cómo los humanos interactúan con estos sistemas.