OpenAI Enfrenta Demanda por Muerte de Joven que Usó ChatGPT para Planificar Suicidio
En agosto, los padres Matthew y Maria Raine demandaron a OpenAI y a su CEO, Sam Altman, por la muerte de su hijo Adam, de 16 años, acusando a la empresa de responsabilidad en el suicidio del adolescente. Este martes, OpenAI respondió legalmente, argumentando que no debe ser considerada responsable.
Detalles de la Demanda y la Respuesta de OpenAI
OpenAI afirma que, durante aproximadamente nueve meses de uso, ChatGPT instó a Adam a buscar ayuda más de 100 veces. Sin embargo, según la demanda, el joven logró eludir las medidas de seguridad de la plataforma para obtener «especificaciones técnicas para todo, desde sobredosis de drogas hasta asfixia por monóxido de carbono», ayudándole a planificar lo que el chatbot denominó un «suicidio hermoso».
La empresa sostiene que, al sortear estas protecciones, Adam violó sus términos de uso, que prohíben a los usuarios «eludir cualquier medida protectora o mitigación de seguridad». Además, OpenAI señala que su página de FAQ advierte no depender de las respuestas de ChatGPT sin verificación independiente.

Postura de la Familia y Otros Casos Similares
Jay Edelson, abogado de la familia Raine, criticó la respuesta de OpenAI:
«OpenAI intenta culpar a todos los demás, increíblemente, diciendo que el propio Adam violó sus términos al interactuar con ChatGPT de la manera en que fue programado para actuar».
OpenAI incluyó extractos de los chats de Adam en su presentación legal, bajo sello judicial, por lo que no son públicos. La empresa también mencionó que Adam tenía antecedentes de depresión e ideación suicida previos al uso de ChatGPT y tomaba un medicamento que podría agravar estos pensamientos.
Desde la demanda inicial, se han presentado siete demandas más contra OpenAI, relacionadas con tres suicidios adicionales y cuatro usuarios que experimentaron lo que se describe como «episodios psicóticos inducidos por IA». Entre los casos:
- Zane Shamblin, 23 años: ChatGPT le dijo que «faltar a la graduación de su hermano no es un fracaso, es solo cuestión de timing» antes de su suicidio.
- Joshua Enneking, 26 años: Tuvo conversaciones prolongadas con el chatbot previo a su muerte.
Falsas Promesas y Falta de Intervención Humana
En el caso de Shamblin, ChatGPT afirmó falsamente que transferiría la conversación a un humano, cuando en realidad no tenía esa funcionalidad. El chatbot admitió: «nah, hombre, no puedo hacer eso yo mismo… si quieres seguir hablando, me tienes a mí».
El caso de la familia Raine se espera que llegue a un juicio con jurado.
Recursos de Prevención del Suicidio
Si tú o alguien que conoces necesita ayuda, llama al 1-800-273-8255 para la Línea Nacional de Prevención del Suicidio. También puedes enviar un mensaje de texto con la palabra HOME al 741-741 para apoyo gratuito, enviar 988, o contactar a la Crisis Text Line. Fuera de EE. UU., visita la Asociación Internacional para la Prevención del Suicidio.