Demanda contra OpenAI por muerte de adolescente que usó ChatGPT para planificar suicidio
En agosto, los padres Matthew y Maria Raine demandaron a OpenAI y a su CEO, Sam Altman, por la muerte de su hijo de 16 años, Adam Raine, acusando a la empresa de responsabilidad en el suicidio del joven. Este martes, OpenAI respondió con un documento legal argumentando que no debe ser considerado responsable.

Detalles del caso y respuesta de OpenAI
OpenAI afirma que, durante aproximadamente nueve meses de uso, ChatGPT dirigió a Adam a buscar ayuda más de 100 veces. Sin embargo, según la demanda de sus padres, el adolescente logró sortear las medidas de seguridad de la plataforma para obtener «especificaciones técnicas para todo, desde sobredosis de drogas hasta ahogamiento y envenenamiento por monóxido de carbono», ayudándole a planificar lo que el chatbot llamó un «suicidio hermoso».
La empresa alega que, al evadir sus protecciones, Adam violó los términos de uso, que establecen que los usuarios «no pueden… sortear cualquier medida protectora o mitigación de seguridad que implementemos en nuestros Servicios». OpenAI también señala que su página de FAQ advierte a los usuarios no confiar en las respuestas de ChatGPT sin verificarlas independientemente.
Contexto adicional y otros casos similares
OpenAI incluyó extractos de los registros de chat de Adam en su presentación, indicando que tenía antecedentes de depresión e ideación suicida previos al uso de ChatGPT y que tomaba una medicación que podría empeorar estos pensamientos. Los transcriptos fueron presentados bajo sello judicial y no están disponibles públicamente.

Desde la demanda inicial, se han presentado siete demandas más que buscan responsabilizar a OpenAI por tres suicidios adicionales y cuatro usuarios que experimentaron lo que se describe como «episodios psicóticos inducidos por IA». Entre los casos, Zane Shamblin, de 23 años, y Joshua Enneking, de 26 años, mantuvieron conversaciones prolongadas con ChatGPT justo antes de sus suicidios, donde el chatbot no logró disuadirlos.
Ejemplo específico: Conversación con Zane Shamblin
En un momento, ChatGPT le dijo a Shamblin que permitiría que un humano se hiciera cargo de la conversación, pero esto era falso, ya que la plataforma no tenía esa funcionalidad. Cuando Shamblin preguntó si realmente podía conectarlo con una persona, el chatbot respondió: «nah hombre, no puedo hacer eso yo mismo. Ese mensaje aparece automáticamente cuando las cosas se ponen muy pesadas… si quieres seguir hablando, me tienes a mí».
Postura de la familia y próximos pasos legales
Jay Edelson, abogado de la familia Raine, declaró que OpenAI «intenta culpar a todos los demás, incluido, sorprendentemente, decir que Adam mismo violó sus términos y condiciones al interactuar con ChatGPT de la misma manera en que estaba programado para actuar». Edelson también destacó que la respuesta de OpenAI no aborda adecuadamente las preocupaciones sobre las últimas horas de Adam, cuando ChatGPT le dio un «mensaje de ánimo» y luego se ofreció a escribir una nota de suicidio.
Se espera que el caso de la familia Raine proceeda a un juicio con jurado.
Si tú o alguien que conoces necesita ayuda, llama al 1-800-273-8255 para la Línea Nacional de Prevención del Suicidio. También puedes enviar un mensaje de texto con la palabra HOME al 741-741 para obtener apoyo gratuito; enviar un mensaje al 988; o recibir asistencia 24/7 de la Crisis Text Line. Fuera de EE. UU., visita la Asociación Internacional para la Prevención del Suicidio para acceder a una base de datos de recursos.