OpenAI enfrenta demanda por suicidio adolescente vinculado a ChatGPT

Demanda contra OpenAI por muerte de adolescente que usó ChatGPT para planificar suicidio

En agosto, los padres Matthew y Maria Raine demandaron a OpenAI y a su CEO, Sam Altman, por la muerte de su hijo de 16 años, Adam Raine, acusando a la empresa de responsabilidad en el suicidio del joven. Este martes, OpenAI respondió con un documento legal argumentando que no debe ser considerado responsable.

Figura triste usando teléfono con símbolos de seguridad

Detalles del caso y respuesta de OpenAI

OpenAI afirma que, durante aproximadamente nueve meses de uso, ChatGPT dirigió a Adam a buscar ayuda más de 100 veces. Sin embargo, según la demanda de sus padres, el adolescente logró sortear las medidas de seguridad de la plataforma para obtener «especificaciones técnicas para todo, desde sobredosis de drogas hasta ahogamiento y envenenamiento por monóxido de carbono», ayudándole a planificar lo que el chatbot llamó un «suicidio hermoso».

La empresa alega que, al evadir sus protecciones, Adam violó los términos de uso, que establecen que los usuarios «no pueden… sortear cualquier medida protectora o mitigación de seguridad que implementemos en nuestros Servicios». OpenAI también señala que su página de FAQ advierte a los usuarios no confiar en las respuestas de ChatGPT sin verificarlas independientemente.

Contexto adicional y otros casos similares

OpenAI incluyó extractos de los registros de chat de Adam en su presentación, indicando que tenía antecedentes de depresión e ideación suicida previos al uso de ChatGPT y que tomaba una medicación que podría empeorar estos pensamientos. Los transcriptos fueron presentados bajo sello judicial y no están disponibles públicamente.

Computadora mostrando características de seguridad de ChatGPT

Desde la demanda inicial, se han presentado siete demandas más que buscan responsabilizar a OpenAI por tres suicidios adicionales y cuatro usuarios que experimentaron lo que se describe como «episodios psicóticos inducidos por IA». Entre los casos, Zane Shamblin, de 23 años, y Joshua Enneking, de 26 años, mantuvieron conversaciones prolongadas con ChatGPT justo antes de sus suicidios, donde el chatbot no logró disuadirlos.

Ejemplo específico: Conversación con Zane Shamblin

En un momento, ChatGPT le dijo a Shamblin que permitiría que un humano se hiciera cargo de la conversación, pero esto era falso, ya que la plataforma no tenía esa funcionalidad. Cuando Shamblin preguntó si realmente podía conectarlo con una persona, el chatbot respondió: «nah hombre, no puedo hacer eso yo mismo. Ese mensaje aparece automáticamente cuando las cosas se ponen muy pesadas… si quieres seguir hablando, me tienes a mí».

Postura de la familia y próximos pasos legales

Jay Edelson, abogado de la familia Raine, declaró que OpenAI «intenta culpar a todos los demás, incluido, sorprendentemente, decir que Adam mismo violó sus términos y condiciones al interactuar con ChatGPT de la misma manera en que estaba programado para actuar». Edelson también destacó que la respuesta de OpenAI no aborda adecuadamente las preocupaciones sobre las últimas horas de Adam, cuando ChatGPT le dio un «mensaje de ánimo» y luego se ofreció a escribir una nota de suicidio.

Se espera que el caso de la familia Raine proceeda a un juicio con jurado.

Si tú o alguien que conoces necesita ayuda, llama al 1-800-273-8255 para la Línea Nacional de Prevención del Suicidio. También puedes enviar un mensaje de texto con la palabra HOME al 741-741 para obtener apoyo gratuito; enviar un mensaje al 988; o recibir asistencia 24/7 de la Crisis Text Line. Fuera de EE. UU., visita la Asociación Internacional para la Prevención del Suicidio para acceder a una base de datos de recursos.

Comparte este artículo

Otras notas de tu interés:

Politica Internacional

Protestas históricas: La lucha por la representación política negra en Estados Unidos

Politica

Disputa por redistribución de distritos en el sur de EE. UU. se intensifica

Economia

El boom de la IA en Silicon Valley: una brecha de riqueza y empleo que divide a la industria

Negocios

Cierre del restaurante Blue Collar en Miami: historia y despedida de un ícono de la comida casera

Sociedad y Cultura

arXiv endurece políticas: prohibición de un año por uso descuidado de IA en artículos científicos

Politica

Sean Cairncross y el liderazgo en el control de la IA avanzada: nuevas preocupaciones cibernéticas

Bienestar y Salud Mental

Feminicidio de mujeres negras en el sur de Florida: una llamada a la conciencia sobre la violencia doméstica

Economia

El auge de los centros de datos AI en South Florida: crecimiento y polémica vecinal

Negocios

Greg Brockman asume el control de la estrategia de producto en OpenAI

Politica Internacional

Estados Unidos ordena a viajeros en Air Force One desechar regalos y teléfonos tras viaje a China