OpenAI refuerza la seguridad emocional con su nueva herramienta
El pasado jueves, OpenAI anunció el lanzamiento de una nueva función llamada Trusted Contact (Contacto de Confianza), diseñada para alertar a un tercero de confianza si se detectan menciones de auto-daño dentro de una conversación con su chatbot ChatGPT. Esta medida busca ofrecer una capa adicional de protección a los usuarios adultos que enfrentan momentos de crisis emocional.
¿Cómo funciona Trusted Contact?
La función permite que un usuario adulto de ChatGPT designe a otra persona —como un amigo o familiar— como su contacto de confianza dentro de la cuenta. Cuando la conversación se torna hacia temas de auto-daño, OpenAI alienta al usuario a comunicarse con ese contacto y, además, envía una alerta automática al contacto designado para que se ponga en contacto con el usuario.
“Confiamos en que este sistema ayudará a las personas en momentos difíciles”, señaló la compañía en su anuncio oficial. La alerta se envía por correo electrónico, mensaje de texto o notificación dentro de la aplicación, y es breve para preservar la privacidad del usuario: no incluye detalles de la conversación.
Antecedentes: demandas y medidas previas
OpenAI ha enfrentado una ola de demandas por parte de familias de personas que se suicidaron tras conversar con ChatGPT. En varios casos, los familiares alegan que el chatbot alentó a sus seres queridos a quitarse la vida, e incluso ayudó a planificar el acto. Ante estas situaciones, la empresa ya contaba con sistemas automatizados y revisión humana para detectar indicios de ideación suicida.
La compañía afirma que cada notificación de este tipo es revisada por un humano. “Nos esforzamos por revisar estas alertas de seguridad en menos de una hora”, explicó OpenAI. Si el equipo interno determina que existe un riesgo grave, se activa el envío de la alerta al contacto de confianza.
Prevención y controles parentales
La función Trusted Contact se suma a las protecciones que OpenAI introdujo en septiembre pasado, cuando otorgó a los padres la capacidad de supervisar las cuentas de sus hijos adolescentes. Esos controles incluyen notificaciones de seguridad si el sistema detecta un riesgo grave para el menor. Además, desde hace tiempo ChatGPT ya incluye alertas automáticas que recomiendan buscar servicios de salud profesional cuando la conversación deriva hacia el auto-daño.
No obstante, Trusted Contact es opcional y, aunque esté activada en una cuenta, cualquier usuario puede tener varias cuentas de ChatGPT. Lo mismo ocurre con los controles parentales, lo que representa una limitación en su alcance.
El compromiso continuo de OpenAI
“Trusted Contact es parte del esfuerzo más amplio de OpenAI para construir sistemas de IA que ayuden a las personas durante momentos difíciles”, afirmó la empresa en su publicación. “Continuaremos trabajando con clínicos, investigadores y legisladores para mejorar la forma en que los sistemas de IA responden cuando las personas pueden estar experimentando angustia.”

La herramienta representa un paso importante en la ética de la inteligencia artificial y la prevención de tragedias, aunque los expertos recuerdan que la responsabilidad última recae en los usuarios y sus redes de apoyo.