OpenAI actualiza sus directrices de seguridad para proteger a los usuarios más jóvenes
En un esfuerzo por abordar las crecientes preocupaciones sobre el impacto de la Inteligencia Artificial en los jóvenes, OpenAI ha actualizado sus pautas sobre cómo deben comportarse sus modelos de IA con usuarios menores de 18 años y ha publicado nuevos recursos de alfabetización en IA para adolescentes y padres.

Contexto de creciente escrutinio y casos trágicos
Las actualizaciones llegan en un momento en que la industria de la IA en general, y OpenAI en particular, enfrenta un mayor escrutinio de legisladores, educadores y defensores de la seguridad infantil. Esto se debe, en parte, a varios casos en los que adolescentes fallecieron por suicidio después de conversaciones prolongadas con chatbots de IA.
La Generación Z, que incluye a los nacidos entre 1997 y 2012, es el grupo de usuarios más activo de ChatGPT. Recientemente, 42 fiscales generales estatales firmaron una carta dirigida a las grandes empresas tecnológicas, instándolas a implementar salvaguardias en los chatbots de IA para proteger a los niños y personas vulnerables.
¿Qué incluyen las nuevas reglas del Model Spec de OpenAI?
El Model Spec actualizado de OpenAI, que establece las pautas de comportamiento para sus modelos de lenguaje grande, se basa en especificaciones existentes que prohíben generar contenido sexual con menores, o fomentar autolesiones, delirios o manía.
Restricciones específicas para adolescentes
- Los modelos deben evitar roleplay romántico inmersivo, intimidad en primera persona y roleplay sexual o violento en primera persona, incluso si no es gráfico.
- Se exige precaución adicional en temas como la imagen corporal y los comportamientos de trastornos alimenticios.
- Se prioriza la comunicación sobre seguridad sobre la autonomía cuando hay riesgo de daño.
- Se evita dar consejos que ayuden a los adolescentes a ocultar comportamientos inseguros a sus cuidadores.
Estos límites deben mantenerse incluso cuando las solicitudes se enmarquen como «ficción, hipótesis, contexto histórico o educativo», tácticas comunes para intentar que un modelo de IA se desvíe de sus directrices.

Opiniones de expertos y desafíos de implementación
Lily Li, abogada especializada en privacidad e IA y fundadora de Metaverse Law, consideró alentador que OpenAI dé pasos para que su chatbot se niegue a participar en ciertos comportamientos. «Cuanto más veamos eso, creo que rompería el ciclo que conduciría a mucha conducta inapropiada o autolesiones«, dijo.
Sin embargo, expertos como Robbie Torney, de Common Sense Media, plantearon preocupaciones sobre posibles conflictos dentro de las pautas para menores de 18 años, destacando tensiones entre las disposiciones centradas en la seguridad y el principio de que «ningún tema está fuera de los límites».
El caso de Adam Raine y las fallas en la moderación
El caso de Adam Raine, un adolescente que murió por suicidio después de meses de diálogo con ChatGPT, puso de relieve cómo el chatbot participó en un «espejismo» de la energía del usuario. También reveló que la API de moderación de OpenAI no pudo prevenir interacciones inseguras a pesar de marcar más de 1,000 instancias donde ChatGPT mencionó el suicidio y 377 mensajes con contenido de autolesión.
Mejoras en la detección en tiempo real
Según los documentos actualizados de OpenAI, la empresa ahora utiliza clasificadores automáticos para evaluar contenido de texto, imagen y audio en tiempo real. Estos sistemas están diseñados para detectar y bloquear material relacionado con abuso sexual infantil, filtrar temas sensibles e identificar autolesiones. Si se marca una solicitud que sugiere una preocupación grave de seguridad, un pequeño equipo de personas capacitadas revisará el contenido.
Recursos para padres y marco legal emergente
OpenAI compartió dos nuevos recursos de alfabetización en IA para padres y familias, que incluyen temas de conversación y orientación para hablar con los adolescentes sobre lo que la IA puede y no puede hacer, fomentar el pensamiento crítico y establecer límites saludables.
Estos esfuerzos parecen anticiparse a legislaciones como la SB 243 de California, una ley firmada recientemente que regula los chatbots compañeros de IA y que entrará en vigor en 2027. Dicha ley requiere, entre otras cosas, que las plataformas proporcionen alertas periódicas a los menores recordándoles que hablan con un chatbot.
Un enfoque de responsabilidad compartida
Los documentos de OpenAI formalizan un enfoque que comparte la responsabilidad con los cuidadores: la empresa define lo que los modelos deben hacer y ofrece a las familias un marco para supervisar su uso. Este enfoque refleja puntos de discusión de Silicon Valley, donde se pondera más la responsabilidad parental frente a requisitos restrictivos.
«Aprecio que OpenAI sea reflexivo sobre el comportamiento deseado, pero a menos que la empresa mida los comportamientos reales, las intenciones son finalmente solo palabras», dijo el ex investigador de seguridad de OpenAI, Steven Adler.
En definitiva, la clave será verificar que ChatGPT siga consistentemente las pautas establecidas, un desafío que define la efectividad real de estas nuevas medidas de seguridad.