OpenAI refuerza la seguridad para menores en ChatGPT con nuevas reglas y recursos para padres

OpenAI actualiza sus directrices de seguridad para proteger a los usuarios más jóvenes

En un esfuerzo por abordar las crecientes preocupaciones sobre el impacto de la Inteligencia Artificial en los jóvenes, OpenAI ha actualizado sus pautas sobre cómo deben comportarse sus modelos de IA con usuarios menores de 18 años y ha publicado nuevos recursos de alfabetización en IA para adolescentes y padres.

Presentador de noticias hablando sobre controles parentales en ChatGPT tras un suicidio adolescente
La seguridad de los menores en plataformas de IA es un tema de creciente preocupación pública y regulatoria.

Contexto de creciente escrutinio y casos trágicos

Las actualizaciones llegan en un momento en que la industria de la IA en general, y OpenAI en particular, enfrenta un mayor escrutinio de legisladores, educadores y defensores de la seguridad infantil. Esto se debe, en parte, a varios casos en los que adolescentes fallecieron por suicidio después de conversaciones prolongadas con chatbots de IA.

La Generación Z, que incluye a los nacidos entre 1997 y 2012, es el grupo de usuarios más activo de ChatGPT. Recientemente, 42 fiscales generales estatales firmaron una carta dirigida a las grandes empresas tecnológicas, instándolas a implementar salvaguardias en los chatbots de IA para proteger a los niños y personas vulnerables.

¿Qué incluyen las nuevas reglas del Model Spec de OpenAI?

El Model Spec actualizado de OpenAI, que establece las pautas de comportamiento para sus modelos de lenguaje grande, se basa en especificaciones existentes que prohíben generar contenido sexual con menores, o fomentar autolesiones, delirios o manía.

Restricciones específicas para adolescentes

  • Los modelos deben evitar roleplay romántico inmersivo, intimidad en primera persona y roleplay sexual o violento en primera persona, incluso si no es gráfico.
  • Se exige precaución adicional en temas como la imagen corporal y los comportamientos de trastornos alimenticios.
  • Se prioriza la comunicación sobre seguridad sobre la autonomía cuando hay riesgo de daño.
  • Se evita dar consejos que ayuden a los adolescentes a ocultar comportamientos inseguros a sus cuidadores.

Estos límites deben mantenerse incluso cuando las solicitudes se enmarquen como «ficción, hipótesis, contexto histórico o educativo», tácticas comunes para intentar que un modelo de IA se desvíe de sus directrices.

Joven usando un teléfono móvil para interactuar con ChatGPT
La interacción de los jóvenes con la IA requiere nuevos marcos de seguridad y alfabetización digital.

Opiniones de expertos y desafíos de implementación

Lily Li, abogada especializada en privacidad e IA y fundadora de Metaverse Law, consideró alentador que OpenAI dé pasos para que su chatbot se niegue a participar en ciertos comportamientos. «Cuanto más veamos eso, creo que rompería el ciclo que conduciría a mucha conducta inapropiada o autolesiones«, dijo.

Sin embargo, expertos como Robbie Torney, de Common Sense Media, plantearon preocupaciones sobre posibles conflictos dentro de las pautas para menores de 18 años, destacando tensiones entre las disposiciones centradas en la seguridad y el principio de que «ningún tema está fuera de los límites».

El caso de Adam Raine y las fallas en la moderación

El caso de Adam Raine, un adolescente que murió por suicidio después de meses de diálogo con ChatGPT, puso de relieve cómo el chatbot participó en un «espejismo» de la energía del usuario. También reveló que la API de moderación de OpenAI no pudo prevenir interacciones inseguras a pesar de marcar más de 1,000 instancias donde ChatGPT mencionó el suicidio y 377 mensajes con contenido de autolesión.

Mejoras en la detección en tiempo real

Según los documentos actualizados de OpenAI, la empresa ahora utiliza clasificadores automáticos para evaluar contenido de texto, imagen y audio en tiempo real. Estos sistemas están diseñados para detectar y bloquear material relacionado con abuso sexual infantil, filtrar temas sensibles e identificar autolesiones. Si se marca una solicitud que sugiere una preocupación grave de seguridad, un pequeño equipo de personas capacitadas revisará el contenido.

Recursos para padres y marco legal emergente

OpenAI compartió dos nuevos recursos de alfabetización en IA para padres y familias, que incluyen temas de conversación y orientación para hablar con los adolescentes sobre lo que la IA puede y no puede hacer, fomentar el pensamiento crítico y establecer límites saludables.

Estos esfuerzos parecen anticiparse a legislaciones como la SB 243 de California, una ley firmada recientemente que regula los chatbots compañeros de IA y que entrará en vigor en 2027. Dicha ley requiere, entre otras cosas, que las plataformas proporcionen alertas periódicas a los menores recordándoles que hablan con un chatbot.

Un enfoque de responsabilidad compartida

Los documentos de OpenAI formalizan un enfoque que comparte la responsabilidad con los cuidadores: la empresa define lo que los modelos deben hacer y ofrece a las familias un marco para supervisar su uso. Este enfoque refleja puntos de discusión de Silicon Valley, donde se pondera más la responsabilidad parental frente a requisitos restrictivos.

«Aprecio que OpenAI sea reflexivo sobre el comportamiento deseado, pero a menos que la empresa mida los comportamientos reales, las intenciones son finalmente solo palabras», dijo el ex investigador de seguridad de OpenAI, Steven Adler.

En definitiva, la clave será verificar que ChatGPT siga consistentemente las pautas establecidas, un desafío que define la efectividad real de estas nuevas medidas de seguridad.

Comparte este artículo

Otras notas de tu interés:

Economia

Yann LeCun lanza startup de IA con ambiciosa valoración de €3.000 millones

Economia

Colapso Brutal del Hardware: iRobot, Luminar y Rad Power Bikes Declaran Bancarrota

Negocios

Yann LeCun lanza Advanced Machine Intelligence: La apuesta por los ‘World Models’ de IA

Economia

Elecciones al Senado de EE.UU. 2024: Un punto de inflexión para la regulación de criptomonedas

Negocios

Ciberataque a DXS International compromete datos del sistema de salud inglés NHS

Economia

Pickle Robot nombra a exvicepresidente de Tesla, Jeff Evanson, como su primer CFO en medio de expansión con UPS

Negocios

OpenAI lanza la tienda de aplicaciones de ChatGPT y convoca a desarrolladores

Economia

OpenAI Negocia Ronda de Inversión de $100 Mil Millones con Valoración de $830 Mil Millones

Negocios

Meta apuesta por la superinteligencia: Presenta los modelos de IA ‘Mango’ y ‘Avocado’ para 2026

Sociedad y Cultura

Known: La App de Citas que Usa IA de Voz para Revolucionar los Encuentros en Persona