OpenAI Libera Políticas de Seguridad para Adolescentes en Aplicaciones de Inteligencia Artificial
OpenAI anunció este martes la publicación de un conjunto de prompts que los desarrolladores pueden utilizar para hacer que sus aplicaciones sean más seguras para los adolescentes. Este esfuerzo se basa en su modelo de seguridad de código abierto conocido como gpt-oss-safeguard.
¿Cómo Funcionan Estas Herramientas de Seguridad?
En lugar de empezar desde cero, los desarrolladores pueden usar estos prompts para fortalecer la seguridad de lo que construyen. Estas políticas abordan temas críticos como:
- Contenido de violencia gráfica y sexual.
- Ideales corporales y comportamientos dañinos.
- Actividades y desafíos peligrosos.
- Role play romántico o violento.
- Bienes y servicios restringidos por edad.
Diseñadas como prompts, estas políticas son fácilmente compatibles con otros modelos, aunque probablemente sean más efectivas dentro del ecosistema de OpenAI.
Colaboración con Expertos en Seguridad Digital
Para crear estos prompts, OpenAI trabajó con organizaciones especializadas en seguridad de IA: Common Sense Media y everyone.ai.
«Estas políticas basadas en prompts ayudan a establecer un piso de seguridad significativo en todo el ecosistema, y debido a que se lanzan como código abierto, pueden adaptarse y mejorarse con el tiempo», dijo Robbie Torney, jefe de Evaluaciones de IA y Digitales en Common Sense Media.
En su blog, OpenAI señaló que los desarrolladores, incluso los equipos experimentados, a menudo tienen dificultades para traducir los objetivos de seguridad en reglas operativas precisas.
«Esto puede llevar a lagunas en la protección, una aplicación inconsistente o un filtrado excesivamente amplio», escribió la compañía. «Las políticas claras y bien definidas son una base crítica para sistemas de seguridad efectivos.»

Un Contexto de Desafíos y Esfuerzos Previos
OpenAI admite que estas políticas no son una solución completa a los complicados desafíos de la seguridad de la IA. Sin embargo, se basan en esfuerzos anteriores, incluyendo salvaguardias a nivel de producto como controles parentales y predicción de edad. El año pasado, OpenAI actualizó las pautas para sus grandes modelos de lenguaje (conocidas como Model Spec) para abordar cómo sus modelos de IA deben comportarse con usuarios menores de 18 años.
La compañía enfrenta sus propios retos, incluídas varias demandas presentadas por familias de personas que fallecieron tras un uso extremo de ChatGPT. Estas relaciones peligrosas a menudo se forman después de que el usuario sortea las salvaguardias del chatbot, y ninguna barrera de seguridad es completamente impenetrable.
Un Paso Adelante en el Ecosistema
A pesar de las limitaciones, estas políticas representan un avance significativo, especialmente porque pueden ayudar a desarrolladores independientes a implementar medidas de protección robustas de manera más accesible, contribuyendo a un entorno digital más seguro para los más jóvenes.