OpenAI Lanza Herramientas de Código Abierto para Proteger a Niños y Adolescentes en la IA

OpenAI Libera Políticas de Seguridad para Adolescentes en Aplicaciones de Inteligencia Artificial

OpenAI anunció este martes la publicación de un conjunto de prompts que los desarrolladores pueden utilizar para hacer que sus aplicaciones sean más seguras para los adolescentes. Este esfuerzo se basa en su modelo de seguridad de código abierto conocido como gpt-oss-safeguard.

¿Cómo Funcionan Estas Herramientas de Seguridad?

En lugar de empezar desde cero, los desarrolladores pueden usar estos prompts para fortalecer la seguridad de lo que construyen. Estas políticas abordan temas críticos como:

  • Contenido de violencia gráfica y sexual.
  • Ideales corporales y comportamientos dañinos.
  • Actividades y desafíos peligrosos.
  • Role play romántico o violento.
  • Bienes y servicios restringidos por edad.

Diseñadas como prompts, estas políticas son fácilmente compatibles con otros modelos, aunque probablemente sean más efectivas dentro del ecosistema de OpenAI.

Colaboración con Expertos en Seguridad Digital

Para crear estos prompts, OpenAI trabajó con organizaciones especializadas en seguridad de IA: Common Sense Media y everyone.ai.

«Estas políticas basadas en prompts ayudan a establecer un piso de seguridad significativo en todo el ecosistema, y debido a que se lanzan como código abierto, pueden adaptarse y mejorarse con el tiempo», dijo Robbie Torney, jefe de Evaluaciones de IA y Digitales en Common Sense Media.

En su blog, OpenAI señaló que los desarrolladores, incluso los equipos experimentados, a menudo tienen dificultades para traducir los objetivos de seguridad en reglas operativas precisas.

«Esto puede llevar a lagunas en la protección, una aplicación inconsistente o un filtrado excesivamente amplio», escribió la compañía. «Las políticas claras y bien definidas son una base crítica para sistemas de seguridad efectivos.»

Laboratorio de investigación tecnológica moderna con frascos y pantallas digitales, simbolizando el desarrollo de herramientas de seguridad para IA
Ambiente de investigación y desarrollo tecnológico, contexto donde se crean soluciones como las herramientas de seguridad de OpenAI.

Un Contexto de Desafíos y Esfuerzos Previos

OpenAI admite que estas políticas no son una solución completa a los complicados desafíos de la seguridad de la IA. Sin embargo, se basan en esfuerzos anteriores, incluyendo salvaguardias a nivel de producto como controles parentales y predicción de edad. El año pasado, OpenAI actualizó las pautas para sus grandes modelos de lenguaje (conocidas como Model Spec) para abordar cómo sus modelos de IA deben comportarse con usuarios menores de 18 años.

La compañía enfrenta sus propios retos, incluídas varias demandas presentadas por familias de personas que fallecieron tras un uso extremo de ChatGPT. Estas relaciones peligrosas a menudo se forman después de que el usuario sortea las salvaguardias del chatbot, y ninguna barrera de seguridad es completamente impenetrable.

Un Paso Adelante en el Ecosistema

A pesar de las limitaciones, estas políticas representan un avance significativo, especialmente porque pueden ayudar a desarrolladores independientes a implementar medidas de protección robustas de manera más accesible, contribuyendo a un entorno digital más seguro para los más jóvenes.

Comparte este artículo

Otras notas de tu interés:

Tecnologia

Meta AI se integra en Threads: una función similar a Grok de X llega en beta a Asia y América Latina

Bienestar y Salud Mental

Madre que confesó haber ahogado a su hijo autista enfrenta nuevo juicio en Miami

Noticia Local

Ceremonia de los Premios Silver Knight Miami 2026: Celebrando la Excelencia Estudiantil

Noticia Local

Congresistas de Florida Exigen a Mayorkas Información sobre Retrasos en Controles Fronterizos

Negocios

Dessn levanta $6 millones para transformar el diseño impulsado por IA en producción

Politica

Seton Hall investiga filtración relacionada con abuso y ex presidente

Economia

Amazon Ring confía en Vapi AI: la startup de voz alcanza una valoración de $500 millones

Economia

Revisión de la Ley de Migración y Ciudadanía en Cuba 2024: Mantiene Restricciones Clave para Cubanoamericanos

Tecnologia

Thinking Machines presenta modelos de interacción: la IA que te interrumpe en tiempo real

Economia

Robinhood prepara segundo fondo de inversión en startups y proceso de IPO para RVII