OpenAI lanza blueprint para proteger a niños de la explotación sexual con IA
En respuesta a la creciente preocupación por la seguridad de los menores en línea, OpenAI ha presentado un blueprint diseñado para fortalecer los esfuerzos de protección infantil en Estados Unidos frente al auge de la inteligencia artificial. El Child Safety Blueprint, dado a conocer este martes, busca agilizar la detección, mejorar la denuncia y optimizar la investigación de casos de explotación infantil habilitada por IA.

El alarmante aumento del contenido abusivo generado por IA
El objetivo central del plan es enfrentar el aumento alarmante de la explotación sexual infantil vinculada a los avances en IA. Según la Internet Watch Foundation (IWF), en el primer semestre de 2025 se detectaron más de 8,000 informes de contenido de abuso sexual infantil generado por IA, lo que representa un incremento del 14% respecto al año anterior. Este contenido incluye desde imágenes explícitas falsas de niños creadas con herramientas de IA para sextorsión financiera hasta mensajes convincentes generados para el grooming.
Contexto de escrutinio y acciones legales
El blueprint de OpenAI surge en un momento de mayor escrutinio por parte de legisladores, educadores y defensores de la seguridad infantil, especialmente tras incidentes trágicos donde jóvenes fallecieron por suicidio tras supuestamente interactuar con chatbots de IA.
En noviembre del año pasado, el Social Media Victims Law Center y el Tech Justice Law Project presentaron siete demandas en los tribunales estatales de California, alegando que OpenAI lanzó GPT-4o antes de estar listo. Las demandas sostienen que la naturaleza psicológicamente manipuladora del producto contribuyó a muertes injustas por suicidio y suicidio asistido. Se citan cuatro individuos que murieron por suicidio y tres más que experimentaron delirios graves y potencialmente mortales tras interacciones prolongadas con el chatbot.
Colaboraciones clave para el desarrollo del plan
Este blueprint fue desarrollado en colaboración con el National Center for Missing and Exploited Children (NCMEC) y la Attorney General Alliance, además de contar con la retroalimentación del fiscal general de Carolina del Norte, Jeff Jackson, y del fiscal general de Utah, Derek Brown.
Los tres pilares fundamentales del blueprint
La compañía indica que el plan se centra en tres aspectos clave:
- Actualizar la legislación para incluir el material de abuso generado por IA.
- Refinar los mecanismos de denuncia a las fuerzas del orden.
- Integrar salvaguardas preventivas directamente en los sistemas de IA.
Con estas medidas, OpenAI busca no solo detectar posibles amenazas de manera más temprana, sino también garantizar que la información procesable llegue con prontitud a los investigadores.
Iniciativas anteriores de seguridad de OpenAI
El nuevo blueprint de seguridad infantil se basa en iniciativas previas de la empresa, que incluyen directrices actualizadas para las interacciones con usuarios menores de 18 años. Estas prohíben la generación de contenido inapropiado, el fomento de la autolesión y evitan dar consejos que ayuden a los jóvenes a ocultar comportamientos inseguros a sus cuidadores. Recientemente, la compañía también lanzó un blueprint de seguridad para adolescentes en la India.