Meta anuncia cambios urgentes en entrenamiento de IA para proteger a adolescentes
La compañía tecnológica Meta ha implementado modificaciones inmediatas en la forma en que entrena sus chatbots de inteligencia artificial, priorizando la seguridad de usuarios adolescentes tras críticas por falta de salvaguardas adecuadas.
Nuevas restricciones en conversaciones
Los chatbots ahora evitarán interactuar con menores sobre temas sensibles como autolesión, suicidio, trastornos alimentarios y conversaciones románticas inapropiadas. Estos cambios son provisionales, con actualizaciones más robustas planeadas para el futuro.

Limitación de personajes de IA accesibles
Meta restringirá el acceso de adolescentes a personajes de IA creados por usuarios que promuevan contenido inapropiado, como «Step Mom» y «Russian Girl». En su lugar, solo estarán disponibles personajes que fomenten educación y creatividad.
«Estamos añadiendo más barreras de protección como precaución adicional, entrenando nuestras IAs para no interactuar con adolescentes en estos temas, sino guiarlos hacia recursos expertos», afirmó la portavoz Stephanie Otway.
Contexto y reacciones
Estas medidas responden a una investigación de Reuters que reveló documentos internos donde se permitían respuestas inapropiadas a menores. La polémica generó una investigación oficial por parte del senador Josh Hawley y una carta de 44 fiscales generales estadounidenses exigiendo mayor protección infantil.

Compromiso de mejora continua
Meta reconoce que su enfoque anterior fue un error y se compromete a «adaptar continuamente su approach para garantizar experiencias seguras y apropiadas para la edad con IA». La compañía no ha proporcionado datos sobre el número de usuarios menores afectados.