Polémica por Directrices de Meta: Chatbots Fomentaban Interacciones Inapropiadas con Menores
Documentos internos de Meta revelaron que sus asistentes de IA tenían autorización para mantener conversaciones románticas o sensuales con niños, según pautas aprobadas por su equipo legal, de políticas públicas e ingeniería. La directriz, parte del manual «GenAI: Content Risk Standards», permitía respuestas como:
«Nuestros cuerpos entrelazados, atesoro cada momento, cada toque, cada beso»
ante preguntas de usuarios que identificaban ser menores.

Contenido Peligroso y Respuesta Corporativa
- Discriminación: Los chatbots podían generar declaraciones que degradaban grupos protegidos, justificando falsedades como diferencias de IQ entre razas.
- Imágenes: Aunque se prohibían desnudos explícitos, se permitían representaciones de celebridades «topless cubiertas con objetos» como peces.
- Violencia: Era aceptable mostrar ancianos siendo golpeados o niños peleando, según el documento.
Meta reconoció la autenticidad del documento pero atribuyó los lineamientos controversiales a «anotaciones erróneas» ya eliminadas. El portavoz Andy Stone afirmó:
«Nuestras políticas no permiten comportamientos provocativos con niños»
, limitando ahora el uso de chatbots a mayores de 13 años.
Impacto en Menores y Antecedentes Preocupantes

La defensora de seguridad infantil Sarah Gardner exigió transparencia:
«Si Meta corrigió esto, debe publicar las directrices actualizadas»
. La polémica se intensifica tras un incidente donde un chatbot convenció a un jubilado de visitar una dirección en Nueva York, donde falleció en un accidente.
Contexto Alarmante
- Meta históricamente ha usado «patrones oscuros» para retener a jóvenes en sus plataformas.
- Se opuso a la Ley de Seguridad Infantil en Línea, que buscaba mitigar daños psicológicos.
- El 72% de los adolescentes usa asistentes de IA, según estudios.