Evaluación de Common Sense Media Revela Preocupaciones en Productos de IA de Google
Common Sense Media, una organización sin fines de lucro enfocada en la seguridad infantil, publicó una evaluación de riesgo de los productos de inteligencia artificial Google Gemini. La organización destacó que, si bien Gemini informa claramente a los niños que es una computadora y no un amigo —algo asociado con prevenir pensamientos delirantes—, existen áreas críticas que requieren mejora.
Hallazgos Principales de la Evaluación
Según el análisis, las versiones de Gemini para menores de 13 años y adolescentes parecen ser adaptaciones de la versión adulta, con características de seguridad añadidas superficialmente. Common Sense enfatiza que los productos de IA para niños deben diseñarse desde cero con su seguridad en mente.

Riesgos Identificados
- Contenido inapropiado: Gemini puede compartir material sobre sexo, drogas, alcohol y consejos de salud mental no seguros.
- Preocupación por suicidios: La IA ha estado vinculada a casos de suicidio adolescente, como el demandado contra OpenAI y Character.AI.
- Falta de adaptación: Los productos ignoran que los usuarios jóvenes necesitan orientación e información diferente a los adultos.
Contexto y Implicaciones Futuras
La evaluación surge mientras se filtran informes de que Apple consideraría usar Gemini para potenciar su Siri con IA, lo que podría exponer a más adolescentes a riesgos si no se mitigan las preocupaciones de seguridad.
«Gemini acierta en lo básico, pero tropieza en los detalles. Una plataforma de IA para niños debe encontrarlos donde están, no adoptar un enfoque único para diferentes etapas de desarrollo», dijo Robbie Torney, Director Senior de Programas de IA de Common Sense Media.
Respuesta de Google
Google defendió sus productos, señalando que tiene políticas y salvaguardas específicas para usuarios menores de 18 años, aunque admitió que algunas respuestas de Gemini no funcionaban como se pretendía y que agregó medidas adicionales. La compañía también cuestionó parte de la metodología de Common Sense.
Common Sense Media ha evaluado previamente otros servicios de IA, calificando a Meta AI y Character.AI como «inaceptables», Perplexity como alto riesgo, ChatGPT como moderado y Claude como riesgo mínimo.