Google Gemini: Alto Riesgo para Niños y Adolescentes Según Evaluación de Seguridad

Evaluación de Common Sense Media Revela Preocupaciones en Productos de IA de Google

Common Sense Media, una organización sin fines de lucro enfocada en la seguridad infantil, publicó una evaluación de riesgo de los productos de inteligencia artificial Google Gemini. La organización destacó que, si bien Gemini informa claramente a los niños que es una computadora y no un amigo —algo asociado con prevenir pensamientos delirantes—, existen áreas críticas que requieren mejora.

Hallazgos Principales de la Evaluación

Según el análisis, las versiones de Gemini para menores de 13 años y adolescentes parecen ser adaptaciones de la versión adulta, con características de seguridad añadidas superficialmente. Common Sense enfatiza que los productos de IA para niños deben diseñarse desde cero con su seguridad en mente.

Representación de un robot de IA

Riesgos Identificados

  • Contenido inapropiado: Gemini puede compartir material sobre sexo, drogas, alcohol y consejos de salud mental no seguros.
  • Preocupación por suicidios: La IA ha estado vinculada a casos de suicidio adolescente, como el demandado contra OpenAI y Character.AI.
  • Falta de adaptación: Los productos ignoran que los usuarios jóvenes necesitan orientación e información diferente a los adultos.

Contexto y Implicaciones Futuras

La evaluación surge mientras se filtran informes de que Apple consideraría usar Gemini para potenciar su Siri con IA, lo que podría exponer a más adolescentes a riesgos si no se mitigan las preocupaciones de seguridad.

«Gemini acierta en lo básico, pero tropieza en los detalles. Una plataforma de IA para niños debe encontrarlos donde están, no adoptar un enfoque único para diferentes etapas de desarrollo», dijo Robbie Torney, Director Senior de Programas de IA de Common Sense Media.

Respuesta de Google

Google defendió sus productos, señalando que tiene políticas y salvaguardas específicas para usuarios menores de 18 años, aunque admitió que algunas respuestas de Gemini no funcionaban como se pretendía y que agregó medidas adicionales. La compañía también cuestionó parte de la metodología de Common Sense.

Common Sense Media ha evaluado previamente otros servicios de IA, calificando a Meta AI y Character.AI como «inaceptables», Perplexity como alto riesgo, ChatGPT como moderado y Claude como riesgo mínimo.

Comparte este artículo

Otras notas de tu interés:

Politica Internacional

Corea del Norte prueba motor de misil con alcance hasta Estados Unidos

Tecnologia

Filtración de Herramientas de Hacking Coruna y DarkSword Amenaza a Millones de iPhones

Economia

Inteligencia Artificial Domina el Demo Day de Y Combinator W26 2024

Bienestar y Salud Mental

Estudio de Stanford revela los peligros ocultos de buscar consejos personales en chatbots de IA

Economia

Los Dos Últimos Cofundadores de xAI Abandonan la Empresa de IA de Elon Musk

Economia

Claude de Anthropic atrae a consumidores: Crecimiento récord en suscripciones pagadas

Economia

Physical Intelligence Negocia $1.000 Millones para Revolucionar la Robótica con IA

Negocios

Whoop: El Wearable que Evoluciona de Herramienta Deportiva a Guardián de la Salud

Economia

Las Startups Más Codiciadas del YC Demo Day 2026: Desde Hoteles Lunares hasta Drones Ganaderos

Tecnologia

La Revolución Retro: Gadgets Tecnológicos que Vuelven a Estar de Moda