El Horror de la Privacidad en la App Meta AI
Parece el comienzo de una película de terror del siglo XXI: tu historial de conversaciones con inteligencia artificial ha sido público todo este tiempo sin que lo supieras. Esta es la cruda realidad que enfrentan usuarios de la nueva aplicación independiente Meta AI, donde miles de personas están publicando involuntariamente sus diálogos privados con el chatbot.

El Mecanismo del Error
Al realizar una consulta al asistente, los usuarios encuentran un botón de compartir que los lleva a una pantalla de vista previa. El problema radica en que muchos no perciben que al publicar este contenido, sus conversaciones de texto, audios e imágenes quedan expuestas públicamente. Un portavoz de Meta se negó a hacer comentarios al respecto cuando fue contactado.
Revelaciones Peligrosas
- Consultas sobre evasión fiscal y consejos legales con nombres completos
- Direcciones particulares y detalles sensibles de casos judiciales
- Preguntas íntimas de salud y conductas inapropiadas
La experta en seguridad Rachel Tobac documentó casos donde se filtraron datos residenciales y expedientes confidenciales. La situación empeora cuando usuarios inician sesión con cuentas públicas de Instagram, haciendo que todas sus búsquedas hereden esa configuración.

Magnitud del Problema
Según datos de la firma de inteligencia Appfigures, la aplicación ha registrado 6.5 millones de descargas desde su lanzamiento el 29 de abril. Pese a ser una cifra considerable para desarrolladores independientes, resulta preocupante para una empresa que ha invertido miles de millones en esta tecnología.
Consecuencias en Tiempo Real
La plataforma ya muestra señales de explotación malintencionada: usuarios publican currículos solicitando empleos en ciberseguridad y guías para crear dispositivos cuestionables. Cada minuto que pasa acerca estas consultas aparentemente inocuas a un desastre viral de proporciones impredecibles.