¡Alerta de Privacidad! Conversaciones en Meta AI se Comparten Públicamente Sin que los Usuarios lo Sepan

El Horror de la Privacidad en la App Meta AI

Parece el comienzo de una película de terror del siglo XXI: tu historial de conversaciones con inteligencia artificial ha sido público todo este tiempo sin que lo supieras. Esta es la cruda realidad que enfrentan usuarios de la nueva aplicación independiente Meta AI, donde miles de personas están publicando involuntariamente sus diálogos privados con el chatbot.

Interfaz de Meta AI mostrando opciones de conversación
Pantalla principal donde usuarios inician conversaciones sin saber que podrían hacerse públicas

El Mecanismo del Error

Al realizar una consulta al asistente, los usuarios encuentran un botón de compartir que los lleva a una pantalla de vista previa. El problema radica en que muchos no perciben que al publicar este contenido, sus conversaciones de texto, audios e imágenes quedan expuestas públicamente. Un portavoz de Meta se negó a hacer comentarios al respecto cuando fue contactado.

Revelaciones Peligrosas

  • Consultas sobre evasión fiscal y consejos legales con nombres completos
  • Direcciones particulares y detalles sensibles de casos judiciales
  • Preguntas íntimas de salud y conductas inapropiadas

La experta en seguridad Rachel Tobac documentó casos donde se filtraron datos residenciales y expedientes confidenciales. La situación empeora cuando usuarios inician sesión con cuentas públicas de Instagram, haciendo que todas sus búsquedas hereden esa configuración.

Logo de Meta AI en dispositivo móvil
Identificación visual de la aplicación causante de las filtraciones

Magnitud del Problema

Según datos de la firma de inteligencia Appfigures, la aplicación ha registrado 6.5 millones de descargas desde su lanzamiento el 29 de abril. Pese a ser una cifra considerable para desarrolladores independientes, resulta preocupante para una empresa que ha invertido miles de millones en esta tecnología.

Consecuencias en Tiempo Real

La plataforma ya muestra señales de explotación malintencionada: usuarios publican currículos solicitando empleos en ciberseguridad y guías para crear dispositivos cuestionables. Cada minuto que pasa acerca estas consultas aparentemente inocuas a un desastre viral de proporciones impredecibles.

Comparte este artículo

Otras notas de tu interés:

Politica

Estrategia Clave del Grupo de Derechos LGBTQ+ ante los Ataques Anti-Trans en las Elecciones de Mitad de Mandato

Noticia Local

La campaña eterna: Mamdani lleva el estilo de organización del DSA al City Hall

Politica Internacional

Taiwán en el ojo del huracán: la tensión entre Estados Unidos y China se intensifica

Noticia Local

El fiasco del candidato demócrata en el distrito más seguro de Florida: la boleta que cambió la historia

Politica

Demócratas dispuestos a sacrificar distritos negros para vencer a los republicanos

Sociedad y Cultura

Campbell Brown y Forum AI: La lucha por la verdad en la era de la inteligencia artificial

Economia

Clio Alcanza $500M en ARR: La IA Impulsa el Crecimiento del Sector Legal Tech

Economia

Exdirector de hacking de L3Harris pagará $10 millones por vender herramientas a un broker ruso

Economia

Amazon Lanza ‘Amazon Now’: Entregas en 30 Minutos en Estados Unidos

Tecnologia

Google lanza ‘Create My Widget’: personaliza tu Android con inteligencia artificial