Vulnerabilidad Critica en Meta AI Permitía Acceso a Datos Privados
Meta ha corregido un grave error de seguridad en su chatbot de inteligencia artificial que permitía a los usuarios acceder y visualizar los prompts y respuestas privadas de otros usuarios, exponiendo conversaciones personales.
Detalles del Descubrimiento
El investigador de seguridad Sandeep Hodkasia, fundador de AppSecure, identificó la vulnerabilidad el 26 de diciembre de 2024. Tras reportarla a Meta, recibió una recompensa de $10,000 por el hallazgo.

Mecanismo de la Vulnerabilidad
El error se producía cuando los usuarios editaban sus prompts: los servidores asignaban un número único identificador a cada interacción. Hodkasia descubrió que modificando este número en las solicitudes de red, podía acceder a conversaciones ajenas.
- Fallo crítico: Los servidores no verificaban la autorización del usuario solicitante
- Riesgo adicional: Los identificadores eran «fácilmente adivinables» facilitando extracciones masivas
Solución y Confirmación
Meta implementó un parche el 24 de enero de 2025. El portavoz Ryan Daniels confirmó:
«No encontramos evidencia de abuso y recompensamos al investigador»
Contexto de Urgencia
Este incidente ocurre cuando las tecnológicas aceleran el desarrollo de IA, priorizando velocidad sobre seguridad. La aplicación Meta AI, lanzada recientemente para competir con ChatGPT, ya había enfrentado problemas previos de exposición accidental de conversaciones.