Meta Corrige Vulnerabilidad que Comprometía Privacidad de Usuarios de IA
Meta ha solucionado un fallo crítico de seguridad que permitía a usuarios de su chatbot Meta AI acceder a prompts privados y respuestas generadas por inteligencia artificial de otros usuarios, según reveló el investigador Sandeep Hodkasia.
Detalles del Descubrimiento
- Fecha de reporte: 26 de diciembre de 2024
- Recompensa: $10,000 USD pagados por Meta
- Solución implementada: 24 de enero de 2025
Hodkasia, fundador de la firma de seguridad Appsecure, identificó que al editar un prompt, los servidores asignaban un número único a cada solicitud y respuesta. Manipulando este identificador en el tráfico de red, era posible acceder a contenido privado de otros usuarios.

Riesgo de Exposición Masiva
La vulnerabilidad permitía que números de identificación «fácilmente adivinables» pudieran ser explotados con herramientas automatizadas. Meta confirmó que no encontró evidencias de uso malicioso antes de la corrección.
«Los servidores no verificaban adecuadamente la autorización del usuario para acceder a cada prompt», explicó Hodkasia sobre el mecanismo del fallo.

Contexto Tecnológico
Este incidente ocurre durante la acelerada carrera de las tecnológicas por implementar chatbots avanzados. La aplicación Meta AI, lanzada para competir con herramientas como ChatGPT, ya había enfrentado problemas previos de exposición involuntaria de conversaciones privadas.