Error de seguridad en la IA de Microsoft comprometió la privacidad de emails
Microsoft ha confirmado la existencia de un bug que permitió a su inteligencia artificial Copilot resumir correos electrónicos confidenciales de los clientes durante semanas sin su permiso.
Detalles del fallo reportado
El error, reportado inicialmente por Bleeping Computer, permitió a Copilot Chat leer y esbozar el contenido de correos desde enero, incluso si los usuarios contaban con políticas de prevención de pérdida de datos diseñadas para evitar que su información sensible fuera ingerida por el modelo de lenguaje de gran tamaño de Microsoft.
Copilot Chat es una función de chat con IA disponible para clientes pagantes de Microsoft 365, integrada en aplicaciones de Office como Word, Excel y PowerPoint.

Respuesta y corrección de Microsoft
Microsoft identificó el bug con el código de seguimiento CW1226324 y explicó que los mensajes de correo electrónico, tanto borradores como enviados, «con una etiqueta confidencial aplicada están siendo incorrectamente procesados por Microsoft 365 Copilot chat».
La compañía tecnológica comenzó a implementar una corrección para este error a principios de febrero. Un portavoz de Microsoft no respondió a una solicitud de comentarios, incluyendo una pregunta sobre cuántos clientes se vieron afectados por el bug.
Preocupaciones globales de seguridad y privacidad
En un contexto de creciente alerta, el departamento de TI del Parlamento Europeo informó esta semana a los legisladores que bloqueó las funciones de IA integradas en los dispositivos de trabajo emitidos por la institución, citando preocupaciones de que estas herramientas podrían subir correspondencia potencialmente confidencial a la nube.
Este incidente subraya los desafíos y riesgos de privacidad que presenta la integración de inteligencia artificial en software de productividad empresarial, destacando la necesidad de medidas de seguridad robustas y transparencia por parte de los proveedores.