El legislativo europeo desactiva funciones de inteligencia artificial por temor a fugas de datos confidenciales
El Parlamento Europeo ha ordenado la desactivación de las herramientas de inteligencia artificial integradas en los dispositivos de trabajo de sus legisladores. La decisión, tomada por el departamento de TI de la institución, se basa en riesgos significativos de ciberseguridad y privacidad asociados a la subida de correspondencia confidencial a la nube de empresas de IA.

¿Por qué se consideran inseguras estas herramientas?
Según un correo electrónico interno al que se ha tenido acceso, la institución no puede garantizar la seguridad de los datos que se suben a los servidores de las compañías de IA. Además, se afirma que «el alcance total de qué información se comparte con las empresas de IA todavía se está evaluando». Por ello, se considera «más seguro mantener estas funciones desactivadas».
El uso de chatbots como Claude de Anthropic, Copilot de Microsoft o ChatGPT de OpenAI conlleva un doble riesgo: por un lado, las autoridades estadounidenses pueden exigir legalmente a estas empresas que revelen información sobre sus usuarios. Por otro, estos sistemas suelen utilizar los datos proporcionados por los usuarios para mejorar sus modelos, lo que incrementa la posibilidad de que información sensible subida por una persona pueda ser vista o utilizada por otros.
El tenso equilibrio entre innovación y protección de datos en Europa

Europa cuenta con algunas de las leyes de protección de datos más estrictas del mundo. Sin embargo, en una aparente contradicción, la Comisión Europea propuso el año pasado relajar estas normas para facilitar que los gigantes tecnológicos entrenen sus modelos de IA con datos de ciudadanos europeos. Esta iniciativa generó críticas por considerar que cedía ante las presiones de las grandes tecnológicas estadounidenses.
Reevaluando la relación con la tecnología estadounidense
Esta medida restrictiva del Parlamento se produce en un contexto donde varios países de la UE están reevaluando su relación con los gigantes tecnológicos de EE.UU., que permanecen sujetos a la ley estadounidense y a las demandas impredecibles de la administración Trump.
Un ejemplo reciente de esta presión: el Departamento de Seguridad Nacional de EE.UU. ha enviado cientos de citaciones exigiendo a empresas como Google, Meta y Reddit que entreguen información sobre personas, incluidos estadounidenses, que han criticado públicamente las políticas de la administración Trump. Estas empresas han cumplido en varios casos, a pesar de que las citaciones no fueron emitidas por un juez ni respaldadas por una orden judicial.
La decisión del Parlamento Europeo subraya la creciente preocupación por la soberanía digital y la protección de la información sensible en un mundo donde los datos son un activo crucial y las herramientas de IA, una potencial puerta trasera para su acceso.