Advertencias de Microsoft sobre Copilot: No confíes ciegamente en la IA
Los escépticos de la inteligencia artificial no son los únicos que advierten sobre no confiar irreflexivamente en los resultados de los modelos: las propias empresas de IA lo dicen en sus términos de servicio.
Microsoft, que actualmente se centra en que los clientes corporativos paguen por Copilot, ha recibido críticas en redes sociales por sus términos de uso, que parecen haber sido actualizados por última vez el 24 de octubre de 2025.
«Copilot es solo para fines de entretenimiento», advierte la compañía. «Puede cometer errores y puede no funcionar como se pretende. No confíes en Copilot para consejos importantes. Usa Copilot bajo tu propio riesgo.»
Microsoft reconoce lenguaje obsoleto
Un portavoz de Microsoft declaró a PCMag que la empresa actualizará lo que describieron como «lenguaje heredado». «A medida que el producto ha evolucionado, ese lenguaje ya no refleja cómo se usa Copilot hoy y se modificará con nuestra próxima actualización», dijo el portavoz.

No es solo Microsoft: otras empresas de IA también advierten
Tom’s Hardware señaló que Microsoft no es la única compañía que utiliza este tipo de descargo de responsabilidad para la IA. Por ejemplo, tanto OpenAI como xAI advierten a los usuarios que no deben confiar en su producción como «la verdad» (en palabras de xAI) o como «un servicio único de verdad o información fáctica» (OpenAI).

Conclusión clave para los usuarios
Las advertencias en los términos de uso de Microsoft Copilot subrayan un mensaje crucial: la inteligencia artificial, aunque poderosa, no es infalible. Los usuarios, especialmente en entornos corporativos, deben mantener una postura crítica y no depender exclusivamente de estas herramientas para decisiones importantes.