Deloitte anuncia alianza con Anthropic mientras enfrenta críticas por reportes generados con IA
La firma de servicios profesionales Deloitte anunció un acuerdo trascendental con la empresa de inteligencia artificial Anthropic para implementar el chatbot Claude a sus casi 500,000 empleados a nivel global. Sin embargo, este hito se vio empañado por la revelación de que la compañía deberá emitir un reembolso por un informe gubernamental que contenía inexactitudes producidas por IA.
El Acuerdo Estratégico con Anthropic
Según un blog post de Anthropic, Deloitte y Anthropic, que formaron una asociación el año pasado, planean crear productos de cumplimiento y características para industrias reguladas, incluyendo servicios financieros, atención médica y servicios públicos. Además, Deloitte pretende desarrollar «personas» de agentes de IA para representar diferentes departamentos internos, como contadores y desarrolladores de software.
«Deloitte está haciendo esta inversión significativa en la plataforma de IA de Anthropic porque nuestro enfoque hacia la IA responsable está muy alineado, y juntos podemos remodelar cómo operan las empresas en la próxima década», afirmó Ranjit Bawa, líder global de tecnología, ecosistemas y alianzas en Deloitte.
Los términos financieros del acuerdo, referido como una «alianza», no fueron divulgados. Esta implementación representa la mayor despliegue empresarial de Anthropic hasta la fecha, subrayando cómo la IA se integra en aspectos clave de la vida moderna.

La Controversia del Reembolso en Australia
El mismo día del anuncio, se reveló que Deloitte deberá reembolsar el pago final de un contrato gubernamental con el Departamento de Empleo y Relaciones Laborales de Australia. El informe, valorado en A$439,000, contenía alucinaciones de IA, incluyendo citas a informes académicos inexistentes. Una versión corregida del informe fue subida al sitio web del departamento la semana pasada.
- Monto del contrato: A$439,000
- Errores identificados: Citaciones a informes académicos no existentes
- Acción tomada: Reembolso del pago final y publicación de versión corregida
Casos Similares en la Industria
Deloitte no es la única organización en enfrentar problemas por el uso de información inexacta generada por IA. En mayo, el periódico Chicago Sun-Times admitió haber publicado una lista de libros generada por IA para su lista de lectura de verano, donde algunos títulos fueron inventados. Asimismo, Amazon enfrentó desafíos de precisión con su herramienta de productividad Q Business en su primer año.
Incluso Anthropic ha sido criticada por utilizar información alucinada de su propio chatbot Claude. En un caso legal con editores musicales, la empresa se disculpó después de emplear una cita generada por IA.

Reflexión sobre el Futuro de la IA en Empresas
Este episodio resalta los desafíos que las empresas enfrentan al integrar la IA en operaciones críticas. Mientras Deloitte avanza con su transformación digital, la necesidad de garantizar la exactitud y responsabilidad en el uso de IA se vuelve más evidente que nunca.