Hallazgo Judicial Expone Riesgos de la IA en el Ámbito Legal
En un revelador documento presentado este 15 de mayo de 2025 ante un tribunal de California del Norte, Anthropic reconoció que su sistema de inteligencia artificial Claude generó citas falsas utilizadas en su defensa contra editoriales musicales.

Detalles del Error
- La IA inventó títulos y autores inexistentes para respaldar argumentos legales
- El equipo jurídico no detectó los errores durante su revisión manual
- Anthropic calificó el incidente como «un error honesto»
Repercusiones Judiciales
La jueza federal Susan van Keulen exigió explicaciones tras las acusaciones de Universal Music Group sobre el uso de artículos ficticios en el testimonio de Olivia Chen, empleada de Anthropic.

Patrón Preocupante
- En enero, un abogado australiano usó ChatGPT con resultados similares
- Jueces californianos han sancionado el uso de «investigación falsa generada por IA»
Contraste Tecnológico
Mientras estos errores ocurren, startups como Harvey buscan recaudar $250 millones para automatizar trabajo legal con IA, según reportes del sector.