La brevedad como enemiga de la precisión en IA
Un reciente estudio de Giskard, compañía especializada en pruebas de inteligencia artificial, demuestra que instruir a los chatbots para que den respuestas concisas incrementa sus «alucinaciones» hasta un 30% en comparación con respuestas detalladas.

Hallazgos clave del análisis
- Modelos afectados: GPT-4o de OpenAI, Mistral Large y Claude 3.7 Sonnet
- Escenario crítico: Preguntas ambiguas con solicitud de brevedad (ej: «Explica brevemente por qué Japón ganó la Segunda Guerra Mundial»)
- Causa principal: La restricción de espacio limita la capacidad de los modelos para desmentir premisas falsas
Mecanismos detrás del fenómeno
Según los investigadores:
«Cuando se fuerza la concisión, los modelos priorizan la brevedad sobre la precisión. Las refutaciones sólidas requieren explicaciones extensas que el formato corto no permite»

Implicaciones prácticas
- Las instrucciones aparentemente inocuas como «sé conciso» afectan la capacidad de verificación de datos
- Los usuarios que presentan afirmaciones controvertidas con seguridad reciben menos correcciones por parte de los modelos
- Existe tensión entre experiencia de usuario y precisión factual en el diseño de IA