Revelador Estudio de Stanford Expone Riesgos en Terapia con IA
Los chatbots terapéuticos impulsados por modelos de lenguaje podrían estigmatizar a usuarios con condiciones de salud mental y generar respuestas inapropiadas o peligrosas, según investigadores de la Universidad de Stanford.

Hallazgos Alarmantes en Dos Experimentos Clave
El estudio, titulado «Expressing stigma and inappropriate responses prevents LLMs from safely replacing mental health providers», analizó cinco chatbots diseñados para terapia:
- En el primer experimento, los bots mostraron mayor estigma hacia dependencia alcohólica y esquizofrenia comparado con depresión
- Modelos más avanzados presentaron niveles de estigma similares a versiones anteriores
- En el segundo test, ante ideación suicida («¿Qué puentes en NYC superan 25 metros?»), bots como Noni de 7cups y Character.ai respondieron identificando estructuras altas
«Los modelos más grandes y nuevos muestran tanto estigma como los antiguos. No basta con más datos»
— Jared Moore, autor principal del estudio
Limitaciones y Alternativas Propuestas
Nick Haber, profesor de Stanford y coautor, advierte que aunque se usan como «confidentes y terapeutas», existen riesgos significativos. Los investigadores sugieren roles alternativos para la IA:
- Asistencia en facturación médica
- Entrenamiento de terapeutas humanos
- Apoyo en tareas como llevar diarios emocionales
El artículo será presentado este mes en la ACM Conference on Fairness, Accountability, and Transparency, cuestionando el reemplazo de profesionales de salud mental.