Advertencia crucial sobre privacidad en IA
Los usuarios de ChatGPT deben reconsiderar su uso para apoyo emocional o terapia, según alertó Sam Altman, CEO de OpenAI. En el podcast This Past Weekend w/ Theo Von, Altman reveló que la industria aún no protege adecuadamente las conversaciones sensibles con IA.

Problema legal sin resolver
Altman explicó:
«La gente habla de las cosas más personales con ChatGPT. Jóvenes especialmente lo usan como terapeuta o consejero… pero no existe confidencialidad médico-paciente cuando tu ‘doctor’ es una IA»
Destacó que actualmente, OpenAI podría verse obligada legalmente a revelar estas conversaciones en demandas judiciales.
Riesgos y acciones legales
- Preocupación principal: Ausencia de marco legal para proteger diálogos con IA
- Consecuencia: Conversaciones terapéuticas podrían ser requisadas en tribunales
- Respuesta de OpenAI: Apelando orden judicial que exige almacenar chats de usuarios

Impacto en adopción de IA
Altman calificó la situación como «muy problemática» y enfatizó: «Necesitamos el mismo concepto de privacidad que con terapeutas humanos». Esta falta de protección podría limitar el uso de herramientas como ChatGPT para apoyo emocional.