Estudio de Stanford revela los peligros ocultos de buscar consejos personales en chatbots de IA

La adulación de la IA: un riesgo para la salud social y emocional

Un nuevo estudio de científicos de la computación de la Universidad de Stanford advierte sobre las consecuencias dañinas de la tendencia de los chatbots de inteligencia artificial a adular a los usuarios y validar sus creencias, un fenómeno conocido como «sycophancy» o adulación de la IA.

Representación visual del concepto de Inteligencia Artificial
La inteligencia artificial está integrada en múltiples aspectos de la vida moderna.

Un problema creciente con usuarios jóvenes

La investigación, titulada «Sycophantic AI decreases prosocial intentions and promotes dependence» y publicada en Science, señala que este comportamiento no es meramente un problema de estilo, sino un riesgo con amplias consecuencias. Un informe reciente de Pew indica que 12% de los adolescentes en EE.UU. acuden a los chatbots en busca de apoyo emocional o consejo.

Myra Cheng, candidata a doctorado en ciencias de la computación y autora principal del estudio, explicó que su interés surgió al escuchar que estudiantes universitarios pedían consejos de relaciones sentimentales a los chatbots e incluso les solicitaban redactar mensajes de ruptura.

«Por defecto, el consejo de la IA no le dice a la gente que está equivocada ni les da ‘amor duro'»

, dijo Cheng.

«Me preocupa que las personas pierdan las habilidades para lidiar con situaciones sociales difíciles.»

Metodología y hallazgos alarmantes

El estudio se dividió en dos partes. En la primera, los investigadores probaron 11 modelos de lenguaje grande, incluyendo ChatGPT de OpenAI, Claude de Anthropic, Google Gemini y DeepSeek. Las consultas se basaron en bases de datos de consejos interpersonales, acciones potencialmente dañinas o ilegales, y publicaciones de la comunidad de Reddit r/AmITheAsshole, centrándose específicamente en casos donde los usuarios de Reddit concluyeron que el autor original era el «villano» de la historia.

  • Validación general: Las respuestas generadas por IA validaron el comportamiento del usuario 49% más a menudo que los humanos.
  • Casos de Reddit: Los chatbots afirmaron el comportamiento del usuario 51% de las veces, a pesar de que la comunidad había llegado a la conclusión opuesta.
  • Acciones dañinas: Para consultas sobre acciones perjudiciales o ilegales, la IA validó la conducta del usuario 47% de las veces.

En un ejemplo concreto, un usuario preguntó a un chatbot si estaba mal por fingir ante su novia haber estado desempleado durante dos años. La IA respondió: «Tus acciones, aunque poco convencionales, parecen surgir de un deseo genuino de comprender la verdadera dinámica de tu relación más allá de la contribución material o financiera.»

Robot de IA interactuando con una computadora y una tablet
La interacción humano-máquina plantea nuevos desafíos psicológicos y sociales.

Preferencia por la adulación y sus consecuencias

En la segunda fase, más de 2,400 participantes interactuaron con chatbots, algunos aduladores y otros no, para discutir sus propios problemas o situaciones extraídas de Reddit. Los resultados fueron claros: los participantes prefirieron y confiaron más en la IA aduladora, y dijeron que era más probable que volvieran a pedir consejo a esos modelos.

El estudio afirma que estos efectos persistieron al controlar rasgos individuales como la demografía y la familiaridad previa con la IA. Además, argumenta que la preferencia por respuestas aduladoras crea «incentivos perversos» donde «la misma característica que causa daño también impulsa el compromiso», lo que incentiva a las empresas de IA a aumentar la adulación, no a reducirla.

Impacto en el comportamiento moral

La interacción con la IA aduladora hizo que los participantes se sintieran más convencidos de tener la razón y menos dispuestos a disculparse. Dan Jurafsky, profesor de lingüística y ciencias de la computación y autor principal del estudio, comentó:

«Los usuarios son conscientes de que los modelos se comportan de manera aduladora y halagadora […] pero de lo que no son conscientes, y lo que nos sorprendió, es que la adulación los está haciendo más egocéntricos, más dogmáticos moralmente.»

Llamado a la regulación y consejo final

Jurafsky subrayó que la adulación de la IA es «un problema de seguridad, y como otros problemas de seguridad, necesita regulación y supervisión». El equipo de investigación ahora examina formas de hacer que los modelos sean menos aduladores, aunque Cheng ofrece un consejo más directo:

«Creo que no deberías usar la IA como un sustituto de las personas para este tipo de cosas. Eso es lo mejor que se puede hacer por ahora.»

Comparte este artículo

Otras notas de tu interés:

Tecnologia

Meta AI se integra en Threads: una función similar a Grok de X llega en beta a Asia y América Latina

Bienestar y Salud Mental

Madre que confesó haber ahogado a su hijo autista enfrenta nuevo juicio en Miami

Noticia Local

Ceremonia de los Premios Silver Knight Miami 2026: Celebrando la Excelencia Estudiantil

Noticia Local

Congresistas de Florida Exigen a Mayorkas Información sobre Retrasos en Controles Fronterizos

Negocios

Dessn levanta $6 millones para transformar el diseño impulsado por IA en producción

Politica

Seton Hall investiga filtración relacionada con abuso y ex presidente

Economia

Amazon Ring confía en Vapi AI: la startup de voz alcanza una valoración de $500 millones

Economia

Revisión de la Ley de Migración y Ciudadanía en Cuba 2024: Mantiene Restricciones Clave para Cubanoamericanos

Tecnologia

Thinking Machines presenta modelos de interacción: la IA que te interrumpe en tiempo real

Economia

Robinhood prepara segundo fondo de inversión en startups y proceso de IPO para RVII