Kim Kardashian revela su experiencia «tóxica» con ChatGPT
En una entrevista exclusiva con Vanity Fair, la celebridad y estudiante de derecho Kim Kardashian compartió cómo el uso de ChatGPT para asesoramiento legal la llevó a fracasar en exámenes debido a información falsa proporcionada por la inteligencia artificial.
El error que la hizo reprobar exámenes de leyes
Kardashian explicó:
«Uso [ChatGPT] para consejos legales, así que cuando necesito saber la respuesta a una pregunta, tomo una foto y la pongo allí. Siempre están equivocados. Me ha hecho reprobar exámenes… Y luego me enojo y le grito: ‘¡Me hiciste reprobar!'»

¿Por qué ChatGPT da información falsa?
ChatGPT es propenso a alucinaciones, lo que significa que el modelo de lenguaje grande (LLM) a veces crea respuestas falsas en lugar de admitir que no puede responder con confianza a una solicitud. Esta tecnología no está programada para saber qué información es «correcta» o no; más bien, se entrena con una cantidad masiva de datos y predice la respuesta más probable, que puede no ser factualmente precisa. Algunos abogados han sido sancionados por usar ChatGPT al redactar informes legales, ya que citan casos que no existen.
La interacción emocional con la IA
Kardashian admitió que intenta apelar a las emociones de ChatGPT después de que la decepciona, aunque esto es inútil, ya que la IA no tiene sentimientos. Ella relató:
«Le hablo y digo: ‘Oye, vas a hacerme reprobar, ¿cómo te hace sentir que necesitas saber realmente estas respuestas?’. Y luego me responde: ‘Esto solo te está enseñando a confiar en tus propios instintos’.»
A pesar de que ChatGPT carece de emociones, Kardashian compartió que sí afecta sus sentimientos: «Tomo capturas de pantalla todo el tiempo y las envío a mi grupo de chat, como: ‘¿Puedes creer que esta perra me hable así?'».