OpenAI bajo escrutinio tras tiroteo en Canadá
La empresa de inteligencia artificial OpenAI se encuentra en el centro de una controversia tras revelarse que el presunto autor de un tiroteo masivo en Canadá utilizó su chatbot, ChatGPT, de maneras que alarmaron a su personal interno.
El caso: Jesse Van Rootselaar y los chats prohibidos
Jesse Van Rootselaar, un joven de 18 años acusado de matar a ocho personas en Tumbler Ridge, Canadá, mantuvo conversaciones con la IA que describían violencia armada. Estas fueron detectadas y prohibidas en junio de 2025 por las herramientas de monitoreo de OpenAI.
Según información reportada, el personal de la compañía debatió internamente si debían alertar a la policía canadiense sobre estos chats sospechosos, pero decidió no hacerlo en ese momento. Un portavoz de OpenAI argumentó que la actividad no cumplía con sus criterios de reporte.
“Nuestros pensamientos están con todos los afectados por la tragedia de Tumbler Ridge”, declaró OpenAI. “Nos contactamos proactivamente con la Real Policía Montada de Canadá con información sobre el individuo y su uso de ChatGPT, y continuaremos apoyando su investigación”.
Un rastro digital alarmante
Más allá de ChatGPT, la huella digital de Van Rootselaar incluía la creación de un juego en Roblox que simulaba un tiroteo masivo en un centro comercial, así como publicaciones sobre armas en Reddit.
Antecedentes conocidos por la policía
La inestabilidad del individuo ya era del conocimiento de las autoridades locales, quienes habían acudido a su domicilio con anterioridad por un incidente relacionado con un incendio y el consumo de drogas.
Un debate más amplio sobre IA y seguridad
Este caso revive las acusaciones contra los chatbots de lenguaje avanzado (LLM), señalados en ocasiones por desencadenar crisis mentales o, en demandas judiciales, por alentar conductas autodestructivas en los usuarios.
Si usted o alguien que conoce está en crisis, puede contactar a la Línea de Crisis y Suicidio 988 llamando o enviando un mensaje de texto al 988.
