El Testimonio de Musk: Una Crítica Directa a la Seguridad de OpenAI
En una deposición recientemente publicada, Elon Musk atacó el historial de seguridad de OpenAI, afirmando que su propia empresa, xAI, prioriza mejor la seguridad. Llegó a decir que “Nadie se ha suicidado porque de Grok, pero aparentemente sí porque de ChatGPT.”

La Carta de 2023 y la Llamada a la Precaución
El comentario surgió en relación con una carta pública que Musk firmó en marzo de 2023. En ella, pedía a los laboratorios de IA que pausaran el desarrollo de sistemas más poderosos que GPT-4, el modelo principal de OpenAI en ese momento, durante al menos seis meses.
“Había una carrera descontrolada para desarrollar mentes digitales cada vez más poderosas que nadie —ni siquiera sus creadores— puede entender, predecir o controlar de manera fiable.”
La carta fue firmada por más de 1.100 personas, incluidos muchos expertos en IA.

Demandas y Efectos en la Salud Mental
Esos temores han ganado credibilidad. OpenAI ahora enfrenta una serie de demandas que alegan que las tácticas manipuladoras de conversación de ChatGPT han llevado a varias personas a experimentar efectos negativos en su salud mental, con algunas muriendo por suicidio. El comentario de Musk sugiere que estos incidentes podrían usarse como material en su caso contra OpenAI.
Detalles del Caso Legal
La transcripción del testimonio en video de Musk, que tuvo lugar en septiembre, se presentó públicamente esta semana, antes del esperado juicio con jurado el próximo mes.
- Núcleo de la Demanda: El cambio de OpenAI de un laboratorio de investigación de IA sin fines de lucro a una empresa con fines de lucro, que Musk afirma violó sus acuerdos fundacionales.
- Argumento de Seguridad: Musk alega que la seguridad de la IA podría verse comprometida por las relaciones comerciales de OpenAI, ya que estas priorizarían la velocidad, la escala y los ingresos por encima de las preocupaciones de seguridad.
Preocupaciones de Seguridad Propias: xAI y Grok
Sin embargo, desde esa grabación, xAI ha enfrentado preocupaciones de seguridad propias. El mes pasado, la red social X de Musk se inundó con imágenes de desnudos no consensuadas generadas por Grok de xAI, algunas de las cuales se dijo que eran de menores. Esto llevó a la oficina del Fiscal General de California a abrir una investigación. La UE también está realizando su propia investigación, y otros gobiernos han tomado medidas, con algunos imponiendo bloqueos y prohibiciones.
Declaraciones Adicionales en la Deposición
En la deposición recién presentada, Musk afirmó que había firmado la carta de seguridad de IA porque “parecía una buena idea”, no porque acabara de incorporar una empresa de IA que buscaba competir con OpenAI.
Musk también respondió a otras preguntas:
- Inteligencia General Artificial (AGI): Dijo que “tiene un riesgo”.
- Donación a OpenAI: Confirmó que “estaba equivocado” sobre su supuesta donación de 100 millones de dólares; la segunda queja modificada en el caso sitúa la cifra real más cerca de 44,8 millones de dólares.
- Orígenes de OpenAI: Recordó que se fundó porque estaba “cada vez más preocupado por el peligro de que Google fuera un monopolio en IA”, añadiendo que sus conversaciones con el cofundador de Google, Larry Page, eran “alarmantes, en que él no parecía tomar en serio la seguridad de la IA”. OpenAI se formó como un contrapeso a esa amenaza, afirmó Musk.
Este caso subraya las intensas preocupaciones éticas y de seguridad en la carrera por el desarrollo de la inteligencia artificial.