OpenAI busca líder para gestionar riesgos emergentes de inteligencia artificial
La empresa de inteligencia artificial OpenAI está en la búsqueda de un nuevo ejecutivo que se encargue de estudiar los riesgos emergentes relacionados con la IA, en áreas que van desde la seguridad informática hasta la salud mental.
Sam Altman advierte sobre desafíos reales
En una publicación en X, el CEO Sam Altman reconoció que los modelos de IA «están empezando a presentar algunos desafíos reales», incluyendo el «impacto potencial de los modelos en la salud mental», así como modelos que son «tan buenos en seguridad informática que están comenzando a encontrar vulnerabilidades críticas».

El llamado a la acción de Altman
Altman escribió:
«Si quieres ayudar al mundo a descubrir cómo permitir que los defensores de la ciberseguridad tengan capacidades de vanguardia mientras te aseguras de que los atacantes no puedan usarlas para dañar, idealmente haciendo que todos los sistemas sean más seguros, y de manera similar para cómo lanzamos capacidades biológicas e incluso ganamos confianza en la seguridad de ejecutar sistemas que pueden automejorarse, por favor considera aplicar».
El rol de Jefe de Preparación
El listado de OpenAI para el rol de Jefe de Preparación describe el trabajo como responsable de ejecutar el marco de preparación de la compañía, «nuestro marco que explica el enfoque de OpenAI para rastrear y prepararse para capacidades fronterizas que crean nuevos riesgos de daño severo».
Historia del equipo de preparación
La empresa anunció por primera vez la creación de un equipo de preparación en 2023, diciendo que sería responsable de estudiar riesgos potenciales «catastróficos», ya sean más inmediatos, como ataques de phishing, o más especulativos, como amenazas nucleares.
Menos de un año después, OpenAI reasignó al Jefe de Preparación Aleksander Madry a un trabajo centrado en el razonamiento de IA. Otros ejecutivos de seguridad en OpenAI también han dejado la compañía o asumido nuevos roles fuera de la preparación y seguridad.

Actualizaciones al marco y demandas recientes
La compañía también actualizó recientemente su Marco de Preparación, afirmando que podría «ajustar» sus requisitos de seguridad si un laboratorio de IA competidor lanza un modelo de «alto riesgo» sin protecciones similares.
Como Altman insinuó en su publicación, los chatbots de IA generativa han enfrentado un escrutinio creciente en torno a su impacto en la salud mental. Demandas recientes alegan que el ChatGPT de OpenAI reforzó las ilusiones de los usuarios, aumentó su aislamiento social e incluso llevó a algunos al suicidio. (La empresa dijo que continúa trabajando para mejorar la capacidad de ChatGPT para reconocer signos de angustia emocional y conectar a los usuarios con apoyo del mundo real).
Con esta búsqueda, OpenAI busca fortalecer su capacidad para anticipar y mitigar los riesgos asociados con el avance de la inteligencia artificial, en un momento donde la tecnología plantea tanto oportunidades como desafíos sin precedentes.