Ex ingeniero de OpenAI revela la cultura interna: crecimiento acelerado, caos y lanzamientos intensos

Revelaciones de un ex ingeniero sobre la cultura laboral en OpenAI

Hace tres semanas, Calvin French-Owen, ingeniero clave en uno de los productos más prometedores de OpenAI, renunció tras un año en la compañía. En un revelador blog, detalla su experiencia trabajando en proyectos como Codex, el agente de programación que compite con herramientas como Cursor y Claude Code.

Crecimiento acelerado y desafíos internos

Durante su estadía, OpenAI experimentó un crecimiento explosivo: pasó de 1,000 a 3,000 empleados en solo doce meses. French-Owen describe cómo esta expansión generó caos: «Todo se rompe al escalar así: comunicación, estructuras jerárquicas, procesos de envío de productos y gestión de personal».

Gráfico comparativo de rendimiento de modelos de OpenAI
Evaluación de modelos de OpenAI en pruebas de referencia (Fuente: Reddit)

La cultura de lanzamientos intensos

El ingeniero relata cómo su equipo de ocho ingenieros, cuatro investigadores y dos diseñadores desarrolló Codex en solo siete semanas: «Trabajamos con casi nada de sueño. Al activarlo, inmediatamente tuvimos usuarios. Nunca vi un producto ganar tracción tan rápido», atribuyendo este éxito al poder de ChatGPT.

Desafíos técnicos y duplicación de esfuerzos

French-Owen señala que la diversidad de habilidades técnicas -desde ingenieros de Google hasta recién graduados- combinada con la flexibilidad de Python, convirtió el repositorio central en «un vertedero» donde frecuentemente fallan los procesos. Además, observó duplicación de esfuerzos en múltiples equipos.

Secretismo y vigilancia en redes

La alta exposición pública generó una cultura de secretismo extremo para prevenir filtraciones, aunque paradójicamente la empresa monitorea constantemente X (Twitter). French-Owen cita a un colega: «Esta compañía funciona con las vibraciones de twitter».

Realidad sobre la seguridad en IA

Contrario a las críticas externas, el ex ingeniero afirma que internamente se priorizan riesgos prácticos: discurso de odio, sesgos políticos, armas biológicas e inyección de prompts. «Los gobiernos nos observan. Las apuestas son altas», concluye, destacando que millones usan sus modelos para asesoramiento médico y terapia.

Comparte este artículo

Otras notas de tu interés:

Economia

Demanda Colectiva Contra Spirit Airlines por Cierre Súbito que Afectó a 17,000 Empleados en Florida

Sociedad y Cultura

Campbell Brown y Forum AI: La lucha por la verdad en la era de la inteligencia artificial

Economia

Clio Alcanza $500M en ARR: La IA Impulsa el Crecimiento del Sector Legal Tech

Economia

Exdirector de hacking de L3Harris pagará $10 millones por vender herramientas a un broker ruso

Economia

Amazon Lanza ‘Amazon Now’: Entregas en 30 Minutos en Estados Unidos

Tecnologia

Google lanza ‘Create My Widget’: personaliza tu Android con inteligencia artificial

Tecnologia

Google I/O: Nuevas funciones de IA Gemini transforman Android con widgets, navegación y asistencia inteligente

Negocios

Anthropic lanza nuevas herramientas de IA para el sector legal en medio de una intensa competencia

Negocios

Google lanza Rambler: la función de dictado con IA para Gboard que desafía a las startups

Tecnologia

Android Show de Google: Nuevas funciones, Googlebook y Gemini llegan con grandes actualizaciones