Ex ingeniero de OpenAI revela la cultura interna: crecimiento acelerado, caos y lanzamientos intensos

Revelaciones de un ex ingeniero sobre la cultura laboral en OpenAI

Hace tres semanas, Calvin French-Owen, ingeniero clave en uno de los productos más prometedores de OpenAI, renunció tras un año en la compañía. En un revelador blog, detalla su experiencia trabajando en proyectos como Codex, el agente de programación que compite con herramientas como Cursor y Claude Code.

Crecimiento acelerado y desafíos internos

Durante su estadía, OpenAI experimentó un crecimiento explosivo: pasó de 1,000 a 3,000 empleados en solo doce meses. French-Owen describe cómo esta expansión generó caos: «Todo se rompe al escalar así: comunicación, estructuras jerárquicas, procesos de envío de productos y gestión de personal».

Gráfico comparativo de rendimiento de modelos de OpenAI
Evaluación de modelos de OpenAI en pruebas de referencia (Fuente: Reddit)

La cultura de lanzamientos intensos

El ingeniero relata cómo su equipo de ocho ingenieros, cuatro investigadores y dos diseñadores desarrolló Codex en solo siete semanas: «Trabajamos con casi nada de sueño. Al activarlo, inmediatamente tuvimos usuarios. Nunca vi un producto ganar tracción tan rápido», atribuyendo este éxito al poder de ChatGPT.

Desafíos técnicos y duplicación de esfuerzos

French-Owen señala que la diversidad de habilidades técnicas -desde ingenieros de Google hasta recién graduados- combinada con la flexibilidad de Python, convirtió el repositorio central en «un vertedero» donde frecuentemente fallan los procesos. Además, observó duplicación de esfuerzos en múltiples equipos.

Secretismo y vigilancia en redes

La alta exposición pública generó una cultura de secretismo extremo para prevenir filtraciones, aunque paradójicamente la empresa monitorea constantemente X (Twitter). French-Owen cita a un colega: «Esta compañía funciona con las vibraciones de twitter».

Realidad sobre la seguridad en IA

Contrario a las críticas externas, el ex ingeniero afirma que internamente se priorizan riesgos prácticos: discurso de odio, sesgos políticos, armas biológicas e inyección de prompts. «Los gobiernos nos observan. Las apuestas son altas», concluye, destacando que millones usan sus modelos para asesoramiento médico y terapia.

Comparte este artículo

Otras notas de tu interés:

Economia

Gobierno de EE.UU. Negocia Acuerdos para Centros de Datos en Medio de Crisis Energética

Economia

Anthropic se Enfrenta a una Empresa India en una Disputa por el Nombre

Economia

Marcha por los Multimillonarios: Protesta Contra el Impuesto a la Riqueza en California

Economia

OpenAI inicia pruebas de anuncios en ChatGPT para usuarios gratuitos en EE. UU.

Negocios

Los agentes de IA dan un salto en tareas profesionales, pero aún no sustituyen a los abogados

Economia

Workday anuncia la salida inmediata de su CEO Carl Eschenbach y el regreso del cofundador Aneel Bhusri

Politica

Senador Ron Wyden Alerta sobre Actividades Secretas de la CIA

Negocios

Convocatoria Abierta para Oradores en el Founder Summit 2026 en Boston

Negocios

Ex empleados de Google lanzan InfiniMind: la infraestructura que convierte video en datos valiosos

Tecnologia

¿Por Qué Washington Apuesta por los Anillos Inteligentes? La Clave en la Tecnología de Salud