Ex ingeniero de OpenAI revela la cultura interna: crecimiento acelerado, caos y lanzamientos intensos

Revelaciones de un ex ingeniero sobre la cultura laboral en OpenAI

Hace tres semanas, Calvin French-Owen, ingeniero clave en uno de los productos más prometedores de OpenAI, renunció tras un año en la compañía. En un revelador blog, detalla su experiencia trabajando en proyectos como Codex, el agente de programación que compite con herramientas como Cursor y Claude Code.

Crecimiento acelerado y desafíos internos

Durante su estadía, OpenAI experimentó un crecimiento explosivo: pasó de 1,000 a 3,000 empleados en solo doce meses. French-Owen describe cómo esta expansión generó caos: «Todo se rompe al escalar así: comunicación, estructuras jerárquicas, procesos de envío de productos y gestión de personal».

Gráfico comparativo de rendimiento de modelos de OpenAI
Evaluación de modelos de OpenAI en pruebas de referencia (Fuente: Reddit)

La cultura de lanzamientos intensos

El ingeniero relata cómo su equipo de ocho ingenieros, cuatro investigadores y dos diseñadores desarrolló Codex en solo siete semanas: «Trabajamos con casi nada de sueño. Al activarlo, inmediatamente tuvimos usuarios. Nunca vi un producto ganar tracción tan rápido», atribuyendo este éxito al poder de ChatGPT.

Desafíos técnicos y duplicación de esfuerzos

French-Owen señala que la diversidad de habilidades técnicas -desde ingenieros de Google hasta recién graduados- combinada con la flexibilidad de Python, convirtió el repositorio central en «un vertedero» donde frecuentemente fallan los procesos. Además, observó duplicación de esfuerzos en múltiples equipos.

Secretismo y vigilancia en redes

La alta exposición pública generó una cultura de secretismo extremo para prevenir filtraciones, aunque paradójicamente la empresa monitorea constantemente X (Twitter). French-Owen cita a un colega: «Esta compañía funciona con las vibraciones de twitter».

Realidad sobre la seguridad en IA

Contrario a las críticas externas, el ex ingeniero afirma que internamente se priorizan riesgos prácticos: discurso de odio, sesgos políticos, armas biológicas e inyección de prompts. «Los gobiernos nos observan. Las apuestas son altas», concluye, destacando que millones usan sus modelos para asesoramiento médico y terapia.

Comparte este artículo

Otras notas de tu interés:

Politica Internacional

Corea del Norte prueba motor de misil con alcance hasta Estados Unidos

Tecnologia

Filtración de Herramientas de Hacking Coruna y DarkSword Amenaza a Millones de iPhones

Economia

Inteligencia Artificial Domina el Demo Day de Y Combinator W26 2024

Espectáculos y Entretenimiento

Bluesky lanza Attie: un asistente de IA para diseñar tus propios algoritmos sociales

Bienestar y Salud Mental

Estudio de Stanford revela los peligros ocultos de buscar consejos personales en chatbots de IA

Economia

Los Dos Últimos Cofundadores de xAI Abandonan la Empresa de IA de Elon Musk

Economia

Caída en viajes aéreos en Estados Unidos: baja demanda afecta aeropuertos

Economia

Claude de Anthropic atrae a consumidores: Crecimiento récord en suscripciones pagadas

Economia

Physical Intelligence Negocia $1.000 Millones para Revolucionar la Robótica con IA

Negocios

Whoop: El Wearable que Evoluciona de Herramienta Deportiva a Guardián de la Salud