OpenAI revoluciona la codificación con Codex-Spark, una versión ligera impulsada por el chip Cerebras
Este jueves, OpenAI anunció el lanzamiento de una versión ligera de su herramienta de codificación agéntica Codex. El nuevo modelo, denominado GPT-5.3-Codex-Spark, es descrito por la compañía como una versión más pequeña diseñada para una inferencia más rápida, marcando un hito en la integración de hardware y software.

La alianza estratégica con Cerebras
La asociación entre OpenAI y Cerebras fue anunciada el mes pasado, con un acuerdo multianual valorado en más de $10 mil millones. “Integrar Cerebras en nuestra mezcla de soluciones de computación se trata de hacer que nuestra IA responda mucho más rápido”, declaró la compañía en ese momento. Ahora, OpenAI califica a Spark como el “primer hito” en esa relación.
Detalles técnicos: velocidad y eficiencia
Spark, que según OpenAI está diseñado para una colaboración rápida en tiempo real y “iteración rápida”, funcionará con el Wafer Scale Engine 3 (WSE-3) de Cerebras. Este megachip de tercera generación cuenta con 4 billones de transistores, ofreciendo un rendimiento excepcional para tareas de inferencia de baja latencia.
La nueva herramienta ligera se presenta como un “conductor de productividad diaria, ayudando a los usuarios con prototipado rápido”, a diferencia de las tareas más largas y pesadas para las que está diseñado el Codex original 5.3. Actualmente, Spark está disponible en una vista previa de investigación para usuarios de ChatGPT Pro en la aplicación Codex.
“Tenemos algo especial que se lanzará para los usuarios de Codex en el plan Pro más tarde hoy”, tuiteó el CEO Sam Altman. “Me produce alegría”.
Enfoque en la baja latencia
En su comunicado oficial, OpenAI enfatizó que Spark está diseñado para la menor latencia posible en Codex. “Codex-Spark es el primer paso hacia un Codex que funciona en dos modos complementarios: colaboración en tiempo real cuando se desea una iteración rápida, y tareas de larga duración cuando se necesita un razonamiento y ejecución más profundos”, compartió la empresa. Añadió que los chips de Cerebras sobresalen en asistir “flujos de trabajo que exigen una latencia extremadamente baja”.
Contexto de Cerebras: crecimiento y ambiciones
Cerebras, fundada hace más de una década, ha ganado un papel prominente en la era de la IA. La semana pasada, la compañía anunció que había recaudado $1 mil millones en capital fresco, alcanzando una valoración de $23 mil millones. Anteriormente, Cerebras había expresado su intención de realizar una Oferta Pública Inicial (IPO).
“Lo que más nos emociona de GPT-5.3-Codex-Spark es asociarnos con OpenAI y la comunidad de desarrolladores para descubrir lo que hace posible la inferencia rápida: nuevos patrones de interacción, nuevos casos de uso y una experiencia de modelo fundamentalmente diferente”, dijo Sean Lie, CTO y cofundador de Cerebras. “Esta vista previa es solo el principio”.
Implicaciones para el futuro de la codificación asistida por IA
La llegada de Codex-Spark señala un avance significativo en la evolución de las herramientas de desarrollo, combinando hardware especializado con modelos de lenguaje optimizados. Este enfoque podría redefinir cómo los programadores interactúan con la IA, permitiendo un flujo de trabajo más ágil y receptivo.
Con esta innovación, OpenAI y Cerebras no solo están acelerando la inferencia, sino también sentando las bases para una nueva generación de aplicaciones de inteligencia artificial en el ámbito de la programación.