OpenAI anuncia Codex Spark: una versión rápida para prototipado ágil
Este jueves, OpenAI anunció el lanzamiento de una versión ligera de su herramienta de codificación agéntica Codex, el último modelo del cual OpenAI lanzó a principios de este mes. GPT-5.3-Codex-Spark es descrito por la compañía como una «versión más pequeña» de ese modelo, diseñada para una inferencia más rápida. Para alimentar esa inferencia, OpenAI ha incorporado un chip dedicado de su socio de hardware Cerebras, marcando un nuevo nivel de integración en la infraestructura física de la compañía.
Una asociación multimillonaria
La asociación entre Cerebras y OpenAI se anunció el mes pasado, cuando OpenAI dijo que había llegado a un acuerdo plurianual con la empresa por valor de más de 10.000 millones de dólares. «Integrar Cerebras en nuestra mezcla de soluciones de computación tiene que ver con hacer que nuestra IA responda mucho más rápido», dijo la compañía en ese momento. Ahora, OpenAI llama a Spark el «primer hito» en esa relación.

Características técnicas y disponibilidad
Spark, que OpenAI dice está diseñado para una colaboración rápida en tiempo real y «iteración rápida», será impulsado por el Wafer Scale Engine 3 (WSE-3) de Cerebras. El WSE-3 es el megachip de tercera generación de Cerebras, equipado con 4 billones de transistores. OpenAI describe la nueva herramienta ligera como un «conductor de productividad diaria, que ayuda a los usuarios con prototipado rápido» en lugar de las tareas más largas y pesadas para las que está diseñado el original 5.3. Spark actualmente disfruta de una vista previa de investigación para usuarios de ChatGPT Pro en la aplicación Codex.
«Tenemos algo especial que se lanzará para los usuarios de Codex en el plan Pro más tarde hoy», tuiteó el CEO Sam Altman en avance del anuncio. «Me produce alegría.»
Enfoque en baja latencia
En su declaración oficial, OpenAI enfatizó que Spark está diseñado para la menor latencia posible en Codex. «Codex-Spark es el primer paso hacia un Codex que funciona en dos modos complementarios: colaboración en tiempo real cuando quieres iteración rápida, y tareas de larga duración cuando necesitas un razonamiento y ejecución más profundos», compartió OpenAI. La compañía añadió que los chips de Cerebras sobresalen en ayudar a «flujos de trabajo que demandan una latencia extremadamente baja».
El impulso de Cerebras en la era de la IA
Cerebras ha estado operando durante más de una década pero, en la era de la IA, ha disfrutado de un papel cada vez más prominente en la industria tecnológica. Justo la semana pasada, la compañía anunció que había recaudado 1.000 millones de dólares en capital fresco a una valoración de 23.000 millones de dólares. La empresa había anunciado previamente sus intenciones de perseguir una OPI (Oferta Pública Inicial).

«Lo que más nos emociona de GPT-5.3-Codex-Spark es asociarnos con OpenAI y la comunidad de desarrolladores para descubrir lo que hace posible la inferencia rápida: nuevos patrones de interacción, nuevos casos de uso y una experiencia de modelo fundamentalmente diferente», dijo Sean Lie, CTO y cofundador de Cerebras, en un comunicado. «Esta vista previa es solo el comienzo.»
Con esta integración, OpenAI y Cerebras buscan revolucionar la velocidad y eficiencia en el desarrollo de software asistido por IA, abriendo puertas a nuevas posibilidades en la programación colaborativa.