OpenAI lanza Codex-Spark: una versión ligera impulsada por el chip Cerebras para mayor velocidad

OpenAI revoluciona la codificación con Codex-Spark, una versión ligera impulsada por el chip Cerebras

Este jueves, OpenAI anunció el lanzamiento de una versión ligera de su herramienta de codificación agéntica Codex. El nuevo modelo, denominado GPT-5.3-Codex-Spark, es descrito por la compañía como una versión más pequeña diseñada para una inferencia más rápida, marcando un hito en la integración de hardware y software.

Chip tecnológico de inteligencia artificial con diseño de cerebro y circuitos
Representación de un chip de IA, similar a los utilizados en la colaboración entre OpenAI y Cerebras.

La alianza estratégica con Cerebras

La asociación entre OpenAI y Cerebras fue anunciada el mes pasado, con un acuerdo multianual valorado en más de $10 mil millones. “Integrar Cerebras en nuestra mezcla de soluciones de computación se trata de hacer que nuestra IA responda mucho más rápido”, declaró la compañía en ese momento. Ahora, OpenAI califica a Spark como el “primer hito” en esa relación.

Detalles técnicos: velocidad y eficiencia

Spark, que según OpenAI está diseñado para una colaboración rápida en tiempo real y “iteración rápida”, funcionará con el Wafer Scale Engine 3 (WSE-3) de Cerebras. Este megachip de tercera generación cuenta con 4 billones de transistores, ofreciendo un rendimiento excepcional para tareas de inferencia de baja latencia.

La nueva herramienta ligera se presenta como un “conductor de productividad diaria, ayudando a los usuarios con prototipado rápido”, a diferencia de las tareas más largas y pesadas para las que está diseñado el Codex original 5.3. Actualmente, Spark está disponible en una vista previa de investigación para usuarios de ChatGPT Pro en la aplicación Codex.

“Tenemos algo especial que se lanzará para los usuarios de Codex en el plan Pro más tarde hoy”, tuiteó el CEO Sam Altman. “Me produce alegría”.

Enfoque en la baja latencia

En su comunicado oficial, OpenAI enfatizó que Spark está diseñado para la menor latencia posible en Codex. “Codex-Spark es el primer paso hacia un Codex que funciona en dos modos complementarios: colaboración en tiempo real cuando se desea una iteración rápida, y tareas de larga duración cuando se necesita un razonamiento y ejecución más profundos”, compartió la empresa. Añadió que los chips de Cerebras sobresalen en asistir “flujos de trabajo que exigen una latencia extremadamente baja”.

Contexto de Cerebras: crecimiento y ambiciones

Cerebras, fundada hace más de una década, ha ganado un papel prominente en la era de la IA. La semana pasada, la compañía anunció que había recaudado $1 mil millones en capital fresco, alcanzando una valoración de $23 mil millones. Anteriormente, Cerebras había expresado su intención de realizar una Oferta Pública Inicial (IPO).

“Lo que más nos emociona de GPT-5.3-Codex-Spark es asociarnos con OpenAI y la comunidad de desarrolladores para descubrir lo que hace posible la inferencia rápida: nuevos patrones de interacción, nuevos casos de uso y una experiencia de modelo fundamentalmente diferente”, dijo Sean Lie, CTO y cofundador de Cerebras. “Esta vista previa es solo el principio”.

Implicaciones para el futuro de la codificación asistida por IA

La llegada de Codex-Spark señala un avance significativo en la evolución de las herramientas de desarrollo, combinando hardware especializado con modelos de lenguaje optimizados. Este enfoque podría redefinir cómo los programadores interactúan con la IA, permitiendo un flujo de trabajo más ágil y receptivo.

Con esta innovación, OpenAI y Cerebras no solo están acelerando la inferencia, sino también sentando las bases para una nueva generación de aplicaciones de inteligencia artificial en el ámbito de la programación.

Comparte este artículo

Otras notas de tu interés:

Economia

El boom de la IA en Silicon Valley: una brecha de riqueza y empleo que divide a la industria

Negocios

Cierre del restaurante Blue Collar en Miami: historia y despedida de un ícono de la comida casera

Sociedad y Cultura

arXiv endurece políticas: prohibición de un año por uso descuidado de IA en artículos científicos

Politica

Sean Cairncross y el liderazgo en el control de la IA avanzada: nuevas preocupaciones cibernéticas

Economia

El auge de los centros de datos AI en South Florida: crecimiento y polémica vecinal

Negocios

Greg Brockman asume el control de la estrategia de producto en OpenAI

Politica Internacional

Estados Unidos ordena a viajeros en Air Force One desechar regalos y teléfonos tras viaje a China

Economia

Crecimiento de centros de datos para IA en South Florida: ¿Progreso tecnológico o peligro ambiental y comunitario?

Economia

Colapso de negociaciones en LIRR: Huelga amenaza el transporte en Nueva York

Politica

La Cámara de Representantes busca bloquear leyes estatales de IA en California y Nueva York