Amazon anuncia un histórico acuerdo con Meta
Amazon ha conseguido un importante triunfo con Meta, gracias nuevamente a sus propios chips desarrollados internamente. La compañía liderada por Mark Zuckerberg ha firmado un acuerdo para utilizar millones de CPUs AWS Graviton para impulsar sus crecientes necesidades de inteligencia artificial, según anunció Amazon el pasado viernes.
¿Qué son los chips AWS Graviton?
Es importante destacar que el AWS Graviton es una CPU basada en arquitectura ARM (unidad central de procesamiento, el chip que maneja tareas informáticas generales), no una GPU (unidad de procesamiento gráfico). Mientras que las GPU siguen siendo el chip preferido para entrenar grandes modelos, una vez entrenados, los agentes de IA construidos sobre ellos están provocando un cambio en el tipo de chip necesario. Los agentes crean cargas de trabajo intensivas en cómputo, como razonamiento en tiempo real, escritura de código, búsqueda y la coordinación involucrada en la gestión de agentes a través de tareas de múltiples pasos. La última versión de Graviton fue diseñada específicamente para manejar necesidades de cómputo relacionadas con IA, según la compañía.
Implicaciones en la competencia de la nube
Este acuerdo trae más ingresos de Meta de vuelta a AWS, en lugar de competidores como Google Cloud. En agosto pasado, Meta firmó un acuerdo de seis años por $10 mil millones con Google Cloud, aunque Meta había sido hasta entonces principalmente un cliente de AWS que también utilizaba Microsoft Azure. No podemos dejar de notar que Amazon programó el anuncio de este acuerdo justo cuando finalizaba la conferencia Google Cloud Next, como una especie de guiño virtual a su rival en la nube. Google, por supuesto, también fabrica sus propios chips de IA personalizados y anunció nuevas versiones de ellos en el evento.
El ecosistema de chips de Amazon
Cierto, Amazon también fabrica su propia GPU de IA: el Trainium, que a pesar de su nombre se utiliza tanto para entrenamiento como para inferencia, la etapa que ocurre después de entrenar un modelo, cuando procesa activamente las indicaciones. Pero Anthropic ya se había adelantado con un acuerdo anunciado a principios de este mes que acaparó muchos de esos chips durante años. El creador de Claude acordó gastar $100 mil millones en 10 años para ejecutar sus cargas de trabajo en AWS, con un enfoque particular en Trainium, mientras que Amazon acordó invertir otros $5 mil millones (elevando su total a $13 mil millones de inversión) en Anthropic a cambio.

Una prueba de concepto para las CPUs de Amazon
En última instancia, el acuerdo con Meta permite a Amazon mostrar un gran cliente de IA como punto de prueba para sus CPUs desarrolladas internamente. Estos chips compiten con la nueva CPU Vera de Nvidia, que también está basada en ARM y diseñada para manejar cargas de trabajo de agentes de IA. La diferencia, por supuesto, es que Nvidia vende sus chips y sistemas de IA a empresas y proveedores de nube (incluyendo AWS), mientras que AWS solo vende acceso a sus chips a través de su servicio en la nube.
Presión sobre el equipo de chips de Amazon
A principios de este mes, el CEO de Amazon, Andy Jassy, apuntó contra Nvidia e Intel en su carta anual a los accionistas, diciendo que las empresas quieren mejores relaciones precio-rendimiento para la IA, y que pretende ganar acuerdos sobre esa base. Esto también significa que la presión sobre el equipo interno de desarrollo de chips de Amazon para cumplir no podría ser mayor, un equipo que visitamos el mes pasado en un recorrido exclusivo por su laboratorio.