Google Cloud anuncia nueva generación de chips TPU para IA
Google Cloud anunció este miércoles su octava generación de chips de inteligencia artificial personalizados, conocidos como unidades de procesamiento tensorial (TPU). Esta vez, la serie se divide en dos: el TPU 8t, diseñado para el entrenamiento de modelos, y el TPU 8i, orientado a la inferencia.
¿Qué es la inferencia en IA?
La inferencia se refiere al uso continuo de los modelos de IA, es decir, lo que sucede después de que los usuarios envían sus consultas o prompts.
Rendimiento mejorado y especificaciones clave
Google promete especificaciones impresionantes para estos nuevos TPU en comparación con las generaciones anteriores:
- Hasta 3 veces más rápido en el entrenamiento de modelos de IA.
- 80% mejor rendimiento por dólar.
- Capacidad de agrupar más de 1 millón de TPUs en un solo clúster.
El resultado debería ser más potencia de cálculo con menos energía y coste para los clientes.

Competencia con Nvidia: ¿Amenaza o complemento?
Sin embargo, los chips de Google no son un ataque frontal al futuro de Nvidia, al menos por ahora. Al igual que otros grandes proveedores de nube, como Microsoft y Amazon, Google utiliza estos chips para complementar los sistemas basados en Nvidia que ofrece en su infraestructura. No está reemplazando por completo a Nvidia. De hecho, Google promete que su nube tendrá disponible el último chip de Nvidia, Vera Rubin, más adelante este año.
Como señaló el analista de mercado de chips Patrick Moore en X, en 2016 predijo que el TPU de Google podría ser una mala noticia para Nvidia e Intel. Pero Nvidia es ahora una empresa con una capitalización de mercado de casi 5 billones de dólares, lo que muestra que esa predicción no resistió el paso del tiempo.
Colaboración estratégica entre gigantes
Google también afirma que ha acordado trabajar con Nvidia para mejorar la red informática, permitiendo que los sistemas basados en Nvidia funcionen de manera aún más eficiente en su nube. En particular, las dos gigantes tecnológicas están trabajando para fortalecer el software de red llamado Falcon, que Google creó y liberó como código abierto en 2023 bajo el Open Compute Project.

El futuro del mercado de chips para IA
Un día, los hiperescaladores que construyen sus propios chips de IA (como Amazon, Microsoft y Google) podrían necesitar menos a Nvidia, a medida que las empresas trasladan sus necesidades de IA a sus nubes y adaptan sus aplicaciones a estos chips. Pero, por ahora, no es rentable apostar contra Nvidia. Según los planes de Nvidia, el crecimiento de Google como proveedor de nube de IA resultaría en más negocios para el fabricante de chips, no menos, incluso si muchas cargas de trabajo se ejecutan en los chips de Google.
En resumen, Google Cloud está fortaleciendo su arsenal de IA con los nuevos TPU 8t y 8i, pero mantiene una relación de colaboración y competencia con Nvidia, lo que refleja la complejidad del mercado actual de inteligencia artificial.