Microsoft presenta su nuevo chip diseñado para escalar la inteligencia artificial
Microsoft ha anunciado el lanzamiento de su último chip, el Maia 200, que la compañía describe como un «caballo de batalla de silicio» diseñado específicamente para escalar la inferencia de IA.

Detalles técnicos y potencia bruta
El Maia 200, sucesor del Maia 100 presentado en 2023, ha sido equipado técnicamente para ejecutar potentes modelos de IA a velocidades más rápidas y con mayor eficiencia. Este chip viene equipado con más de 100 mil millones de transistores, ofreciendo un rendimiento de más de 10 petaflops en precisión de 4 bits y aproximadamente 5 petaflops de rendimiento en 8 bits.
¿Por qué es crucial la inferencia de IA?
La inferencia se refiere al proceso computacional de ejecutar un modelo de IA ya entrenado. A medida que las empresas de IA maduran, los costos de inferencia se han convertido en una parte cada vez más importante de su costo operativo total, lo que ha renovado el interés en formas de optimizar este proceso.
Microsoft espera que el Maia 200 pueda ser parte de esa optimización, permitiendo que los negocios de IA funcionen con menos interrupciones y un menor consumo de energía.
«En términos prácticos, un nodo Maia 200 puede ejecutar sin esfuerzo los modelos más grandes de la actualidad, con un amplio margen para modelos aún más grandes en el futuro», afirmó la compañía.
La carrera por la independencia de Nvidia
El nuevo chip de Microsoft es parte de una tendencia creciente de gigantes tecnológicos que recurren a chips de diseño propio para reducir su dependencia de Nvidia, cuyas GPUs de última generación se han vuelto cada vez más cruciales para el éxito de las empresas de IA.
- Google cuenta con sus Unidades de Procesamiento Tensorial (TPU), que no se venden como chips sino como potencia de computación accesible a través de su nube.
- Amazon tiene su propio chip acelerador de IA, Trainium, que lanzó su última versión, el Trainium3, en diciembre.
En cada caso, estos chips pueden utilizarse para descargar parte de la computación que de otro modo se asignaría a las GPUs de Nvidia, reduciendo el costo total del hardware.

Rendimiento superior frente a la competencia
Con el Maia, Microsoft se posiciona para competir con estas alternativas. La compañía señaló que el Maia 200 ofrece 3 veces el rendimiento FP4 en comparación con los chips Amazon Trainium de tercera generación, y un rendimiento FP8 superior al de la séptima generación de TPU de Google.
Uso actual y apertura a la comunidad
Microsoft afirma que el Maia ya está trabajando arduamente alimentando los modelos de IA de su equipo de Superinteligencia. También ha estado apoyando las operaciones de Copilot, su chatbot.
La compañía ha invitado a una variedad de partes, incluidos desarrolladores, académicos y laboratorios de IA frontera, a utilizar su kit de desarrollo de software (SDK) del Maia 200 en sus cargas de trabajo.