El desafío de la infraestructura en la nube y la alternativa local
En un contexto de inestabilidad financiera en la cadena de suministro de IA, donde los acuerdos verbales ya no son suficientes, surge una alternativa potente: modelos de inteligencia artificial más pequeños que funcionan directamente en el dispositivo del usuario, sin necesidad de centros de datos ni proveedores en la nube. Multiverse Computing, una startup española, está liderando esta innovación con su tecnología de compresión CompactifAI.

CompactifAI: La app que demuestra el poder de la IA comprimida
Tras comprimir modelos de laboratorios líderes como OpenAI, Meta, DeepSeek y Mistral AI, Multiverse ha lanzado la aplicación CompactifAI. Esta herramienta de chat, similar a ChatGPT, integra el modelo Gilda, que es lo suficientemente pequeño como para ejecutarse de forma local y sin conexión a internet, según la empresa.
Sin embargo, existe una limitación clave: el dispositivo móvil debe tener suficiente RAM y almacenamiento. En caso contrario, la aplicación cambia automáticamente a modelos basados en la nube a través de una API, perdiendo así su principal ventaja en privacidad. Este enrutamiento lo gestiona un sistema interno llamado Ash Nazg.

El objetivo real: Desarrolladores y empresas
Aunque la adopción masiva de la app aún no es una realidad, el verdadero foco de Multiverse son los negocios. La compañía ha lanzado un portal API de autoservicio que permite a desarrolladores y empresas acceder directamente a sus modelos comprimidos, sin necesidad de pasar por mercados como AWS.
“El portal API CompactifAI [ahora] da a los desarrolladores acceso directo a modelos comprimidos con la transparencia y el control necesarios para ejecutarlos en producción”, afirmó Enrique Lizaso, CEO de Multiverse Computing.
Una característica central es el monitoreo de uso en tiempo real, crucial para empresas que buscan reducir costos de computación como alternativa a los grandes modelos de lenguaje (LLMs).
La evolución de los modelos pequeños
El panorama de la IA compacta está en rápida evolución. Recientemente, Mistral AI actualizó su familia de modelos pequeños con Mistral Small 4, optimizado para chat general, codificación y razonamiento. Además, lanzó Forge, un sistema para que las empresas construyan modelos personalizados.
Por su parte, Multiverse afirma que su último modelo comprimido, HyperNova 60B 2602, basado en gpt-oss-120b de OpenAI, ofrece respuestas más rápidas a menor costo que el original, una ventaja decisiva para flujos de trabajo de codificación autónoma.
Ventajas más allá del ahorro: Privacidad y resiliencia
La capacidad de ejecutar IA localmente no solo reduce costos. Para trabajadores en campos críticos, ofrece mayor privacidad y resistencia al no depender de la conectividad a la nube. Esto abre casos de uso innovadores, como integrar IA en drones, satélites y entornos con conectividad limitada o nula.
Expansión y financiación
Multiverse ya sirve a más de 100 clientes globales, incluyendo el Banco de Canadá, Bosch e Iberdrola. Tras una ronda de financiación Serie B de 215 millones de dólares el año pasado, se rumorea que la empresa busca una nueva ronda de 500 millones de euros con una valoración superior a los 1.500 millones de euros.
El diseño modular de su tecnología y la clara tipografía digital en sus interfaces reflejan su enfoque en la usabilidad y eficiencia, pilares para llevar la IA a la próxima frontera: el dispositivo en tu bolsillo.