Osaurus: El software de IA que unifica modelos locales y en la nube para Mac

Un nuevo estándar para la inteligencia artificial en Mac

En un momento en que los modelos de inteligencia artificial se convierten en un commodity, una nueva startup emerge para construir la capa de software que los conecta. Se trata de Osaurus, un servidor LLM de código abierto diseñado exclusivamente para el ecosistema Apple. Su propuesta es clara: permitir que los usuarios transiten entre diferentes modelos de IA locales o en la nube, manteniendo sus archivos, herramientas y memoria en su propio hardware.

El proyecto nació de la idea de un asistente de escritorio llamado Dinoki, descrito por su cofundador Terence Pae (exingeniero en Tesla y Netflix) como una especie de “Clippy potenciado por IA”. Los clientes de Dinoki cuestionaron por qué debían pagar por tokens si ya adquirían la aplicación. Esa pregunta llevó a Pae a explorar la ejecución local de modelos de IA.

¿Cómo funciona Osaurus?

“Así es como comenzó Osaurus”, explicó Pae durante una entrevista. “La idea era ejecutar un asistente de IA completamente en local. Puedes hacer casi todo en tu Mac de manera local: navegar archivos, acceder al navegador, modificar configuraciones del sistema. Queríamos posicionar Osaurus como una IA personal para cada individuo”.

Hoy, Osaurus se conecta de forma flexible con modelos de IA alojados localmente o con proveedores en la nube como OpenAI y Anthropic. Los usuarios eligen libremente qué modelo usar, mientras que otros aspectos —como la memoria, los archivos y las herramientas— permanecen en su propio equipo. Dado que distintos modelos tienen fortalezas diferentes, la ventaja es que se puede cambiar al que mejor se adapte a la tarea.

Esta arquitectura convierte a Osaurus en lo que se conoce como un “harness” (arnés): una capa de control que conecta diferentes modelos, herramientas y flujos de trabajo a través de una sola interfaz. A diferencia de herramientas similares como OpenClaw o Hermes, Osaurus está orientado a consumidores con una interfaz fácil de usar y aborda problemas de seguridad ejecutando todo en una sandbox virtual aislada por hardware, limitando el alcance de la IA y protegiendo el equipo.

Interfaz de software en macOS con panel de navegación y tabla de cartera

Ejemplo de interfaz de software en macOS, ilustrando el tipo de herramientas que Osaurus puede integrar.

Requisitos técnicos y modelos compatibles

Ejecutar modelos de IA en la máquina local aún es una práctica incipiente debido a los intensos requisitos de recursos. Para usar modelos locales, el sistema necesita al menos 64 GB de RAM; para modelos más grandes como DeepSeek V4, Pae recomienda 128 GB de RAM. Sin embargo, el cofundador cree que las necesidades disminuirán con el tiempo: “La inteligencia por vatio está aumentando significativamente. El año pasado la IA local apenas podía terminar frases; hoy puede ejecutar herramientas, escribir código, acceder al navegador y ordenar productos en Amazon”.

Osaurus puede ejecutar modelos como MiniMax M2.5, Gemma 4, Qwen3.6, GPT-OSS, Llama, DeepSeek V4 y otros. También es compatible con los modelos en el dispositivo de Apple, la familia LFM de Liquid AI, y en la nube se conecta con OpenAI, Anthropic, Gemini, xAI/Grok, Venice AI, OpenRouter, Ollama y LM Studio.

Capacidades adicionales y plugins

Como servidor MCP (Model Context Protocol) completo, Osaurus otorga acceso a cualquier cliente compatible con MCP a sus herramientas. Además, incluye más de 20 plugins nativos para Mail, Calendario, Vision, macOS Use, XLSX, PPTX, Navegador, Música, Git, Sistema de archivos, Búsqueda, Fetch y más. Recientemente, se agregaron capacidades de voz.

Trayectoria y futuro

El proyecto se presentó públicamente hace casi un año y, según su sitio web, ha sido descargado más de 112,000 veces. Los cofundadores, Terence Pae y Sam Yoo, actualmente participan en la aceleradora de startups Alliance con sede en Nueva York. Están explorando la oferta de Osaurus a empresas, especialmente en los sectores legal y de salud, donde ejecutar LLMs localmente puede resolver problemas de privacidad.

Pae cree que el auge de la IA local podría reducir la demanda de centros de datos: “En lugar de depender de la nube, se puede desplegar un Mac Studio in situ, consumiendo mucha menos energía. Se mantienen las capacidades de la nube, pero sin depender de un centro de datos”.

Pantallas de iPhone con interfaz iOS, reflejando el ecosistema Apple donde opera Osaurus

El ecosistema Apple es el hogar de Osaurus, diseñado para integrarse con las herramientas nativas del sistema.

Con una comunidad creciente y una visión clara, Osaurus se perfila como una solución clave para quienes buscan aprovechar la inteligencia artificial sin sacrificar la privacidad ni el control de sus datos.

Comparte este artículo

Otras notas de tu interés:

Economia

Revelan un innovador plan para enfriar la Tierra: la energía geotérmica como protagonista

Bienestar y Salud Mental

Expansión en Miami: The Break Room lleva la terapia de ira a un nuevo nivel

Negocios

Republicanos lanzan ofensiva de cabildeo en la Casa Blanca

Negocios

Elon Musk contra OpenAI y Sam Altman: el juicio que podría redefinir el futuro de la inteligencia artificial

Negocios

SpaceXAI pierde a más de 50 talentos: la fuga de cerebros que sacude a la compañía de Elon Musk

Tecnologia

OpenAI Codex llega a dispositivos móviles: integración en iOS y Android

Economia

OpenAI contra Apple: acciones legales por la integración fallida de ChatGPT

Negocios

OpenAI considera acciones legales contra Apple por fallida integración de ChatGPT

Economia

Recursive Superintelligence: La startup de Richard Socher que busca la auto-mejora recursiva de la IA

Espectáculos y Entretenimiento

Spotify celebra 20 años con un ‘Recap’ histórico para sus usuarios