Revolución en IA: El modelo distilado de DeepSeek desafía a los líderes tecnológicos
El laboratorio chino DeepSeek ha lanzado DeepSeek-R1-0528-Qwen3-8B, una versión compacta de su modelo de razonamiento R1 que supera a Google Gemini 2.5 Flash en AIME 2025, el conjunto de problemas matemáticos avanzados.

Rendimiento excepcional con eficiencia
- Supera a Google: Mejor desempeño que Gemini 2.5 Flash en pruebas matemáticas AIME 2025
- Iguala a Microsoft: Rendimiento cercano al modelo Phi 4 de Microsoft en evaluación HMMT
- Base tecnológica: Desarrollado sobre Qwen3-8B de Alibaba (lanzado en mayo)
Ventajas computacionales clave
Estos modelos «distilados» requieren significativamente menos recursos:
- Requisitos: Funciona con GPU de 40GB-80GB RAM (ej: Nvidia H100)
- Comparación: El modelo R1 completo necesita doce GPU de 80GB
- Entrenamiento: Fine-tuning con texto generado por el R1 completo
Acceso y licenciamiento abierto
Disponible bajo licencia MIT que permite uso comercial sin restricciones. Plataformas como LM Studio ya ofrecen el modelo mediante API.
«Para investigación académica en modelos de razonamiento y desarrollo industrial enfocado en modelos de pequeña escala» – DeepSeek en Hugging Face

Potencial transformador
Este avance democratiza el acceso a IA avanzada, permitiendo implementaciones más económicas en entornos académicos y empresariales sin sacrificar capacidades de razonamiento matemático.