DeepSeek presenta sus modelos V4 Flash y V4 Pro
El laboratorio chino de inteligencia artificial DeepSeek ha lanzado las versiones preliminares de su nuevo modelo de lenguaje de gran escala, DeepSeek V4, una actualización muy esperada del modelo V3.2 y del modelo de razonamiento R1 que sacudió el mundo de la IA el año pasado. Los nuevos modelos, denominados V4 Flash y V4 Pro, son sistemas de mezcla de expertos con ventanas de contexto de 1 millón de tokens cada uno, suficientes para manejar grandes bases de código o documentos en las instrucciones.
Especificaciones y rendimiento
El modelo V4 Pro cuenta con un total de 1.6 billones de parámetros (49 mil millones activos), lo que lo convierte en el modelo de pesos abiertos más grande disponible, superando a Kimi K 2.6 (1.1 billones), MiniMax M1 (456 mil millones) y al propio DeepSeek V3.2 (671 mil millones). Por su parte, la versión más ligera V4 Flash tiene 284 mil millones de parámetros (13 mil millones activos).
Según DeepSeek, ambos modelos son más eficientes y con mejor rendimiento que V3.2 gracias a mejoras arquitectónicas, y han “casi cerrado la brecha” con los modelos líderes actuales, tanto abiertos como cerrados, en pruebas de razonamiento. La compañía afirma que su V4-Pro-Max supera a sus pares de código abierto en dichas pruebas, e incluso supera a GPT-5.2 y Gemini 3.0 Pro en algunas tareas. En benchmarks de competencias de programación, DeepSeek indicó que el rendimiento de ambos modelos V4 es “comparable a GPT-5.4”.

Limitaciones y contexto geopolítico
Sin embargo, los modelos parecen quedar ligeramente rezagados frente a los modelos de frontera en pruebas de conocimiento, específicamente GPT-5.4 de OpenAI y Gemini 3.1 Pro de Google. Este retraso sugiere una “trayectoria de desarrollo que está entre 3 y 6 meses detrás de los modelos frontera de última generación”, según escribió el laboratorio. Además, tanto V4 Flash como V4 Pro solo admiten texto, a diferencia de muchos de sus competidores cerrados que ofrecen soporte para comprensión y generación de audio, video e imágenes.
El lanzamiento se produce un día después de que Estados Unidos acusara a China de robar propiedad intelectual de laboratorios de IA estadounidenses a escala industrial mediante miles de cuentas proxy. El propio DeepSeek ha sido acusado por Anthropic y OpenAI de “destilar”, esencialmente copiar, sus modelos de IA.
Precios competitivos
DeepSeek V4 es mucho más asequible que cualquier modelo frontera disponible actualmente. El modelo V4 Flash cuesta $0.14 por millón de tokens de entrada y $0.28 por millón de tokens de salida, subcotizando a GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini y Claude Haiku 4.5. El modelo más grande V4 Pro cuesta $0.145 por millón de tokens de entrada y $3.48 por millón de tokens de salida, también por debajo de Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 y GPT-5.4.
Con estas características, DeepSeek se posiciona como un contendiente serio en la carrera de la inteligencia artificial, ofreciendo un rendimiento casi de vanguardia a un costo drásticamente menor, aunque aún con limitaciones en modalidades y un ligero desfase temporal respecto a los líderes del mercado.