OpenAI revoluciona el ecosistema con nuevos modelos abiertos
Este martes, OpenAI anunció el lanzamiento de dos modelos de razonamiento de inteligencia artificial de peso abierto, disponibles gratuitamente en la plataforma Hugging Face. Estos modelos, descritos como «de vanguardia», representan el primer lanzamiento ‘abierto’ de la compañía desde GPT-2 hace más de cinco años.

Especificaciones técnicas
- Modelo grande: gpt-oss-120b (funciona en una sola GPU Nvidia)
- Modelo ligero: gpt-oss-20b (opera en laptops con 16GB de RAM)
- Arquitectura: Mezcla de expertos (MoE) que activa solo 5.1 mil millones de parámetros por token
- Entrenamiento: Refuerzo de aprendizaje de alta computación y proceso de cadena de pensamiento
Rendimiento y limitaciones
En pruebas comparativas, los modelos mostraron resultados mixtos:
| Prueba | gpt-oss-120b | gpt-oss-20b |
|---|---|---|
| Codeforces | 2622 | 2516 |
| Humanity’s Last Exam | 19% | 17.3% |
| Tasa de alucinaciones | 49% | 53% |
Las alucinaciones son significativamente mayores que en modelos propietarios recientes de OpenAI, atribuido a menor conocimiento mundial en modelos más pequeños.
Contexto estratégico
Este movimiento responde a la presión de laboratorios chinos (DeepSeek, Qwen, Moonshot AI) que dominan el espacio de modelos abiertos, y al llamado de la Administración Trump para promover valores estadounidenses mediante código abierto. El CEO Sam Altman reconoció: «Estuvimos en el lado equivocado de la historia».
«Nuestra misión es garantizar que la AGI beneficie a toda la humanidad. Estamos emocionados de que el mundo construya sobre una pila de IA abierta creada en EE.UU.»
Aspectos legales y seguridad
- Licencia: Apache 2.0 (permite monetización sin pagar a OpenAI)
- Datos de entrenamiento: No serán publicados debido a litigios por derechos de autor
- Seguridad: Retrasos en lanzamiento para evaluar riesgos en ciberataques y armas biológicas
Aunque se detectó un marginal aumento en capacidades biológicas, los modelos no alcanzaron el umbral de «alta capacidad peligrosa» incluso después de ajustes.
Estos modelos exclusivamente de texto llegan cuando la comunidad espera DeepSeek R2 y nuevos modelos abiertos del laboratorio de Meta.