
OpenAI se está abriendo nuevamente.
El lanzamiento este mes de dos modelos de “pesos abiertos” (open-weight)—gpt-oss-120b y gpt-oss-20b—marca un cambio radical respecto a su giro de 2019 hacia el secretismo, cuando empezó a ocultar sus investigaciones más avanzadas tras un avance en el escalado de modelos y capacidad computacional. Ahora, con el GPT-5 en el horizonte, OpenAI está señalando un regreso —al menos parcial— a su filosofía original.
Estos nuevos modelos exponen todos sus pesos internos, lo que significa que los desarrolladores pueden inspeccionarlos y ajustar su funcionamiento. Esto no los hace “código abierto” en el sentido más estricto —los datos de entrenamiento y el código fuente siguen siendo cerrados—, pero los hace más accesibles y adaptables que cualquier cosa que OpenAI haya ofrecido en años.
Una jugada pesada
El movimiento es importante, no solo por los modelos en sí, sino por quién está detrás. OpenAI sigue siendo la fuerza dominante en IA generativa, con ChatGPT como su producto estrella para los consumidores. Cuando un líder de ese calibre empieza a lanzar modelos abiertos, envía una señal a toda la industria.
“Los modelos abiertos llegaron para quedarse”, dice Robert Nishihara, cofundador de Anyscale. “Ahora que OpenAI compite en este frente, el panorama se volverá mucho más competitivo y podemos esperar mejores modelos abiertos”.
A las empresas —especialmente en sectores regulados como la salud o las finanzas— les gusta construir sobre modelos de código abierto para adaptarlos a sus necesidades y ejecutarlos en servidores internos o nubes privadas, evitando el alto costo y los riesgos de seguridad de enviar sus datos (posiblemente sensibles o propietarios) a modelos de terceros como GPT-4.5 de OpenAI, Claude de Anthropic o Gemini de Google.
Los modelos OSS de OpenAI tienen licencia Apache 2.0, lo que significa que los desarrolladores pueden usarlos, modificarlos e incluso comercializarlos, siempre que den crédito a OpenAI y renuncien a reclamaciones de patentes.
Pero nada de esto importaría si los modelos no fueran punteros… y lo son.
Lo más nuevo
Según OpenAI, el modelo más grande, gpt-oss-120b (120,000 millones de parámetros), iguala al o4-mini de OpenAI en pruebas de razonamiento básico, incluso ejecutándose en una sola GPU. El modelo más pequeño, gpt-oss-20b, rinde igual que el o3-mini de la compañía y es lo suficientemente compacto como para funcionar en dispositivos edge con solo 16 GB de memoria (como una laptop potente).
Ese tamaño reducido importa mucho. Muchos en la industria creen que los modelos pequeños en dispositivos personales podrían ser la ola del futuro. Al no necesitar conexión a la nube para procesar datos, son más seguros y protegen mejor la privacidad. Además, suelen estar entrenados para tareas específicas (como inspección de calidad en fábricas o traducción de idiomas desde un teléfono).
El lanzamiento también podría acelerar el ecosistema de infraestructura abierta para IA.
“Cuanto más populares sean los modelos abiertos, más importante será la infraestructura de código abierto para implementarlos”, dice Nishihara. “Estamos viendo el auge de modelos abiertos complementado por infraestructuras de alta calidad para entrenarlos y desplegarlos—como los proyectos Ray y vLLM”.
Además, hay un trasfondo geopolítico. El gobierno de Trump ha enmarcado la IA como un activo estratégico en su rivalidad con China, presionando a empresas estadounidenses para que definan normas e infraestructuras globales. Los modelos de pesos abiertos de un laboratorio líder de Estados Unidos —diseñados para correr en chips de Nvidia— podrían expandirse rápidamente en regiones como África y Medio Oriente, contrarrestando el auge de modelos chinos gratuitos optimizados para hardware de Huawei. Es una jugada de poder blando, similar a la dominancia del dólar como moneda global.