[Foto: Krot_Studio/Adobe Stock]
En la actual carrera de la IA, los avances ya no se miden en años, ni siquiera en meses, sino en semanas.
El lanzamiento de Opus 4.6 hace poco más de dos semanas fue un momento clave para su creador, Anthropic, que ofreció un rendimiento de vanguardia en diversos campos. Pero en menos de una semana, su competidor chino Z.ai lanzó su propio modelo similar a Opus, GLM-5. (No hay indicios de que GLM5 use o tome elementos de Opus). Muchos en redes sociales lo calificaron como una alternativa económica a Opus.
Pero la ventaja de Z.ai tampoco duró mucho. Justo cuando Anthropic se vio perjudicada por el lanzamiento de GLM-5, GLM-5 se descargó, comprimió y relanzó rápidamente en una versión que podía ejecutarse localmente sin acceso a internet.
Han circulado acusaciones sobre cómo las empresas de IA pueden igualar, e incluso superar, el rendimiento de sus competidores, en particular cómo las empresas chinas de IA pueden lanzar modelos que rivalizan con los estadounidenses en cuestión de días o semanas. Google se ha quejado durante mucho tiempo de los riesgos de la destilación, donde las empresas atiborran los modelos con indicaciones diseñadas para extraer patrones de razonamiento internos y lógica mediante la generación de conjuntos de datos de respuesta masivos, que luego se utilizan para entrenar modelos clónicos más económicos. Supuestamente, un actor realizó prompts con el modelo de IA Gemini de Google más de 100,000 veces para intentar desvelar los secretos que lo hacen funcionar tan eficazmente.
“Creo que la ventaja competitiva se está reduciendo”, afirma Shayne Longpre, doctorante del Instituto Tecnológico de Massachusetts (MIT), cuya investigación se centra en políticas de IA.
El cambio se está produciendo tanto en la velocidad de los lanzamientos como en la naturaleza de las mejoras. Longpre argumenta que la brecha entre los mejores modelos cerrados y las alternativas de peso abierto está disminuyendo drásticamente. “La brecha entre estos y los modelos completamente de código abierto o de peso abierto es de entre tres y seis meses”, explica, citando una investigación de la organización de investigación sin ánimo de lucro Epoch AI, que rastrea el desarrollo de modelos.
La razón de esta disminución de la brecha es que gran parte del progreso ahora llega después del lanzamiento de un modelo. Longpre describe que las empresas “implementan diferentes métodos de aprendizaje por refuerzo o perfeccionan esos sistemas, o les otorgan mayor razonamiento en el tiempo de prueba, o les permiten ventanas de contexto más amplias”, lo que acorta considerablemente el periodo de adaptación, “en lugar de tener que entrenar previamente un nuevo modelo desde cero”, afirma.
Cada una de estas mejoras iterativas aumenta las ventajas de velocidad. “Están implementando nuevas funciones cada una o dos semanas con todas estas variantes”, afirma. “Son como parches para el software convencional”.
Pero las empresas estadounidenses de IA, que suelen ser pioneras en muchos de estos avances, se han mostrado cada vez más abiertas contra esta práctica. OpenAI ha alegado en un memorando dirigido a legisladores estadounidenses que DeepSeek entrenó sistemas competitivos extrayendo resultados de modelos estadounidenses.
Incluso cuando nadie está “robando” en sentido estricto, el ecosistema de peso abierto replica con mayor rapidez técnicas que demuestran su eficacia en modelos de vanguardia.
La definición de lo que significa “abierto” en las licencias de modelos es en parte responsable, afirma Thibault Schrepel, profesor asociado de derecho en la Universidad Libre de Ámsterdam, quien estudia la competencia en modelos de base. “Con frecuencia escuchamos que un sistema es o no de código abierto”, afirma. “Creo que es una forma muy limitada de entender qué es o no de código abierto”.
Es importante examinar los términos reales de esas licencias, añade Schrepel. “Si se analizan detenidamente las licencias de todos los modelos, en realidad limitan mucho lo que se puede hacer con lo que llaman código abierto”, afirma. La licencia Llama 3 de Meta, por ejemplo, incluye un activador para servicios muy grandes, pero no para los más pequeños. “Si se implementa para más de 700 millones de usuarios, entonces hay que solicitar una licencia”, afirma Schrepel. Este sistema de dos niveles puede crear zonas grises donde pueden surgir prácticas cuestionables.
Para compensar, es probable que el mercado diverja, afirma Longpre del MIT. Por un lado, habrá modelos autoalojados económicos y cada vez más capaces para las tareas cotidianas; por otro, sistemas fronterizos premium para trabajos más exigentes y de alto riesgo. “Creo que el límite inferior está subiendo”, añade, y predice “modelos más asequibles, autoalojados y generales, cada vez más pequeños”. Sin embargo, cree que los usuarios seguirán recurriendo a los modelos OpenAI, Google y Anthropic para trabajos importantes y especializados.
Evitar la destilación por completo podría ser imposible, añade Longpre. Cree que es inevitable que, cada vez que se lanza un nuevo modelo, la competencia intente extraer y replicar sus mejores elementos. “Creo que, al fin y al cabo, es un problema inevitable”, afirma.
![[Imagen: PlayStation]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/19155650/1-3.jpg)
![[Foto: Marc Dufresne/Getty Images]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/19123404/p-1-91494234-how-emotional-intelligence-can-help-us-overcome-imposter-syndrome.webp)
![[Imagen: Freepik]](https://fc-bucket-100.s3.amazonaws.com/wp-content/uploads/2026/02/18102821/moda-sustentable-costo-Fast-Company-Mexico-Freepik.jpg)