
Imagina un centro de datos al borde de una meseta desértica. En su interior, filas y filas de servidores brillan y vibran, circulando aire a través de enormes torres de refrigeración y consumiendo más electricidad que las ciudades que la rodean juntas. Esto no es ciencia ficción. Es la realidad de los enormes clústeres de computación de inteligencia artificial (IA), a menudo descritos como “supercomputadoras de IA” por su enorme escala, que entrenan los modelos más avanzados de la actualidad.
En sentido estricto, no se trata de supercomputadoras en el sentido clásico. Las supercomputadoras tradicionales son máquinas altamente especializadas, diseñadas para simulaciones científicas como la modelización climática, la física nuclear o la astrofísica, optimizadas para código paralelizado en millones de núcleos. En cambio, lo que impulsa la IA son enormes clústeres de GPU o aceleradores personalizados (Nvidia H100, Google TPU, etc.) conectados mediante interconexiones de alto ancho de banda, optimizados para las multiplicaciones de matrices, la base del aprendizaje profundo. No resuelven ecuaciones para pronósticos meteorológicos: procesan billones de tokens para predecir la siguiente palabra.
Aun así, el apodo perdura, porque su rendimiento, demanda energética y costos son comparables, o incluso superiores, a los de las máquinas científicas más rápidas del mundo. Y las implicaciones son igual de profundas.
Un estudio reciente de 500 sistemas informáticos de IA en todo el mundo reveló que su rendimiento se duplica cada nueve meses, mientras que tanto el coste como los requisitos de energía se duplican cada año. A este ritmo, la frontera de la inteligencia artificial no se limita a mejores algoritmos o arquitecturas más inteligentes. Se trata de quién puede permitirse, alimentar y refrigerar estas gigantescas máquinas, y quién no.
El foso exponencial de la IA
Cuando el rendimiento se duplica cada nueve meses pero el costo se duplica cada 12, se crea un foso exponencial: cada salto hacia adelante empuja la siguiente frontera más allá del alcance de todos, salvo un puñado de jugadores.
Esta no es la típica historia de “modelos de código abierto vs. modelos de código cerrado”: es más fundamental. Si no se puede acceder al sustrato computacional —el hardware, la electricidad, la refrigeración y las fábricas necesarias para entrenar a la próxima generación—, ni siquiera se está en la carrera. Las universidades no pueden seguir el ritmo. Las pequeñas startups no pueden seguir el ritmo. Incluso muchos gobiernos no pueden seguir el ritmo.
El estudio muestra una marcada concentración de capacidades: los clústeres de IA más potentes se concentran en unas pocas corporaciones, lo que privatiza el acceso a la inteligencia artificial de vanguardia. Una vez que la computación se convierte en el cuello de botella, la mano invisible del mercado no genera diversidad, sino monopolio.
Centralización vs. democratización
La retórica en torno a la IA suele enfatizar la democratización: herramientas disponibles para todos, pequeños actores empoderados, creatividad desatada. Pero en la práctica, el poder de moldear la trayectoria de la IA está recayendo en los propietarios de enormes granjas de computación. Ellos deciden qué modelos son viables, qué experimentos se ejecutan y qué enfoques reciben miles de millones de tokens de entrenamiento.
No se trata solo de dinero. Se trata de infraestructura como gobernanza. Cuando solo tres o cuatro empresas controlan los clústeres de IA más grandes, controlan eficazmente los límites de lo posible. Si tu idea requiere entrenar un modelo de un billón de parámetros desde cero, y no perteneces a una de esas empresas, tu idea sigue siendo solo eso: una idea.
Geopolítica de la computación
Los gobiernos están empezando a notarlo. En la Cumbre de Acción sobre IA de París de 2025, las naciones prometieron miles de millones para modernizar su infraestructura nacional de IA. Francia, Alemania y el Reino Unido están avanzando para ampliar su capacidad de computación soberana. Estados Unidos ha lanzado iniciativas a gran escala para acelerar la producción nacional de chips, y China, como siempre, juega a su manera, invirtiendo recursos en la construcción masiva de parques eólicos y solares para garantizar no solo chips, sino también electricidad barata para alimentarlos.
Europa, como de costumbre, se encuentra en un punto intermedio. Puede que sus marcos regulatorios sean más avanzados, pero su capacidad para implementar la IA a gran escala depende de si puede asegurar la energía y la computación en condiciones competitivas. Sin eso, la “soberanía de la IA” es retórica, no realidad.
Y, sin embargo, hay una ironía aún más oscura aquí. Incluso mientras los gobiernos se apresuran a afirmar su soberanía, los verdaderos ganadores de la carrera armamentística de la IA podrían ser las corporaciones, no las naciones. El control de la computación se está concentrando tan rápidamente en el sector privado que nos acercamos a un escenario descrito desde hace tiempo en la ciencia ficción: las corporaciones ejercen más poder que los estados, no solo en los mercados, sino también en la configuración de la trayectoria misma del conocimiento humano. El equilibrio de autoridad entre gobiernos y empresas está cambiando, y esta vez, no es ficción.
Ajuste de cuentas ambiental
También existe un costo físico. El entrenamiento de un modelo de frontera puede requerir tanta electricidad como la que consume una ciudad pequeña en un año. Las torres de refrigeración demandan enormes volúmenes de agua, y si bien gran parte se devuelve al ciclo, la ubicación es importante: en regiones con escasez de agua, la presión puede ser significativa. La huella de carbono es igualmente desigual. Un modelo entrenado en redes eléctricas dominadas por carbón o gas produce órdenes de magnitud mayores de emisiones que uno entrenado en redes eléctricas alimentadas por energías renovables.
En este sentido, el debate sobre la sostenibilidad de la IA es en realidad un debate energético. Los modelos no son ecológicos ni contaminantes por sí mismos. Son tan ecológicos o contaminantes como los electrones que los alimentan.
Lo que la eficiencia de la IA no puede comprar
La eficiencia por sí sola no resolverá este problema. Cada generación de chips se vuelve más rápida, cada arquitectura más optimizada, pero la demanda agregada sigue aumentando más rápido que las ganancias. Cada vatio ahorrado a nivel micro se consume en la expansión macro de la ambición. En todo caso, la eficiencia empeora la carrera armamentística, ya que reduce el coste por experimento y fomenta aún más experimentos.
El resultado es una espiral descendente: más computación, más potencia, más costos, más centralización.
Qué exigir
Si queremos evitar un futuro en el que el destino de la IA lo definan las juntas directivas de tres empresas y los ministerios de dos superpotencias, debemos tratar la informática como un asunto público. Esto implica exigir:
- Transparencia: sobre quién posee y opera los clústeres más grandes.
- Auditabilidad de uso: qué modelos se están entrenando y para qué fines.
- Infraestructura compartida: financiada públicamente o a través de consorcios, para que los investigadores y las empresas más pequeñas puedan experimentar sin pedir permiso a corporaciones de billones de dólares.
- Responsabilidad energética: que exige a los operadores revelar no sólo el consumo agregado sino también las fuentes, las emisiones y la huella hídrica en tiempo real.
El debate no debería limitarse a “qué modelo es más seguro” o “qué conjunto de datos es justo”. Debería extenderse a quién controla las máquinas que hacen posibles los modelos en primer lugar.
Las máquinas detrás de las máquinas de IA
El siguiente punto de control en la IA no es el software, sino el hardware. Los enormes clústeres de cómputo que entrenan los modelos son ahora los verdaderos árbitros del progreso. Deciden qué es posible, qué es práctico y quién participa.
Si la historia nos enseña algo, es que cuando el poder se centraliza a esta escala, rara vez se rinde cuentas. Sin intervenciones deliberadas, corremos el riesgo de un ecosistema de IA donde la innovación se ve obstaculizada, la supervisión es opcional y los costos, desde financieros o ambientales hasta humanos, quedan ocultos hasta que es demasiado tarde.
La carrera armamentística de las “supercomputadoras” de IA ya está en marcha. La única pregunta es si la sociedad elige observar pasivamente cómo se privatiza el futuro de la inteligencia artificial, o si reconocemos que las máquinas detrás de las máquinas merecen el mismo escrutinio que los algoritmos que habilitan.