¿quién controla las máquinas que controlan la inteligencia? » Enrique Dans

Publicado por Emprendimiento en

IMAGE: A massive glowing AI supercomputer in a dark data center, with three silhouetted people standing before it

Contenido

El zumbido de la energía

Imagina un centro de datos al borde de una meseta desértica. En su interior, filas y filas de servidores brillan y vibran, circulando aire a través de enormes torres de refrigeración y consumiendo más electricidad que todas las ciudades circundantes juntas. Y no es ciencia-ficción: es la realidad de los enormes clusters de computación de inteligencia artificial, a menudo descritos como «supercomputadoras de inteligencia artificial» por su enorme escala, que entrenan los modelos más avanzados de la actualidad.

No, no son supercomputadoras en el sentido clásico. Las supercomputadoras tradicionalmente entedidas como tales son máquinas altamente especializadas, diseñadas para simulaciones científicas como la modelización climática, la física nuclear o la astrofísica, optimizadas para código paralelizado en millones de núcleos. Lo que impulsa la inteligencia artificial son enormes clústeres de GPUs o aceleradores personalizados (Nvidia H100, Google TPU, etc.) conectados mediante interconexiones de alto ancho de banda y optimizados para las multiplicaciones de matrices, la base del aprendizaje profundo. No resuelven ecuaciones para pronósticos meteorológicos: procesan billones de tokens para predecir la siguiente palabra.

Aun así, el término perdura, porque su rendimiento, demanda energética y costos son comparables, o incluso superiores, a los de las máquinas científicas más rápidas del mundo. Y las implicaciones son igual de profundas.

Un estudio reciente de quinientos sistemas de computación de inteligencia artificial en todo el mundo reveló que su rendimiento se duplica cada nueve meses, mientras que tanto el costo como los requisitos de energía se duplican cada año. A este ritmo, la frontera de la inteligencia artificial no se trata simplemente de mejores algoritmos o arquitecturas más inteligentes. Se trata de quién puede permitirse, alimentar y refrigerar estas gigantescas máquinas, y quién no.

El foso exponencial

Cuando el rendimiento se duplica cada nueve meses pero el coste se duplica cada doce, se crea un foso exponencial: cada avance empuja la siguiente frontera aún más lejos del alcance de casi todos los actores, salvo unos pocos.

Esta no es la típica historia de «modelos de código abierto vs. modelos de código cerrado»: es más fundamental. Si no se puede acceder al sustrato computacional (el hardware, la electricidad, la refrigeración y las fábricas necesarias para formar a la próxima generación), ni siquiera se está en la carrera. Ni las universidades, ni las pequeñas startups, ni siquiera los gobiernos pueden seguir el ritmo.

El estudio muestra una marcada concentración de capacidad: los clusters de inteligencia artificial más potentes se concentran en unas pocas corporaciones, lo que privatiza el acceso a la inteligencia artificial de vanguardia. Una vez que la computación se convierte en el cuello de botella, la mano invisible del mercado no genera diversidad. Produce monopolio.

Centralización vs. democratización

La retórica en torno a la inteligencia artificial suele enfatizar la democratización: herramientas disponibles para todos, pequeños actores empoderados y creatividad desatada. Pero en la práctica, el poder de moldear la trayectoria de la inteligencia artificial está recayendo en los propietarios de las enormes granjas de computación. Ellos deciden qué modelos son viables, qué experimentos se ejecutan y qué enfoques reciben miles de millones de tokens de entrenamiento.

No se trata solo de dinero, se trata de infraestructura como gobernanza. Cuando solo tres o cuatro empresas controlan los clusters de inteligencia artificial más grandes, controlan efectivamente los límites de lo posible. Si tu idea requiere entrenar un modelo de un billón de parámetros desde cero, y no perteneces a una de esas empresas, tu idea va a seguir siendo sólo eso: una idea.

Geopolítica de la computación

Los gobiernos están empezando a darse cuenta: en la 2025 Paris AI Action Summit, las naciones prometieron miles de millones para modernizar su infraestructura nacional de inteligencia artificial. Francia, Alemania y el Reino Unido están avanzando para ampliar su capacidad de computación soberana. Estados Unidos ha lanzado iniciativas a gran escala para acelerar la producción nacional de chips, y China, como siempre, juega a su manera, invirtiendo recursos en la construcción masiva de parques eólicos y solares para garantizar no solo chips, sino también la electricidad barata para alimentarlos.

Europa, como siempre, se encuentra en una situación complicada. Sus marcos regulatorios pueden ser más avanzados, pero su capacidad para implementar la inteligencia artificial a gran escala depende de si puede asegurar la energía y la computación en condiciones competitivas. Sin eso, la «soberanía de la inteligencia artificial» es más retórica que realidad.

Y, sin embargo, hay una ironía aún más oscura: incluso mientras los gobiernos compiten por afirmar su soberanía, los verdaderos ganadores de la carrera armamentística de la inteligencia artificial podrían ser las corporaciones, no las naciones. El control de la informática se está concentrando tan rápidamente en el sector privado que nos acercamos a un escenario descrito desde hace tiempo en la ciencia ficción: las corporaciones ejercen más poder que los Estados, no solo en los mercados, sino también en la configuración de la trayectoria misma del conocimiento humano. El equilibrio de autoridad entre gobiernos y empresas está cambiando, y esta vez no es ficción.

Consideraciones ambientales

También existe un coste físico. El entrenamiento de un modelo puntero puede requerir tanta electricidad como la que consume una pequeña ciudad en un año. Las torres de refrigeración demandan enormes volúmenes de agua, y si bien gran parte se devuelve al ciclo, la ubicación es importante: en regiones con escasez de agua, la presión puede ser significativa. La huella de carbono es igualmente desigual. Un modelo entrenado en redes eléctricas dominadas por carbón o gas produce órdenes de magnitud mayores de emisiones que uno entrenado en redes eléctricas alimentadas por energías renovables.

En este sentido, el debate sobre la sostenibilidad de la inteligencia artificial es en realidad un debate energético. Los modelos no son ecológicos ni contaminantes por sí mismos. Son tan ecológicos o contaminantes como los electrones que los alimentan.

Lo que la eficiencia no puede comprar

La eficiencia por sí sola no resolverá este problema. Cada generación de chips se vuelve más rápida, cada arquitectura más optimizada, pero la demanda agregada sigue creciendo más rápido que las ganancias. Cada watio ahorrado a nivel micro se consume en la expansión macro de la ambición. En todo caso, la eficiencia empeora la carrera armamentística, ya que reduce el coste por experimento y fomenta aún más experimentos.

El resultado es una espiral descendente: más computación, más potencia, más coste, más centralización.

Qué habría que pedir

Si queremos evitar un futuro en el que el destino de la inteligencia artificial lo determinen las juntas directivas de tres empresas y los ministerios de dos superpotencias, debemos tratar la computación como un asunto público. Esto significa exigir:

  • Transparencia sobre quién posee y opera los clústeres más grandes.
  • Auditabilidad del uso: qué modelos se están entrenando y con qué fines.
  • Infraestructura compartida, financiada con fondos públicos o a través de consorcios, para que investigadores y pequeñas empresas puedan experimentar sin pedir permiso a corporaciones multimillonarias.
  • Rendición de cuentas energética, que exige a los operadores que divulguen no solo el consumo agregado, sino también las fuentes, las emisiones y la huella hídrica en tiempo real.

El debate no debería limitarse a «qué modelo es más seguro» o «qué conjunto de datos es más justo». Debería extenderse también a quién controla las máquinas que hacen posibles los propios modelos como tales.

Las máquinas detrás de las máquinas

El siguiente punto de control en la inteligencia artificial no es el software: es el hardware. Los enormes clusters de computación que entrenan los modelos son ahora los verdaderos árbitros del progreso. Deciden qué es posible, qué es práctico y quién puede participar.

Si la historia nos enseña algo es que, cuando el poder se centraliza a esta escala, rara vez se rinden cuentas. Sin intervenciones deliberadas, corremos el riesgo de un ecosistema de inteligencia artificial donde la innovación se ve obstaculizada, la supervisión es opcional y los costes, desde financieros o ambientales hasta humanos, permanecen ocultos hasta que ya es demasiado tarde.

La carrera armamentística de las «supercomputadoras» de inteligencia artificial ya está en marcha, y hablan de barbaridades como llenar el mundo de mini-reactores nucleares. La única pregunta es si la sociedad elige observar pasivamente cómo se privatiza el futuro de la inteligencia, o si reconocemos que las máquinas detrás de las máquinas merecen el mismo escrutinio que los algoritmos que habilitan.


This article was previously published on Fast Company

Ver fuente

Categorías: Emprendimiento