Serie: Soberanía térmica (3/8)
Anterior: 2/8 — IA y energía: el nuevo cuello de botella
Dossier: Índice de la serie
Hay una escena que se repite en cualquier centro de datos moderno: el “pasillo frío” suena como si el edificio respirara. No es poesía: es un sistema térmico trabajando. Ventiladores, bombas, sensores, compuertas, chillers, intercambiadores; en algunos casos, líquido circulando directo al chip. No hay nada más anticlimático que esa realidad industrial… y, sin embargo, ahí está la clave: la IA no es solo una tecnología cognitiva; es una tecnología térmica. Si crece lo suficiente, su límite no es “la nube”: es el calor.
Durante décadas, el lenguaje digital se permitió una ilusión: hablar de información como algo casi etéreo. Bits flotando, “servicios” que aparecen y desaparecen, una economía que parece despegada del mundo físico. La serie Soberanía térmica parte negando esa comodidad. No por gusto, sino porque el siglo ya la negó por nosotros: la escala convirtió al cómputo en infraestructura, y a la infraestructura le vuelven las preguntas de siempre —capacidad, continuidad, territorio, conflicto.
Para entender por qué el calor aparece como frontera, basta con sostener tres ideas. No hacen falta fórmulas; hacen falta límites. Un trípode.
1) Landauer: borrar tiene costo (aunque sea mínimo)
La primera idea es sobria: la información es física. Si un sistema computa, manipula estados materiales. Y si borra información de manera irreversible (por ejemplo, “olvidar” un bit), existe un costo mínimo de energía que termina disipado como calor. Ese límite se asocia al nombre de Rolf Landauer.
Lo importante aquí no es el número exacto, sino la dirección del argumento: incluso si ese mínimo fuese pequeño, no es cero. Y cuando multiplicas operaciones por escalas industriales, el calor deja de ser un residuo: se vuelve una condición de posibilidad. En términos simples: el cómputo real no puede prometer “gratis” en el plano térmico.
Esta idea tiene un efecto intelectual útil: mata el mito de la desmaterialización total. Puedes miniaturizar, optimizar, comprimir, pero no puedes abolir el costo físico del cambio de estado.
2) Carnot: la eficiencia perfecta no existe
La segunda idea viene de un lugar todavía más viejo: la eficiencia perfecta es imposible. El límite de Carnot, en termodinámica, recuerda que cualquier proceso que involucre calor y trabajo paga un peaje. En un data center, ese peaje no es una ecuación abstracta: son pérdidas en conversión, distribución, regulación, UPS, transformadores, ventilación, bombeo, y en el gran villano silencioso: el enfriamiento.
Aquí aparece una inversión moral interesante: en el imaginario popular, “gastar” energía suena a vicio. En la infraestructura, gastar a veces es el precio de la continuidad. La pregunta relevante no es “¿cómo eliminamos el gasto?”, sino “¿cómo reducimos pérdidas sin romper estabilidad?”. La eficiencia es una lucha real, pero jamás termina en victoria total.
Por eso el debate público se equivoca cuando cree que la innovación algorítmica por sí sola “resolverá” el problema energético. Resolver en sentido fuerte sería alcanzar una eficiencia que cancela el crecimiento. Carnot te dice: no habrá milagros. Habrá mejoras, sí, pero dentro de un marco de límites.
3) Radiación: en el vacío no hay convección (el espacio no es una salida fácil)
La tercera idea entra justo donde el debate se vuelve futurista: si el calor es el problema, ¿por qué no “sacar” los centros de datos a un lugar frío, como el espacio?
La intuición falla por una razón simple: frío no significa “fácil de enfriar”. En la Tierra, una parte importante del rechazo de calor ocurre por convección: aire en movimiento, agua, torres, intercambio con el entorno. En el vacío, esa vía desaparece. Lo que queda, en esencia, es radiación. Y la radiación no es un botón: exige superficie, arquitectura, materiales, orientación, degradación por radiación, mantenimiento, masa.
Traducido: un data center orbital tendería a parecerse menos a “un conjunto de servidores” y más a un sistema de radiadores con cómputo adherido. El peso conceptual se desplaza: del chip al disipador. La nube deja de ser metáfora y se convierte, literalmente, en termodinámica aplicada.
Esto no significa que el espacio sea imposible. Significa que el “afuera” no elimina el problema: lo transforma en otro más exigente, con costos, riesgos y límites propios.
4) Soberanía térmica: cuando el límite físico se vuelve pregunta política
Estas tres ideas tienen una consecuencia común: si el cómputo se vuelve masivo, el calor se vuelve institución. Empiezas a necesitar permisos, infraestructura hídrica o soluciones de recirculación, contratos eléctricos más rígidos, acuerdos con redes, redundancias, y finalmente legitimidad social. La termodinámica deja de ser un asunto “de ingenieros” y se vuelve distribución de cargas, prioridades y riesgos.
En ese punto, la discusión sobre IA cambia de naturaleza. Ya no se trata solo de “qué puede hacer el modelo”, sino de qué exige el modelo para existir en continuidad. Y lo que exige —capacidad firme, disipación, red, agua— compite con otras necesidades colectivas. Eso es soberanía térmica: el lugar donde la física se encuentra con el conflicto social.
5) Una regla práctica para leer el presente
Si quieres una regla simple para orientarte en los próximos años, es esta:
Cada vez que escuches una promesa de IA, pregúntate por su disipador.
¿Dónde está el calor? ¿Quién lo absorbe? ¿Qué infraestructura lo vuelve tolerable? ¿Qué permisos lo vuelven posible? ¿Qué territorio lo paga?
Esa pregunta no “rebaja” la IA. La aterriza. Y cuando algo se aterriza, empieza la política real.
Puente
En el próximo episodio: por qué durante décadas el progreso se sostuvo en miniaturización y eficiencia (Moore, Dennard, Koomey)… y por qué hoy esa pendiente se encarece: el rebote, la escala y la infraestructura vuelven el cálculo un asunto histórico, no solo técnico.
Índice de la serie: Soberanía térmica — Índice
Anterior (2/8): IA y energía: el nuevo cuello de botella
Siguiente (4/8): De Moore a Koomey: la pendiente que se encarece