
La infraestructura de la IA empieza a salir del gran centro de datos: ahora mira a las casas y también al espacio.
La inteligencia artificial se vendió durante años como algo etéreo. Una nube. Una respuesta instantánea. Un asistente que aparece en una pantalla y parece no ocupar espacio.
Pero la nube nunca fue una nube. Siempre fue una red de servidores, chips, cables, refrigeración, permisos, consumo eléctrico y edificios enormes levantados en algún lugar que casi nunca vemos.
La próxima gran batalla de la IA no está solo en ChatGPT, Gemini o Claude. Está en algo mucho menos glamuroso: dónde metemos todos los servidores que hacen falta para que esa IA funcione.
En los últimos días han coincidido dos noticias que, juntas, cuentan bastante bien hacia dónde va esta historia. Por un lado, Nvidia, PulteGroup y Span prueban pequeños centros de datos instalados junto a viviendas. Por otro, Google y SpaceX estarían hablando para lanzar centros de datos orbitales dentro del proyecto Suncatcher.
La lectura fácil sería decir que todo esto suena distópico. Servidores junto a casas. Centros de datos en el espacio. La IA colonizando cada rincón. Pero quizá la lectura interesante es otra: la infraestructura de la IA se está volviendo tan grande que empieza a buscar modelos más parecidos a los de la energía.
La IA como una nueva red distribuida
La primera parte llega de la mano de CNBC, que ha contado cómo Nvidia y PulteGroup están apoyando a Span en una prueba para instalar pequeños centros de datos XFRA en viviendas o cerca de ellas.
La idea es convertir casas y pequeños edificios en nodos distribuidos de computación. No hablamos de un router vitaminado ni de un servidor doméstico para guardar fotos. Hablamos de unidades pensadas para aportar cálculo a una red más grande, aprovechando infraestructura eléctrica ya existente y, en teoría, generando ingresos para los propietarios.
Visto así, la comparación más lógica no es con un ordenador doméstico, sino con las placas solares o con ciertos elementos de la red eléctrica. Una casa puede producir energía, consumir una parte y volcar el excedente al sistema. Con estos centros de datos podría ocurrir algo parecido: una instalación que beneficia al propietario, que ayuda al conjunto de la red y que convierte la vivienda en una pequeña pieza de una infraestructura mayor.
Además, hay un punto que no conviene pasar por alto: los servidores generan calor. Y ese calor no tiene por qué desperdiciarse. En algunos centros de datos ya se explora cómo aprovecharlo para calefacción o agua caliente. Si un mini centro de datos doméstico pudiera ayudar a calentar agua, alimentar parte de la calefacción o reducir otros consumos del hogar, la idea deja de ser simplemente rara y empieza a tener una lógica bastante práctica.
Span presume de que podría desplegar 8.000 unidades XFRA unas seis veces más rápido y a una quinta parte del coste de construir un centro de datos centralizado equivalente de 100 MW, según recoge CNBC y han replicado medios como Network World.
La cifra es llamativa, pero el fondo es otro: la infraestructura digital empieza a salir del gran centro de datos y a acercarse físicamente a la vida cotidiana.
Y eso no tiene por qué ser malo. Puede ser una forma de distribuir mejor la carga, aprovechar infraestructura existente y evitar que toda la IA dependa de macrocentros de datos gigantescos. El matiz está en las condiciones: ruido, calor, mantenimiento, seguridad, seguros, compensación económica, regulación y control. Como con las placas solares, la pregunta no es solo si la instalación tiene sentido técnico, sino quién gana, quién asume el riesgo y qué papel tiene el usuario dentro del sistema.
Esta idea conecta con otra conversación que ya está entrando en el hogar: la casa deja de ser solo un espacio con dispositivos conectados y empieza a convertirse en una infraestructura más inteligente, como ya vimos al hablar de Alexa+, Gemini y la nueva casa inteligente.
Google mira al espacio
La segunda noticia parece todavía más exagerada. Según Reuters, Google está en conversaciones con SpaceX y otros socios para explorar centros de datos orbitales dentro de Project Suncatcher.
Aquí ya no hablamos de servidores en una urbanización. Hablamos de satélites alimentados por energía solar, equipados con TPUs de Google y conectados entre sí mediante enlaces ópticos. En su blog de investigación, Google explica que Suncatcher estudia constelaciones de satélites para escalar cargas de trabajo de machine learning en órbita.
La empresa plantea una misión de aprendizaje junto a Planet para lanzar dos satélites prototipo a principios de 2027. No sería una nube espacial comercial, sino una prueba para validar hardware, enlaces ópticos y comportamiento en órbita.
A primera vista suena a ciencia ficción. Pero el razonamiento económico y energético se entiende bastante bien. Los grandes centros de datos cuestan fortunas en suelo, construcción, conexión eléctrica, refrigeración, permisos y mantenimiento. En el espacio, al menos sobre el papel, hay ventajas tentadoras: exposición solar casi constante, menos presión sobre redes eléctricas terrestres y la posibilidad de sacar parte de esa demanda energética fuera del planeta.
La Agencia Internacional de la Energía calcula que el consumo eléctrico global de los centros de datos podría duplicarse hasta alcanzar unos 945 TWh en 2030, cerca del 3% de la electricidad mundial. Con una demanda así, cualquier idea que reduzca presión sobre la red terrestre va a empezar a parecer menos absurda.
La parte delicada es que el espacio tampoco es gratis ni mágico. Hay costes de lanzamiento, radiación, comunicaciones, basura espacial, latencia, reparaciones imposibles y una ingeniería térmica que no se resuelve solo diciendo “hace frío en el espacio”. Pero el impulso de fondo se entiende: si la IA necesita cada vez más energía y más superficie, el espacio empieza a verse como una salida posible.
En Hefestec ya habíamos tratado esta idea desde otro ángulo al hablar de la apuesta orbital de Musk y el cloud fuera de la Tierra. La diferencia es que ahora el debate empieza a aterrizar en algo más concreto: no solo poner conectividad o satélites en órbita, sino llevar allí una parte de la computación que sostiene la inteligencia artificial.
La zona gris: entrenar en órbita
Hay otra lectura menos visible y bastante más incómoda. Si una empresa consigue llevar centros de datos al espacio, no solo está buscando energía solar barata o menos presión sobre el suelo terrestre. También está moviendo parte de la infraestructura a un entorno regulatorio mucho más complejo.
Aquí conviene afinar: el espacio no es un lugar sin ley. El Tratado del Espacio Exterior establece que el Estado que registra un objeto espacial mantiene jurisdicción y control sobre él. Es decir, un satélite no queda automáticamente fuera de toda norma solo por estar en órbita.
Pero una cosa es que exista jurisdicción formal y otra muy distinta es que la regulación sea tan clara, inmediata y exigente como en un centro de datos situado en territorio nacional. Un centro de datos orbital abre preguntas difíciles: qué datos se procesan allí, qué modelos se entrenan, qué controles se aplican, quién audita esa actividad, qué país responde y cómo se supervisa algo que físicamente no está en una ciudad, ni en una nave industrial, ni conectado a una red eléctrica local.
Ahí está la parte realmente interesante. No tanto en imaginar empresas haciendo “lo que quieran” sin ninguna regla, porque eso sería demasiado simplista, sino en entender que la IA orbital podría crear una nueva frontera regulatoria. El producto final tendrá que cumplir las normas del mercado donde se venda, pero el entrenamiento, la computación y parte de la infraestructura podrían quedar en una zona mucho más difícil de vigilar.
Y si algo hemos aprendido con la tecnología es que las zonas grises suelen convertirse muy rápido en ventaja competitiva.
La IA entra en su fase industrial
Durante buena parte del boom de la IA hemos hablado de modelos, parámetros, asistentes, agentes y demos espectaculares. Tiene sentido. Es lo visible. Es lo que usamos.
Pero por debajo hay una realidad menos brillante: cada salto de la IA exige más computación, más energía, más refrigeración y más infraestructura. No basta con que los chips sean más eficientes si la demanda crece todavía más rápido.
Por eso empiezan a aparecer soluciones que hace unos años habrían sonado absurdas: acuerdos energéticos gigantes, reactores nucleares para centros de datos, campus de servidores del tamaño de pequeñas ciudades, cajas de computación junto a viviendas y satélites con chips de IA.
La IA se presenta como una tecnología invisible, integrada y ligera. Pero su infraestructura se está volviendo cada vez más física, energética y territorial.
No vivimos rodeados de “nube”. Vivimos rodeados de máquinas que necesitan electricidad, disipar calor y ocupar algún lugar.
Este cambio también ayuda a entender por qué la IA está haciendo que el software vuelva a ser caro. No es solo una cuestión de suscripciones más altas o funciones premium. Es que detrás de cada respuesta, cada imagen y cada agente hay coste de cómputo real.
La gran pregunta: dónde va a vivir todo esto
Los mini centros de datos junto a viviendas y los satélites de Google no son la misma solución, pero responden a la misma ansiedad: la IA quiere crecer más rápido de lo que la infraestructura tradicional puede absorber.
La primera idea puede parecerse a las placas solares: una infraestructura distribuida que, bien planteada, puede beneficiar al usuario y al sistema. La segunda puede parecer una salida futurista, pero también responde a problemas muy actuales: suelo, energía, refrigeración, costes y regulación.
La cuestión no es si todo esto es bueno o malo por defecto. Es más interesante que eso. La cuestión es bajo qué reglas se despliega, quién controla la infraestructura, cómo se reparten los beneficios y qué ocurre cuando la computación que sostiene la IA empieza a vivir en nuestras casas, sobre nuestras ciudades o directamente en órbita.
La próxima revolución de la inteligencia artificial quizá no tenga forma de chatbot. Quizá tenga forma de caja instalada junto a una vivienda, de centro de datos peleando por una conexión eléctrica o de satélite cargado de chips dando vueltas sobre nuestras cabezas.
La nube vuelve a tener cuerpo. Y ese cuerpo necesita un sitio donde vivir.