El auge de las supernubes descentralizadas: Un nuevo paradigma en la computación
Imagine por un instante que sobrevuela una ciudad de noche. Debajo de usted, miles de edificios brillan con luces de oficina. Pero en el interior de muchos de ellos, los ordenadores están apagados, sin usar, y a la espera. No es una metáfora, es una ineficiencia global.
El Uptime Institute estima que casi un tercio de los servidores de los centros de datos del mundo están infrautilizados o inactivos. McKinsey afirma que la mayoría de los centros de datos funcionan a solo el 40% de su capacidad. Y, sin embargo, las organizaciones que los poseen pagan el 100% del coste. Es como si el mundo construyera una superautopista de seis carriles para el tráfico digital y solo utilizara dos carriles.
Ahora añada la IA, la tecnología hambrienta de computación de nuestro tiempo. El entrenamiento de la IA consume una enorme cantidad de energía. Anhela chips, disipadores de calor, GPUs y terabytes de memoria. Y ha empezado a superar incluso a las nubes hiperescala más grandes. Existe una oportunidad obvia ahí que la gente está notando.
El nuevo mercado
Tome toda la potencia de cálculo inactiva del mundo, desde polvorientos armarios de servidores corporativos hasta GPUs olvidadas, y únalas en una única supernube global. No es propiedad de nadie. Con precios fijados por el mercado y regidos por contratos inteligentes en una cadena de bloques.
Estos mercados digitales descentralizados pretenden democratizar el acceso a los recursos informáticos de alto rendimiento, permitiendo a los usuarios alquilar la capacidad informática excedente a la mitad o menos del precio de los grandes proveedores de nube como AWS de Amazon, GCP de Google o Azure de Microsoft.
«Piense en ello como Airbnb, pero para la computación», dice Greg Osuri, CEO de Overclock Labs y cofundador de Akash Network, un mercado distribuido peer-to-peer para la computación en la nube.
Olga Yashkova, analista de International Data Corporation, afirma que, debido a la escasez de GPUs, muchas empresas almacenan los chips en previsión de una eventual necesidad, dejando una enorme cantidad de potencia de cálculo inactiva. Akash y redes similares permiten a las empresas monetizar este hardware inactivo, al tiempo que ofrecen a los usuarios una opción más barata.
Akash Network funciona así: las personas con recursos informáticos de sobra los ponen en la red. Aquellos que necesitan potencia, por ejemplo, para entrenar un modelo de aprendizaje automático o ejecutar un sitio web, presentan una solicitud. Los proveedores pujan. El postor más bajo gana. Todo es transparente, automatizado y público. No es exactamente un mercadillo, pero tampoco es un gran almacén. Es algo más antiguo. Un bazar. Un lugar donde los extraños intercambian confianza por utilidad.
Lo notable es que funciona. Las GPUs de Akash funcionan a una fracción del coste de AWS y se agotan en minutos. Nvidia, entre otros, utiliza la plataforma.
Pero lo que hace que esto sea convincente no es solo la ventaja de costes. Es lo que representa.
La física de la descentralización
Históricamente, las revoluciones en la computación han seguido un vaivén entre la centralización y la descentralización. El mainframe dio paso al ordenador personal. El PC dio paso a la nube. Y ahora, tal vez, la nube está retrocediendo.
InFlux Technologies, Spheron Network y Render Network ofrecen servicios similares. Distributive, una startup canadiense, divide las tareas informáticas en pequeños fragmentos y las distribuye entre dispositivos inactivos. CPUcoin te paga por alquilar tu procesador. Exabits utiliza GPUs de juegos infrautilizadas para simular el rendimiento de nivel empresarial. Lo que diferencia a Akash Network, según la analista Yashkova, es su enfoque en servir a las empresas en lugar de a los desarrolladores.
En cada uno de estos modelos, la suposición es que el poder, el poder de cálculo literal, no debería residir en unas pocas megaestructuras. Debería estar en todas partes. Ubicuo. Como el oxígeno o el asfalto.
Osuri es aficionado a la idea de la «IA soberana». Imagina un futuro en el que el vigilabebés de tu hijo no envíe imágenes a un lago de datos de AWS, sino que se ejecute en un clúster de chips seguro en tu garaje. La IA vive contigo, aprende tus rutinas, protege tu privacidad. «No confiarías tu terapeuta a Amazon», dice. «¿Por qué confiarías tu IA?».
Esto no es paranoia. Es arquitectura. Y como cualquier buena arquitectura, está basada en la física: latencia, ancho de banda, energía.
Porque aquí está la cosa, de la que a nadie le gusta hablar: la nube se está quedando sin energía.
Un cuello de botella que nadie puede codificar
La construcción de un centro de datos hiperescala requiere dos ingredientes: electricidad y agua. Mucha de ambas. Pero la red estadounidense está envejeciendo. Nuestras centrales nucleares están al máximo. Los operadores de centros de datos hiperescala se enfrentan a crecientes desafíos para asegurar suficiente energía para las nuevas instalaciones, con solicitudes de 60-90 MW o más que se están volviendo comunes y a veces difíciles de cumplir.
Por eso estas empresas están apostando por centros de datos más pequeños y distribuidos: módulos que pueden funcionar con energía solar, refrigerarse de forma eficiente y desplegarse más cerca de donde viven los datos.
Por qué esto importa
Lo que Osuri y su cohorte proponen no es meramente una solución técnica. Es una reimaginación de cómo fluye el valor a través del mundo digital. En su modelo, la computación no es un producto que se alquila a una corporación. Es una utilidad que se intercambia con los vecinos.
Es fácil pasar por alto la importancia de esto, porque el cambio está ocurriendo en procesos de fondo y protocolos backend. Pero como la mayoría de los cambios tecnológicos, comienza en lugares oscuros: startups de garaje, foros anónimos de Discord, solicitudes de extracción de GitHub. Y entonces, de repente, está en todas partes.
Hablamos mucho de la IA hoy en día. Pero tal vez la verdadera historia no sea la inteligencia. Es la infraestructura. Antes de que podamos construir máquinas más inteligentes, es posible que necesitemos construir una nube más inteligente.
Y tal vez, solo tal vez, la nube necesita volver a la tierra.
Insights de Evox News: Cómo la computación descentralizada puede impactar tu negocio
La emergencia de las supernubes descentralizadas, como las impulsadas por Akash Network, presenta una serie de implicaciones significativas para las empresas, abarcando desde la reducción de costos hasta la innovación y la ventaja competitiva.
Reducción de Costos Operativos: La capacidad de acceder a recursos de computación a una fracción del costo de los proveedores de nube tradicionales (AWS, Azure, GCP) puede liberar presupuestos significativos. Estos ahorros pueden ser reinvertidos en áreas críticas como I+D, marketing o expansión de la fuerza laboral.
Ventaja Competitiva a través de la Innovación: El acceso democratizado a la computación de alto rendimiento facilita la experimentación y el desarrollo de nuevos productos y servicios basados en IA y machine learning. Las empresas pueden innovar más rápidamente y con menos barreras de entrada, superando a competidores que dependen de infraestructuras de nube más costosas y centralizadas.
Flexibilidad y Escalabilidad: La naturaleza distribuida de estas plataformas permite una mayor flexibilidad y escalabilidad en la gestión de cargas de trabajo. Las empresas pueden ajustar dinámicamente sus recursos de computación según la demanda, optimizando el rendimiento y evitando el sobreaprovisionamiento.
Seguridad y Privacidad de Datos: La «IA soberana», donde el procesamiento de datos se realiza localmente en lugar de en servidores remotos, ofrece un mayor control sobre la privacidad y seguridad de la información. Esto es especialmente relevante para empresas que manejan datos sensibles o que operan en industrias reguladas.
Resiliencia y Continuidad del Negocio: Al distribuir la infraestructura de computación en múltiples ubicaciones, las empresas pueden reducir su vulnerabilidad a interrupciones del servicio causadas por fallos de hardware, desastres naturales o ataques cibernéticos.
Sostenibilidad: La utilización de recursos de computación inactivos puede contribuir a una mayor eficiencia energética y reducir la huella de carbono de las operaciones de TI. Esto puede ser un diferenciador importante para empresas que buscan mejorar su perfil de sostenibilidad y atraer a clientes y empleados conscientes del medio ambiente