En un movimiento que promete transformar la forma en que interactuamos con la inteligencia artificial, Akamai Technologies ha desplegado a escala global su plataforma AI Grid Intelligent Orchestration. Se trata de la primera implementación mundial del diseño de referencia NVIDIA® AI Grid, una arquitectura que distribuye y orquesta de manera inteligente las cargas de trabajo de inferencia de IA a través de su vasta red de más de 4.400 ubicaciones edge en todo el mundo.
La iniciativa, parte de la evolución de Akamai Inference Cloud presentada a finales de 2025, busca resolver uno de los cuellos de botella más críticos de la IA actual: la latencia. Según la compañía, el verdadero reto no es construir más centros de datos masivos y aislados, sino “distribuir la inferencia hasta el punto de contacto con el usuario”. Con esta filosofía, Akamai traslada al campo de la inteligencia artificial la misma arquitectura descentralizada que en su día revolucionó la entrega de contenido web y de video, marcando el paso de las “fábricas de IA” centralizadas hacia una red unificada y distribuida de utilidad pública.
La plataforma ya está generando resultados tangibles en sectores clave donde cada milisegundo cuenta. En la industria del gaming, por ejemplo, ha logrado mantener inferencias por debajo de los 50 milisegundos, un umbral crucial para la experiencia en tiempo real. Otros sectores que ya se benefician incluyen servicios financieros, medios, video y comercio minorista, donde la capacidad de procesar datos y tomar decisiones de IA cerca del usuario final redefine los límites de la interactividad y el personalización.
El corazón tecnológico de esta red distribuida está impulsado por miles de GPU NVIDIA RTX PRO 6000 Blackwell Server Edition, cuya implementación Akamai fue la primera en iniciar. Esta infraestructura permite a las empresas ejecutar modelos de IA complejos, incluyendo aquellos con agentes y simulaciones de física, combinando la capacidad de respuesta de la computación local con la escala masiva de la web global. “La infraestructura centralizada seguirá ofreciendo los mejores resultados para la formación de modelos”, aclara Adam Karon, director de operaciones de Akamai, “pero para la inferencia, llevar el poder de cómputo al edge es el salto que la industria necesita”.
La apuesta de Akamai por este nuevo paradigma no es solo teórica; cuenta con un respaldo comercial contundente. La compañía ha firmado un contrato por 200 millones de dólares a cuatro años con uno de los principales proveedores de tecnología a nivel global, un voto de confianza que valida el modelo de inferencia distribuida. Este acuerdo subraya la creciente demanda de soluciones de IA que no dependan de un puñado de centros de datos hiperconcentrados, sino que se integren de forma fluida y eficiente en la red global existente.
Para México y América Latina, el despliegue de una red de estas características tiene implicaciones profundas. La dependencia de servidores ubicados en otras regiones ha sido históricamente un lastre para la latencia. Una red edge global y bien orquestada como AI Grid tiene el potencial de acortar drásticamente esos tiempos de respuesta para los usuarios finales de la región, democratizando el acceso a aplicaciones de IA de alta gama en sectores como fintech, entretenimiento y comercio electrónico, sin necesidad de inversiones locales prohibitivas en infraestructura.
Con este lanzamiento, Akamai no solo está optimizando la ejecución de modelos de IA; está redefiniendo la topología misma de la nube inteligente. Al tejer una malla computacional de alcance planetario, la compañía posiciona el edge no como un complemento, sino como el eje central de la próxima generación de aplicaciones impulsadas por inteligencia artificial, donde la inmediatez y la distribución serán tan importantes como la potencia de cálculo.

