Habilitación de la IA en cualquier lugar con Akamai Inference Cloud

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

escrito por

Adam Karon

Adam Karon es vicepresidente ejecutivo y director general de las divisiones de Medios y Operadores de Akamai. Como director general, Karon se encarga de las principales funciones de ingeniería y desarrollo de producto, gestión de producto, ventas, canales, ingeniería de ventas y marketing, centrándose en dos objetivos: primero, lograr que las empresas líderes en medios, videojuegos y software actuales ofrezcan las mejores experiencias posibles a escala a sus clientes, en cualquier dispositivo y en cualquier lugar; y segundo, permitir que los operadores puedan contar con redes rentables y de alto rendimiento.

Compartir

Toda revolución tecnológica comienza con un momento de centralización. En los primeros días, las fábricas se acurrucaron a lo largo de los ríos, atraídas por la irresistible atracción de la energía hídrica. Las redes eléctricas transformaron economías enteras, canalizando la energía a un puñado de centros industriales. La industria cinematográfica siguió un camino similar, canalizando enormes sumas de capital a los estudios de marquesina y sus redes de distribución estrictamente controladas. Incluso el contenido y la seguridad comenzaron de forma centralizada.

Sin embargo, en todos los casos, cada uno de estos sistemas finalmente cambió hacia la descentralización:

  • La generación local de energía suplantó el predominio de los monopolios regionales. 

  • Los servicios de streaming interrumpieron el modelo tradicional de teatro, llevando el entretenimiento directamente a nuestros hogares. 

  • La información y los medios de comunicación se acercaron al Edge, donde el público vive y trabaja, lo que hizo que las noticias y el entretenimiento fueran más accesibles e inmediatos. 

  • El contenido se acercó a los usuarios y la seguridad se trasladó a la nube para detener los ataques localmente antes de que pudieran agruparse con su objetivo.

El punto de inflexión de la IA actual

La IA ha alcanzado un punto de inflexión similar. No se puede ampliar haciendo más de lo mismo. Como sector, nos hemos fijado en crear modelos cada vez más grandes en centros de datos cada vez más grandes. Todos los titulares anuncian contratos de miles de millones de dólares, campus de centros de datos medidos en gigavatios y clústeres de GPU que batieron récords. Pero más grande no es mejor. Ya no.

La centralización se ha convertido en una limitación. Cada solicitud enviada a través de los continentes desperdicia ciclos preciosos, potencia y dinero. La latencia paraliza la experiencia del usuario en operaciones, pagos, juegos y conversaciones. Las redes eléctricas gemen bajo la presión. Las empresas gastan miles de millones en entrenar modelos, solo para descubrir que los costes de salida y los segundos de retraso los hacen poco prácticos a escala.

La explosión de inferencia del mañana

El aumento de agentes inteligentes, sistemas autónomos e IA física desencadenará una explosión de inferencia que eclipsa las solicitudes iniciadas por el ser humano por órdenes de magnitud. Todos los vehículos autónomos, robots y sistemas inteligentes se convertirán en un consumidor persistente de inferencia distribuida en el Edge, lo que complementa su informática local de la forma en que cada smartphone actual transmite vídeo que nunca podría almacenar localmente.

Sin embargo, la centralización no es la única limitación. Hoy en día, la IA se ve frenada por el temor de que no esté lista para el horario de máxima audiencia.

  • ¿Serán precisas las respuestas o el modelo alucinará?

  • ¿La experiencia será flexible o la latencia romperá el flujo?

  • ¿Funcionará la economía o las facturas de inferencia enterrarán el caso de negocio?

  • ¿Se ejecutará de forma fiable o fallará en la producción cuando más importa?

La IA está rompiendo el modelo de nube de décadas de antigüedad, ya que las empresas se enfrentan al aumento de los costes de inferencia y los problemas de latencia. Los centros de operaciones están retrocediendo, y los directores de informática están reequilibrando silenciosamente las cargas de trabajo, haciendo todo lo posible para acercarse a dónde están los datos y los usuarios. El cuello de botella no son GPU. Es la proximidad.

Es hora de despedirse de la complejidad.

AKAM) ha lanzado hoy Akamai Inference Cloud, una plataforma que redefine dónde y cómo se utiliza la IA al ampliar la inferencia desde los centros de datos principales hasta el Edge de Internet.

El lanzamiento de Akamai Inference Cloud aprovecha la experiencia de Akamai en arquitecturas distribuidas globalmente y la infraestructura de IA de NVIDIA Blackwell para replantearse y ampliar radicalmente la computación acelerada necesaria para aprovechar el verdadero potencial de la IA.

A diferencia de los sistemas tradicionales, esta plataforma está diseñada específicamente para proporcionar procesamiento de IA en el Edge de baja latencia y en tiempo real a escala global, al situar la infraestructura informática acelerada de NVIDIA más cerca del lugar donde se crean los datos y se deben tomar las decisiones.

Inteligencia que cierra la distancia

Durante décadas, la tecnología ha recompensado a las empresas que podrían crear centros de datos más grandes, gestionar conjuntos de datos masivos y reforzar su control sobre la informática y los datos. Esa era produjo un poder notable, pero también produjo una distancia entre los datos y las personas, y entre la innovación y el acceso.

Ahora, la ventaja pertenece a aquellos que pueden cerrar esa distancia. La inteligencia que opera más cerca de donde se necesita será más valiosa que cualquier cosa que se encerrará en un centro de datos distante.

Acerque el futuro con Akamai

La IA está redefiniendo la infraestructura de nube, cambiando el enfoque de la potencia a la proximidad, de megavatios a milisegundos. Y nadie está más posicionado para ayudar a los clientes a navegar ese cambio que Akamai. No estamos esperando a que llegue el futuro. Estamos acercando ese futuro.

Más información

Nuestro comunicado de prensa oficial anunció el lanzamiento de Akamai Inference Cloud, y esta entrada de blog del vicepresidente sénior de Productos de Akamai, Jon Alexander, ofrece un análisis más detallado del trabajo que hay detrás. Para obtener aún más información sobre Akamai Inference Cloud, visite nuestro sitio web.

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

escrito por

Adam Karon

Adam Karon es vicepresidente ejecutivo y director general de las divisiones de Medios y Operadores de Akamai. Como director general, Karon se encarga de las principales funciones de ingeniería y desarrollo de producto, gestión de producto, ventas, canales, ingeniería de ventas y marketing, centrándose en dos objetivos: primero, lograr que las empresas líderes en medios, videojuegos y software actuales ofrezcan las mejores experiencias posibles a escala a sus clientes, en cualquier dispositivo y en cualquier lugar; y segundo, permitir que los operadores puedan contar con redes rentables y de alto rendimiento.

Etiquetas

Compartir

Entradas de blog relacionadas

Nube
IA: Lo que necesita es el Edge
October 28, 2025
Descubre cómo Akamai Inference Cloud se basa en el trabajo de arquitectura distribuida que iniciamos hace casi 30 años para llevar la inferencia de IA al edge.
Nube
Cómo equilibran las empresas la innovación de IA con el riesgo
September 15, 2025
Un nuevo informe de Forrester, encargado por Akamai, revela cómo las empresas están persiguiendo la innovación en IA a gran escala sin exponerse a niveles inaceptables de riesgo.
Nube
Lo que revelan 400 ejecutivos sobre el futuro de la adopción de la IA
September 25, 2025
Conozca cómo un estudio de Forrester descubrió que la mayoría de las empresas ya utilizan la IA para diferenciarse de la competencia, para la personalización y para retener los clientes.