Resumen ejecutivo
Akamai Inference Cloud es una plataforma en la nube de pila completa que permite a las organizaciones crear, proteger y optimizar aplicaciones impulsadas por IA en el edge.
La plataforma está diseñada para soportar sistemas agentivos que se adaptan a los usuarios, se comunican con otros agentes y actúan en tiempo real.
Las características clave incluyen GPUs NVIDIA Blackwell, Kubernetes gestionado, bases de datos vectoriales y seguridad consciente de IA.
La plataforma capacita a tres tipos específicos de usuarios: ingenieros de operaciones de machine learning, ingenieros de IA y arquitectos de sistemas agentivos.
Akamai Inference Cloud proporciona una base confiable, segura y escalable para implementar sistemas avanzados de IA en cualquier lugar.”
En 2017, un artículo de investigación cambió silenciosamente el rumbo de la tecnología. Attention Is All You Need presentó la arquitectura Transformer, un nuevo tipo de modelo para procesar lenguaje y datos que pronto respaldaría casi todos los avances importantes en inteligencia artificial (IA). En ese momento, el avance estaba mayormente limitado a círculos académicos y de desarrolladores.
Cinco años después, en noviembre de 2022, OpenAI lanzó ChatGPT. Por primera vez, el público en general pudo interactuar de manera directa con un sistema construido sobre lo que esta arquitectura hacía posible. Fue un vistazo a un nuevo tipo de interfaz — no solo con máquinas, sino con el conocimiento mismo.
Ahora, apenas tres años después de ese lanzamiento, OpenAI informa de más de 700 millones de usuarios activos semanales.
El Foro Económico Mundial ha señalado: La IA está introduciendo una doble disrupción en la fuerza laboral. Por un lado, la automatización está generando exceso de capacidad en los roles establecidos. Por otro lado, la demanda de competencias en IA está creciendo más rápido de lo que los sistemas educativos y de contratación pueden adaptarse. Los modelos tradicionales de trabajo —y la forma en que preparamos a las personas para desempeñarlos— están evolucionando rápidamente.
Este es el fin del comienzo.
Mirar hacia atrás para avanzar
Hace 27 años, el mundo se encontraba en un punto de inflexión similar. Internet se estaba expandiendo rápidamente, y las cuestiones de escala, confiabilidad y seguridad aún no se habían resuelto. En ese contexto, un grupo de investigadores del MIT fundó Akamai con una misión clara: resolver la "World Wide Wait".
Lo lograron acercando la computación, el almacenamiento y la red a los puntos de creación y consumo, en un modelo que desde entonces ha sido frecuentemente imitado.
El auge de la web agentiva nos ha traído de vuelta al punto de partida, reintroduciendo nuevos desafíos de escala y proximidad, únicos de la IA y de la inferencia necesaria para realizar su potencial.
Akamai Inference Cloud, que anunciamos hoy, se basa en el trabajo de arquitectura distribuida que iniciamos hace casi tres décadas para expandir la inferencia de IA desde los centros de datos centrales hasta el edge y, una vez más, eliminar los cuellos de botella y superar los límites de la infraestructura centralizada.
La web agentiva
Esta nueva generación de sistemas inteligentes ya no espera comandos o instrucciones humanas; observan, razonan y actúan en nombre de los usuarios que expresan su intención en lenguaje natural. Estos sistemas toman la iniciativa, se coordinan con otros sistemas y entregan resultados sin necesidad de instrucciones paso a paso. Esta es la web agentiva.
La web agentiva está cambiando la forma en que las personas y las máquinas interactúan con los servicios digitales. Las experiencias se están volviendo conversacionales, multimodales y personalizadas. Las interfaces se adaptan a la intención del usuario, no al revés. Una persona podría solicitar una recomendación y recibirla como un resumen narrado, una comparación visual o un desglose escrito, según sus preferencias, contexto y dispositivo. El sistema selecciona el formato y el tono que mejor se adaptan.
Las interacciones impulsadas por agentes requieren nuevas formas de apoyarlas
A medida que estas interacciones impulsadas por agentes se generalizan, las empresas necesitan nuevas formas de apoyarlas. La inferencia debe acercarse a los usuarios. Los tiempos de respuesta deben ser predecibles y bajos. Las herramientas y la memoria deben estar disponibles en tiempo real. Toda la pila debe soportar agentes que trabajen en nombre de los usuarios y los sistemas, y no solo manejar solicitudes puntuales.
Este cambio ya está en marcha, pero las plataformas en la nube centralizadas de hoy no fueron diseñadas para soportarlo. Las empresas se ven obligadas a elegir entre infraestructura pura o soluciones limitadas. Lo que falta es una plataforma diseñada específicamente para la IA agentiva, que reduzca la complejidad, acelere el desarrollo y ofrezca un comportamiento inteligente a escala global.
Akamai Inference Cloud hace posible el futuro
Akamai Inference Cloud hace posible el futuro. Su enfoque de la nube y la IA se centra en las necesidades de los sistemas y las aplicaciones agénticas que se adaptan a los usuarios, se comunican con otros agentes y actúan en tiempo real.
Su arquitectura distribuida única está diseñada específicamente para soportar estos patrones, proporcionando la computación, el almacenamiento y la orquestación de alto rendimiento necesarios para cargas de trabajo de inferencia complejas, y llevando el enrutamiento, el control y la capacidad de respuesta más cerca del usuario.
Nuestros clientes enfrentan cuatro misiones críticas:
Impulsa la aplicación habilitada con IA
Gestiona la IA como un nuevo canal de tráfico
Asignar agentes de IA para cargas de trabajo empresariales
Facilitar un uso responsable de la IA por parte de los empleados
Impulsa la aplicación habilitada con IA
Cada empresa incorporará inteligencia en sus aplicaciones. Esto representa la siguiente etapa de la arquitectura de aplicaciones: del diseño responsivo al multicloud y, ahora, a sistemas en tiempo real integrados con IA. Akamai sigue siendo la columna vertebral de confianza que permite y protege cada evolución.
Gestiona la IA como un nuevo canal de tráfico
Los usuarios llegan a las marcas a través de plataformas de IA como antes lo hacían a través de búsquedas, redes sociales o dispositivos móviles. Cada marca, aplicación y API necesitará definir sus interacciones de IA deseadas frente a las no deseadas y gestionar ese tráfico de manera inteligente para convertir el tráfico de IA de un riesgo en una oportunidad.
Asignar agentes de IA para cargas de trabajo empresariales
Nuestros clientes están utilizando agentes de IA para operar partes de su negocio, desde la gestión de infraestructura hasta el análisis de datos. Los agentes necesitan acceso a recursos de primer nivel asociados con sistemas internos y externos, pero con salvaguardas adecuadas — confianza, identidad, observabilidad y seguridad — para que las empresas puedan escalar sus entornos operados por IA con confianza y eficiencia.
Facilitar un uso responsable de la IA por parte de los empleados
Los empleados de todas las empresas están utilizando servicios de IA — Copilot, Cursor, ChatGPT, Claude y otros. Las empresas deben gestionar el uso responsable, los costos y la protección de datos de este consumo.
Akamai Inference Cloud es cómo escala la inferencia.
¿Qué es Akamai Inference Cloud?
Akamai Inference Cloud es una plataforma en la nube de pila completa diseñada para crear, proteger y optimizar la próxima generación de aplicaciones inteligentes potenciadas por IA. Ofrece capacidades de computación, almacenamiento, redes, orquestación, seguridad y herramientas para desarrolladores alineadas con los requisitos únicos de la inferencia en tiempo real, los sistemas agentivos y la inteligencia que reside más cerca del usuario (Tabla).
Crear |
Proteger |
Optimizar |
|
|---|---|---|---|
Los problemas |
|
|
|
Las soluciones |
Infraestructura inteligente distribuida con una plataforma para desarrolladores |
Gestión de bots con conciencia de IA y seguridad de APIs (protecciones de aplicaciones, APIs e IA, trabajando en conjunto con la gestión de bots con conciencia de IA) |
Malla de conectividad de IA para humanos y agentes |
Los productos |
|
|
|
Akamai Inference Cloud es una plataforma en la nube de pila completa diseñada para crear, proteger y optimizar la próxima generación de aplicaciones inteligentes potenciadas por IA.
Para quién estamos construyendo
Akamai Inference Cloud es una plataforma modular que se adapta a las necesidades de los clientes. Ya sea que estés consumiendo endpoints de API alojados por OpenAI y Gemini en tus aplicaciones o construyendo un flujo de trabajo agentivo alrededor de tus propios modelos afinados y depurados, Akamai Inference Cloud te permite crear, proteger y optimizar en el edge.
Específicamente, estamos empoderando a tres tipos de usuarios:
Ingenieros de operaciones de aprendizaje automático (MLOps): Ingenieros que automatizan todo el ciclo de vida del aprendizaje automático para garantizar que los modelos se vuelvan a entrenar, desplegar y supervisar continuamente para evaluar su rendimiento en producción.
Ingenieros de IA: Científicos de datos o ingenieros de software que desarrollan aplicaciones autónomas de extremo a extremo, a menudo utilizando modelos preentrenados, y que conectan la investigación en ciencia de datos con el software en producción
Arquitectos de sistemas autónomos: Un arquitecto que ha evolucionado desde el sistema tradicional: diseña, construye y gestiona sistemas autónomos complejos que pueden razonar, planificar, actuar y adaptarse de manera independiente para alcanzar objetivos empresariales de alto nivel
Con Akamai Inference Cloud, no estamos limitando a los usuarios a un paradigma o solución específica, sino que ofrecemos a los clientes la flexibilidad de alquilar infraestructura, desarrollar en una plataforma sin servidor y combinar de manera fluida sistemas complejos según sus preferencias.
Acercando la pila de IA de NVIDIA a donde se toman las decisiones
El 28 de octubre de 2025, anunciamos Akamai Inference Cloud y nuestro objetivo de llevar la inferencia de IA inteligente y autónoma al borde, donde se requieren experiencias personalizadas, decisiones en tiempo real y agentes inteligentes.
Ahora, los clientes tienen acceso a la última generación de GPUs NVIDIA Blackwell, combinadas con la conectividad NVIDIA BlueField; memoria escalonada entre GDDR7, DRAM y NVMe; almacenamiento escalable y de alto rendimiento para bloques y objetos; bases de datos vectoriales gestionadas; y redes de nube privada virtual.
Un ingeniero de MLOps puede alquilar una sola GPU por hora o construir un clúster de inferencia de alto rendimiento con hasta 8 GPUs NVIDIA RTX PRO™ 6000 Blackwell Server Edition, DPUs NVIDIA BlueField‑3Ⓡ, 128 vCPU, 1,472 GB de DRAM y 8,192 GB de NVMe (Figura 1).
Las GPUs NVIDIA Blackwell ofrecen un rendimiento extraordinario. Akamai Inference Cloud está optimizado para el tiempo hasta el primer token (TTFT) y tokens por segundo (TPS). Al combinarse con la infraestructura distribuida de Akamai en el edge, Akamai Inference Cloud puede reducir la latencia en aplicaciones inteligentes en tiempo real e interactivas.
Las GPUs NVIDIA Blackwell ofrecen un rendimiento extraordinario, como se describe en nuestro próximo análisis de benchmarking.
Despliega y supervisa aplicaciones autónomas con App Platform
Para brindar mayor apoyo a los ingenieros de plataforma, vamos más allá de simplemente ofrecer infraestructura. Los ingenieros de plataforma pueden desplegar y supervisar fácilmente aplicaciones autónomas con nuestra plataforma nativa en la nube preconfigurada, que facilita la implementación a gran escala de modelos de lenguaje extensos (LLMs), agentes y bases de conocimiento.
The platform is highly customizable, yet opinionated — it accelerates deployment, reduces operational overhead, and includes pre-integrated AI-ready components like vector databases, LLM frameworks, and OpenAI-compatible APIs into a single self-service portal. App Platform está optimizada para ejecutarse en LKE, el motor Kubernetes gestionado de Akamai, y es portátil a cualquier clúster de Kubernetes compatible.
App Platform for LKE integra un conjunto de más de 30 herramientas de código abierto de confianza de la Cloud Native Computing Foundation (CNCF), incluyendo KServe, un framework nativo de Kubernetes para servir y escalar modelos de aprendizaje automático en producción, y Kubeflow Pipelines, una plataforma para construir, desplegar y gestionar flujos de trabajo de ML en Kubernetes.
App Platform proporciona tanto el framework de Kubernetes como los componentes de IA necesarios para que los ingenieros puedan construir su propia plataforma de IA. Esto ayuda a evitar enfoques de “hazlo tú mismo” que requieren una integración compleja al construir y mantener tu propia plataforma basada en Kubernetes o una pila personalizada (Figura 2).
Akamai Inference Cloud — Diseñado para integraciones con NVIDIA AI Enterprise
NVIDIA AI Enterprise es la plataforma de software diseñada para agilizar tu transición del desarrollo de IA a la producción. Esta suite nativa en la nube acelera y simplifica la manera de construir, desplegar y escalar aplicaciones de IA. Al utilizar herramientas potentes como los microservicios de inferencia de NVIDIA (NIM) y los microservicios de módulos neuronales (NeMo), te ayuda a reducir los costos de infraestructura y a acelerar significativamente tu tiempo de llegada al mercado (Figura 3).
Akamai Inference Cloud está evolucionando con funcionalidades nativas para incorporar toda la suite de software de NVIDIA AI Enterprise. La plataforma ofrece una base confiable, segura y escalable para que organizaciones de todos los tamaños desplieguen sistemas de IA avanzados en cualquier lugar: en la nube, en el centro de datos o en el edge, todo respaldado por un amplio ecosistema de socios.
Descubre más
Akamai Inference Cloud está evolucionando rápidamente, con numerosos lanzamientos de productos previstos hasta 2026. Siga el blog de Akamai o visita nuestro sitio web para obtener más información sobre Akamai Inference Cloud.
Etiquetas