Sumário executivo
A Akamai Inference Cloud é uma plataforma de nuvem de pilha completa que permite que as organizações criem, protejam e otimizem aplicações com tecnologia de IA na edge.
A plataforma foi projetada para ser compatível com sistemas agênticos que se adaptam aos usuários, se comunicam com outros agentes e agem em tempo real.
Os principais recursos incluem GPUs NVIDIA Blackwell, Kubernetes gerenciados, bancos de dados vetoriais e segurança com reconhecimento de IA.
A plataforma capacita três usuários específicos: engenheiros de operações de aprendizado de máquina, engenheiros de IA e arquitetos de sistemas agênticos.
A Akamai Inference Cloud fornece uma base confiável, segura e escalável para implantar sistemas avançados de IA em qualquer lugar.
Em 2017, um artigo de pesquisa mudou silenciosamente o curso da tecnologia. Attention Is All You Need apresentou a Arquitetura do transformador, um novo tipo de modelo para processamento de linguagem e dados que em breve sustentaria quase todos os grandes avanços em inteligência artificial (IA). Na época, o avanço estava confinado principalmente aos círculos acadêmicos e de desenvolvedores.
Cinco anos depois, em novembro de 2022, a OpenAI lançou o ChatGPT. Pela primeira vez, o público mais amplo poderia interagir em primeira mão com um sistema criado com base no que essa arquitetura tornou possível. Foi um vislumbre de um novo tipo de interface, não apenas com máquinas, mas com o próprio conhecimento.
Agora, apenas 3 anos após esse lançamento, a OpenAI relata mais de 700 milhões de usuários ativos semanais.
O Fórum Econômico Mundial destacou: a IA está criando uma mudança dupla na força de trabalho. Por um lado, a automação está gerando excesso de capacidade em funções estabelecidas. Por outro lado, a demanda por fluência em IA está acelerando mais rápido do que os sistemas de educação e contratação podem se adaptar. Os modelos antigos para o trabalho, e para como preparamos as pessoas para fazê-lo, estão evoluindo rapidamente.
Este é o fim do começo.
Olhando para trás para seguir em frente
Há 27 anos, o mundo estava em um ponto de inflexão semelhante. A internet estava se expandindo rapidamente e questões de escala, confiabilidade e segurança não estavam resolvidas. Nesse contexto, um grupo de pesquisadores do MIT fundou a Akamai com uma missão clara: resolver a "World Wide Wait" (rede de espera mundial).
Eles conseguiram aproximar a computação, o armazenamento e a rede dos pontos de criação e consumo em um modelo que, desde então, é frequentemente imitado.
A ascensão da web agêntica nos levou de volta ao início, reintroduzindo novos desafios de escala e proximidade exclusivos da IA e da inferência necessária para atingir todo o potencial.
A Akamai Inference Cloud, que anunciamos hoje, baseia-se no trabalho de arquitetura distribuída do qual fomos pioneiros há quase três décadas para expandir a inferência de IA dos principais data centers para a edge e, mais uma vez, remover os gargalos e ultrapassar os limites da infraestrutura centralizada.
A web agêntica
Essa nova geração de sistemas inteligentes não espera mais comandos humanos ou entradas. Eles observam, raciocinam e agem em nome de usuários que expressam a intenção em linguagem natural. Esses sistemas tomam iniciativa, coordenam-se com outros sistemas e entregam resultados sem instruções passo a passo. Essa é a web agêntica.
A web agêntica está mudando a forma como as pessoas e as máquinas interagem com os serviços digitais. As experiências estão se tornando conversacionais, multimodais e personalizadas. As interfaces se adaptam à intenção do usuário, e não o contrário. Uma pessoa pode pedir uma recomendação e recebê-la como um resumo narrado, uma comparação visual ou um detalhamento por escrito, dependendo das preferências, do contexto e do dispositivo. O sistema seleciona o formato e o tom que melhor se encaixam.
As interações orientadas por agentes precisam de novas maneiras de apoiá-las
À medida que essas interações orientadas por agentes se tornam difundidas, as empresas precisam de novas maneiras de apoiá-las. A inferência deve se aproximar dos usuários. Os tempos de resposta precisam ser previsíveis e baixos. As ferramentas e a memória devem estar disponíveis em tempo real. Toda a pilha deve dar suporte aos agentes que trabalham em nome de usuários e sistemas, não apenas ao lidar com solicitações únicas.
Essa mudança já está em andamento, mas as plataformas de nuvem centralizadas de hoje não foram projetadas para dar suporte a ela. As empresas são forçadas a escolher entre infraestrutura bruta ou soluções restritas. O que falta é uma plataforma criada especificamente para a IA agêntica, que reduza a complexidade, acelere o desenvolvimento e ofereça comportamento inteligente em escala global.
A Akamai Inference Cloud possibilita o futuro
A Akamai Inference Cloud torna esse futuro possível. A abordagem de nuvem e IA dela é centrada nas necessidades de sistemas e aplicações agênticos que se adaptam aos usuários, se comunicam com outros agentes e agem em tempo real.
A arquitetura distribuída exclusiva foi projetada especificamente para dar suporte a esses padrões, trazendo a computação, o armazenamento e a orquestração de alto desempenho necessários para cargas de trabalho de inferência complexas e aplicando roteamento, controle e capacidade de resposta para mais perto do usuário.
Nossos clientes estão enfrentando quatro missões críticas:
Potencialização a aplicação habilitada para IA
Gerenciamento da IA como um novo canal de tráfego
Agentes de IA de recursos para cargas de trabalho empresariais
Consumo responsável de IA pelos funcionários
Potencialização a aplicação habilitada para IA
Todas as empresas incorporarão inteligência em suas aplicações. Esse é o próximo estágio da arquitetura de aplicações, do design responsivo a multinuvem e, agora, aos sistemas integrados à IA e em tempo real. A Akamai continua sendo a espinha dorsal confiável que permite e protege cada evolução.
Gerenciamento da IA como um novo canal de tráfego
Os usuários estão alcançando marcas por plataformas de IA, assim como faziam antes com pesquisa, redes sociais ou dispositivos móveis. Cada marca, aplicação e API precisará definir as interações de IA desejadas e indesejadas e gerenciar esse tráfego de modo inteligente para transformar o tráfego de IA de risco em oportunidade.
Agentes de IA de recursos para cargas de trabalho empresariais
Nossos clientes estão usando agentes de IA para operar partes dos negócios, desde o gerenciamento de infraestrutura até a análise de dados. Os agentes precisam de acesso a recursos de primeira classe associados a sistemas internos e externos, mas com proteções apropriadas (confiança, identidade, observabilidade e segurança) para que as empresas possam dimensionar seus ambientes operados por IA com confiança e eficiência.
Consumo responsável de IA pelos funcionários
Os funcionários de todas as empresas estão consumindo serviços de IA: Copilot, Cursor, ChatGPT, Claude e outros. As empresas devem gerenciar o uso responsável, o custo e a proteção de dados desse consumo.
A Akamai Inference Cloud é como a inferência é dimensionada.
O que é a Akamai Inference Cloud?
A Akamai Inference Cloud é uma plataforma de nuvem de pilha completa projetada para criar, proteger e otimizar a próxima geração de aplicações inteligentes capacitadas pela IA. Ela oferece computação, armazenamento, rede, orquestração, segurança e ferramentas de desenvolvedor alinhadas aos requisitos exclusivos de inferência em tempo real, sistemas agênticos e inteligência que vive mais perto do usuário (Tabela).
Criar |
Proteger |
Otimizar |
|
|---|---|---|---|
Os problemas |
|
|
|
A(s) solução(ões) |
Infraestrutura inteligente distribuída com uma plataforma de desenvolvedor |
Gerenciamento de bots com reconhecimento de IA e segurança de APIs (proteções de aplicações, APIs e IA, trabalhando em conjunto com o gerenciamento de bots com reconhecimento de IA) |
Malha de conectividade de IA para humanos e agentes |
Os produtos |
|
|
|
A Akamai Inference Cloud é uma plataforma de nuvem de pilha completa projetada para criar, proteger e otimizar a próxima geração de aplicações inteligentes capacitadas pela IA
Para quem estamos construindo
A Akamai Inference Cloud é uma plataforma modular que atende aos clientes onde eles estão. Se você estiver consumindo pontos de extremidade de API hospedados do OpenAI e do Gemini em suas aplicações ou criando um fluxo de trabalho agêntico em torno de seus próprios modelos refinados e destilados, a Akamai Inference Cloud permitirá que você crie, proteja e otimize na edge.
Especificamente, estamos capacitando três usuários específicos:
Engenheiros de operações de aprendizado de máquina (MLOps): engenheiros que automatizam todo o ciclo de vida de aprendizado de máquina para garantir que os modelos sejam continuamente treinados, implantados e monitorados quanto ao desempenho na produção
Engenheiros de IA: cientistas de dados ou engenheiros de software que desenvolvem aplicações agênticas de ponta a ponta, frequentemente usando modelos pré-treinados, e ajudam a preencher a lacuna entre a pesquisa de ciência de dados e o desenvolvimento de software de produção
Arquitetos de sistema Agentic: um arquiteto que evolui do sistema tradicional, que projeta, constrói e gerencia sistemas complexos e autônomos, capazes de raciocinar, planejar, agir e se adaptar de forma independente para alcançar metas de negócios de alto nível
Com a Akamai Inference Cloud, não estamos bloqueando os usuários em um paradigma ou solução específica, mas fornecendo aos clientes flexibilidade para alugar infraestrutura, desenvolver em uma plataforma sem servidor e combinar perfeitamente sistemas complexos com base em suas preferências.
Colocando a pilha de IA da NVIDIA mais próxima de onde as decisões são tomadas
Em 28 de outubro de 2025, anunciamos a Akamai Inference Cloud e nosso objetivo de trazer inferência inteligente de IA agêntica para a edge, conforme exigido por experiências personalizadas, decisões em tempo real e agentes inteligentes.
Os clientes agora têm acesso à última geração de GPUs NVIDIA Blackwell, juntamente com a rede NVIDIA Bluefield; memória em camadas em GDDR7, DRAM e NVMe; armazenamento escalável e de bloco e objeto de alto desempenho, bancos de dados vetoriais gerenciados e rede de nuvem privada virtual.
Um engenheiro de MLOps pode alugar uma única GPU por hora ou criar um cluster de inferência de alto desempenho com até 8 GPUs NVIDIA RTX PRO™ 6000 Blackwell Server Edition, DPUs NVIDIA Bluefield-3Ⓡ, 128 vCPUs, 1.472 GB de DRAM e 8.192 GB de NVMe (Figura 1).
As GPUs NVIDIA Blackwell oferecem desempenho incrível. A Akamai Inference Cloud é otimizada para o tempo até o primeiro token (TTFT) e tokens por segundo (TPS). Quando combinada com a infraestrutura de edge distribuída da Akamai, a Akamai Inference Cloud pode reduzir a latência para aplicações inteligentes interativas e em tempo real.
As GPUs NVIDIA Blackwell oferecem desempenho incrível, conforme descrito em nossa futura análise de benchmarking.
Implante e monitore aplicações agênticas com a App Platform
Para ajudar ainda mais os engenheiros de plataforma, vamos além de apenas fornecer infraestrutura. Os engenheiros de plataforma podem implantar e monitorar facilmente aplicações agênticas com nossa plataforma nativa de nuvem pré-projetada que simplifica a implantação de modelos de linguagem grandes (LLMS), agentes e bases de conhecimento em escala.
A plataforma é altamente personalizável, mas optativa. Ela acelera a implantação, reduz a sobrecarga operacional e inclui componentes prontos para IA pré-integrados, como bancos de dados vetoriais, estruturas LLM e APIs compatíveis com OpenAI em um único portal de autoatendimento. A App Platform é otimizada para ser executada no LKE, o mecanismo gerenciado do Kubernetes da Akamai, e é portátil para qualquer cluster do Kubernetes em conformidade.
A App Platform for LKE integra um conjunto de mais de 30 ferramentas confiáveis de código aberto da Cloud Native Computing Foundation (CNCF), incluindo o KServe, uma estrutura nativa do Kubernetes para fornecer e dimensionar modelos de aprendizado de máquina na produção, e o Kubeflow Pipelines, uma plataforma para criar, implantar e gerenciar fluxos de trabalho de ML no Kubernetes.
A App Platform fornece a estrutura do Kubernetes e os componentes de IA necessários para que os engenheiros criem a própria plataforma de IA. Isso ajuda a evitar abordagens "faça-você-mesmo" que exigem integração pesada ao criar e manter a própria plataforma baseada em Kubernetes ou pilha personalizada (Figura 2).
Akamai Inference Cloud: projetada para integrações empresariais de IA da NVIDIA
A NVIDIA AI Enterprise é a plataforma de software criada para simplificar a jornada do desenvolvimento de IA à produção. Esse conjunto nativo da nuvem acelera e simplifica a forma como você cria, implanta e dimensiona aplicações de IA. Com ferramentas avançadas, como microsserviços de inferência NVIDIA (NIM) e módulos neurais (NeMo), ele ajuda a reduzir os custos de infraestrutura e acelerar significativamente o tempo de lançamento no mercado (Figura 3).
A Akamai Inference Cloud está evoluindo com funcionalidade nativa para acomodar todo o conjunto de software empresarial de IA da NVIDIA. A plataforma fornece uma base confiável, segura e escalonável para que organizações de todos os tamanhos implantem sistemas avançados de IA em qualquer lugar, na nuvem, no data center ou na edge, tudo com o respaldo de um amplo ecossistema de parceiros.
Saiba mais
A Akamai Inference Cloud está evoluindo rapidamente com muitos lançamentos de novos produtos planejados até 2026. Siga o blog da Akamai ou acesse nosso website para obter mais informações sobre a Akamai Inference Cloud.
Tags