IA: Edge é tudo o que você precisa

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

escrito por

Jon Alexander

Jon Alexander é vice-presidente de gerenciamento de produtos e é responsável pelo portfólio de entrega de edge da Akamai, incluindo CDN (Rede de Edge da Akamai) e produtos de serviços de origem.

Compartilhe

Sumário executivo

  • A Akamai Inference Cloud é uma plataforma de nuvem de pilha completa que permite que as organizações criem, protejam e otimizem aplicações com tecnologia de IA na edge.

  • A plataforma foi projetada para ser compatível com sistemas agênticos que se adaptam aos usuários, se comunicam com outros agentes e agem em tempo real.

  • Os principais recursos incluem GPUs NVIDIA Blackwell, Kubernetes gerenciados, bancos de dados vetoriais e segurança com reconhecimento de IA.

  • A plataforma capacita três usuários específicos: engenheiros de operações de aprendizado de máquina, engenheiros de IA e arquitetos de sistemas agênticos.

  • A Akamai Inference Cloud fornece uma base confiável, segura e escalável para implantar sistemas avançados de IA em qualquer lugar.

Em 2017, um artigo de pesquisa mudou silenciosamente o curso da tecnologia. Attention Is All You Need apresentou a Arquitetura do transformador, um novo tipo de modelo para processamento de linguagem e dados que em breve sustentaria quase todos os grandes avanços em inteligência artificial (IA). Na época, o avanço estava confinado principalmente aos círculos acadêmicos e de desenvolvedores.

Cinco anos depois, em novembro de 2022, a OpenAI lançou o ChatGPT. Pela primeira vez, o público mais amplo poderia interagir em primeira mão com um sistema criado com base no que essa arquitetura tornou possível. Foi um vislumbre de um novo tipo de interface, não apenas com máquinas, mas com o próprio conhecimento. 

Agora, apenas 3 anos após esse lançamento, a OpenAI relata mais de 700 milhões de usuários ativos semanais

O Fórum Econômico Mundial destacou: a IA está criando uma mudança dupla na força de trabalho. Por um lado, a automação está gerando excesso de capacidade em funções estabelecidas. Por outro lado, a demanda por fluência em IA está acelerando mais rápido do que os sistemas de educação e contratação podem se adaptar. Os modelos antigos para o trabalho, e para como preparamos as pessoas para fazê-lo, estão evoluindo rapidamente.

Este é o fim do começo.

Olhando para trás para seguir em frente

Há 27 anos, o mundo estava em um ponto de inflexão semelhante. A internet estava se expandindo rapidamente e questões de escala, confiabilidade e segurança não estavam resolvidas. Nesse contexto, um grupo de pesquisadores do MIT fundou a Akamai com uma missão clara: resolver a "World Wide Wait" (rede de espera mundial). 

Eles conseguiram aproximar a computação, o armazenamento e a rede dos pontos de criação e consumo em um modelo que, desde então, é frequentemente imitado.

A ascensão da web agêntica nos levou de volta ao início, reintroduzindo novos desafios de escala e proximidade exclusivos da IA e da inferência necessária para atingir todo o potencial. 

A Akamai Inference Cloud, que anunciamos hoje, baseia-se no trabalho de arquitetura distribuída do qual fomos pioneiros há quase três décadas para expandir a inferência de IA dos principais data centers para a edge e, mais uma vez, remover os gargalos e ultrapassar os limites da infraestrutura centralizada.

A web agêntica

Essa nova geração de sistemas inteligentes não espera mais comandos humanos ou entradas. Eles observam, raciocinam e agem em nome de usuários que expressam a intenção em linguagem natural. Esses sistemas tomam iniciativa, coordenam-se com outros sistemas e entregam resultados sem instruções passo a passo. Essa é a web agêntica.

A web agêntica está mudando a forma como as pessoas e as máquinas interagem com os serviços digitais. As experiências estão se tornando conversacionais, multimodais e personalizadas. As interfaces se adaptam à intenção do usuário, e não o contrário. Uma pessoa pode pedir uma recomendação e recebê-la como um resumo narrado, uma comparação visual ou um detalhamento por escrito, dependendo das preferências, do contexto e do dispositivo. O sistema seleciona o formato e o tom que melhor se encaixam.

As interações orientadas por agentes precisam de novas maneiras de apoiá-las

À medida que essas interações orientadas por agentes se tornam difundidas, as empresas precisam de novas maneiras de apoiá-las. A inferência deve se aproximar dos usuários. Os tempos de resposta precisam ser previsíveis e baixos. As ferramentas e a memória devem estar disponíveis em tempo real. Toda a pilha deve dar suporte aos agentes que trabalham em nome de usuários e sistemas, não apenas ao lidar com solicitações únicas.

Essa mudança já está em andamento, mas as plataformas de nuvem centralizadas de hoje não foram projetadas para dar suporte a ela. As empresas são forçadas a escolher entre infraestrutura bruta ou soluções restritas. O que falta é uma plataforma criada especificamente para a IA agêntica, que reduza a complexidade, acelere o desenvolvimento e ofereça comportamento inteligente em escala global.

A Akamai Inference Cloud possibilita o futuro

A Akamai Inference Cloud torna esse futuro possível. A abordagem de nuvem e IA dela é centrada nas necessidades de sistemas e aplicações agênticos que se adaptam aos usuários, se comunicam com outros agentes e agem em tempo real. 

A arquitetura distribuída exclusiva foi projetada especificamente para dar suporte a esses padrões, trazendo a computação, o armazenamento e a orquestração de alto desempenho necessários para cargas de trabalho de inferência complexas e aplicando roteamento, controle e capacidade de resposta para mais perto do usuário.  

Nossos clientes estão enfrentando quatro missões críticas:

  1. Potencialização a aplicação habilitada para IA

  2. Gerenciamento da IA como um novo canal de tráfego

  3. Agentes de IA de recursos para cargas de trabalho empresariais

  4. Consumo responsável de IA pelos funcionários

Potencialização a aplicação habilitada para IA

Todas as empresas incorporarão inteligência em suas aplicações. Esse é o próximo estágio da arquitetura de aplicações, do design responsivo a multinuvem e, agora, aos sistemas integrados à IA e em tempo real. A Akamai continua sendo a espinha dorsal confiável que permite e protege cada evolução.

Gerenciamento da IA como um novo canal de tráfego

Os usuários estão alcançando marcas por plataformas de IA, assim como faziam antes com pesquisa, redes sociais ou dispositivos móveis. Cada marca, aplicação e API precisará definir as interações de IA desejadas e indesejadas e gerenciar esse tráfego de modo inteligente para transformar o tráfego de IA de risco em oportunidade.

Agentes de IA de recursos para cargas de trabalho empresariais

Nossos clientes estão usando agentes de IA para operar partes dos negócios, desde o gerenciamento de infraestrutura até a análise de dados. Os agentes precisam de acesso a  recursos de primeira classe associados a sistemas internos e externos, mas com proteções apropriadas (confiança, identidade, observabilidade e segurança) para que as empresas possam dimensionar seus ambientes operados por IA com confiança e eficiência.

Consumo responsável de IA pelos funcionários

Os funcionários de todas as empresas estão consumindo serviços de IA: Copilot, Cursor, ChatGPT, Claude e outros. As empresas devem gerenciar o uso responsável, o custo e a proteção de dados desse consumo.

A Akamai Inference Cloud é como a inferência é dimensionada.

O que é a Akamai Inference Cloud?

A Akamai Inference Cloud é uma plataforma de nuvem de pilha completa projetada para criar, proteger e otimizar a próxima geração de aplicações inteligentes capacitadas pela IA. Ela oferece computação, armazenamento, rede, orquestração, segurança e ferramentas de desenvolvedor alinhadas aos requisitos exclusivos de inferência em tempo real, sistemas agênticos e inteligência que vive mais perto do usuário (Tabela).

 

 

Criar

Proteger

Otimizar

Os problemas

  • O custo para hospedar APIs é alto

  • A inferência centralizada é lenta

  • A hospedagem do próprio modelo é difícil

     

     

     

  • Os bots de IA estão capturando conteúdo

  • Os pontos de extremidade de IA estão vazando dados confidenciais

  • Os pontos de extremidade de IA estão sendo violados

  • Os agentes de ameaça estão usando ataques de DDoS e esgotamento de recursos

  • A web tradicional é invisível para a pesquisa de IA

  • As interfaces de IA são lentas

  • Os custos podem aumentar

  • Os agentes precisam de uma estrutura para descoberta, autenticação, identidade, confiança etc.

     

A(s) solução(ões)

Infraestrutura inteligente distribuída com uma plataforma de desenvolvedor 

Gerenciamento de bots com reconhecimento de IA e segurança de APIs (proteções de aplicações, APIs e IA, trabalhando em conjunto com o gerenciamento de bots com reconhecimento de IA)

Malha de conectividade de IA para humanos e agentes 

Os produtos

  • GPUs NVIDIA Blackwell

  • DPUs NVIDIA Bluefield

  • K8s gerenciados

  • Plataformas de desenvolvimento K8s 

  • Banco de dados de vetor

  • Object/Block Storage

  • Backups e snapshots

  • VPC

  • Funções

 

  • AEO/GEO

  • Cache semântico

  • Limites e cotas de taxa de LLM

  • Servidor de MCP

  • Aceleração de CDN

  • Funções

  • Observabilidade

     

A Akamai Inference Cloud é uma plataforma de nuvem de pilha completa projetada para criar, proteger e otimizar a próxima geração de aplicações inteligentes capacitadas pela IA

Para quem estamos construindo

A Akamai Inference Cloud é uma plataforma modular que atende aos clientes onde eles estão. Se você estiver consumindo pontos de extremidade de API hospedados do OpenAI e do Gemini em suas aplicações ou criando um fluxo de trabalho agêntico em torno de seus próprios modelos refinados e destilados, a Akamai Inference Cloud permitirá que você crie, proteja e otimize na edge. 

Especificamente, estamos capacitando três usuários específicos:

  1. Engenheiros de operações de aprendizado de máquina (MLOps): engenheiros que automatizam todo o ciclo de vida de aprendizado de máquina para garantir que os modelos sejam continuamente treinados, implantados e monitorados quanto ao desempenho na produção

  2. Engenheiros de IA: cientistas de dados ou engenheiros de software que desenvolvem aplicações agênticas de ponta a ponta, frequentemente usando modelos pré-treinados, e ajudam a preencher a lacuna entre a pesquisa de ciência de dados e o desenvolvimento de software de produção

  3. Arquitetos de sistema Agentic: um arquiteto que evolui do sistema tradicional, que projeta, constrói e gerencia sistemas complexos e autônomos, capazes de raciocinar, planejar, agir e se adaptar de forma independente para alcançar metas de negócios de alto nível

Com a Akamai Inference Cloud, não estamos bloqueando os usuários em um paradigma ou solução específica, mas fornecendo aos clientes flexibilidade para alugar infraestrutura, desenvolver em uma plataforma sem servidor e combinar perfeitamente sistemas complexos com base em suas preferências. 

Colocando a pilha de IA da NVIDIA mais próxima de onde as decisões são tomadas

Em 28 de outubro de 2025, anunciamos a Akamai Inference Cloud e nosso objetivo de trazer inferência inteligente de IA agêntica para a edge, conforme exigido por experiências personalizadas, decisões em tempo real e agentes inteligentes. 

Os clientes agora têm acesso à última geração de GPUs NVIDIA Blackwell, juntamente com a rede NVIDIA Bluefield; memória em camadas em GDDR7, DRAM e NVMe; armazenamento escalável e de bloco e objeto de alto desempenho, bancos de dados vetoriais gerenciados e rede de nuvem privada virtual.

Um engenheiro de MLOps pode alugar uma única GPU por hora ou criar um cluster de inferência de alto desempenho com até 8 GPUs NVIDIA RTX PRO™ 6000 Blackwell Server Edition, DPUs NVIDIA Bluefield-3Ⓡ, 128 vCPUs, 1.472 GB de DRAM e 8.192 GB de NVMe (Figura 1).

As GPUs NVIDIA Blackwell oferecem desempenho incrível.  A Akamai Inference Cloud é otimizada para o tempo até o primeiro token (TTFT) e tokens por segundo (TPS). Quando combinada com a infraestrutura de edge distribuída da Akamai, a Akamai Inference Cloud pode reduzir a latência para aplicações inteligentes interativas e em tempo real. 

As GPUs NVIDIA Blackwell oferecem desempenho incrível, conforme descrito em nossa futura análise de benchmarking.

Implante e monitore aplicações agênticas com a App Platform

Para ajudar ainda mais os engenheiros de plataforma, vamos além de apenas fornecer infraestrutura. Os engenheiros de plataforma podem implantar e monitorar facilmente aplicações agênticas com nossa plataforma nativa de nuvem pré-projetada que simplifica a implantação de modelos de linguagem grandes (LLMS), agentes e bases de conhecimento em escala. 

A plataforma é altamente personalizável, mas optativa. Ela acelera a implantação, reduz a sobrecarga operacional e inclui componentes prontos para IA pré-integrados, como bancos de dados vetoriais, estruturas LLM e APIs compatíveis com OpenAI em um único portal de autoatendimento. A App Platform é otimizada para ser executada no LKE, o mecanismo gerenciado do Kubernetes da Akamai, e é portátil para qualquer cluster do Kubernetes em conformidade.  

A App Platform for LKE integra um conjunto de mais de 30 ferramentas confiáveis de código aberto da Cloud Native Computing Foundation (CNCF), incluindo o KServe, uma estrutura nativa do Kubernetes para fornecer e dimensionar modelos de aprendizado de máquina na produção, e o Kubeflow Pipelines, uma plataforma para criar, implantar e gerenciar fluxos de trabalho de ML no Kubernetes. 

A App Platform fornece a estrutura do Kubernetes e os componentes de IA necessários para que os engenheiros criem a própria plataforma de IA. Isso ajuda a evitar abordagens "faça-você-mesmo" que exigem integração pesada ao criar e manter a própria plataforma baseada em Kubernetes ou pilha personalizada (Figura 2).

Akamai Inference Cloud: projetada para integrações empresariais de IA da NVIDIA

A NVIDIA AI Enterprise é a plataforma de software criada para simplificar a jornada do desenvolvimento de IA à produção. Esse conjunto nativo da nuvem acelera e simplifica a forma como você cria, implanta e dimensiona aplicações de IA. Com ferramentas avançadas, como microsserviços de inferência NVIDIA (NIM) e módulos neurais (NeMo), ele ajuda a reduzir os custos de infraestrutura e acelerar significativamente o tempo de lançamento no mercado (Figura 3). 

A Akamai Inference Cloud está evoluindo com funcionalidade nativa para acomodar todo o conjunto de software empresarial de IA da NVIDIA. A plataforma fornece uma base confiável, segura e escalonável para que organizações de todos os tamanhos implantem sistemas avançados de IA em qualquer lugar, na nuvem, no data center ou na edge, tudo com o respaldo de um amplo ecossistema de parceiros.

Saiba mais

A Akamai Inference Cloud está evoluindo rapidamente com muitos lançamentos de novos produtos planejados até 2026. Siga o blog da Akamai ou acesse nosso website para obter mais informações sobre a Akamai Inference Cloud.

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

escrito por

Jon Alexander

Jon Alexander é vice-presidente de gerenciamento de produtos e é responsável pelo portfólio de entrega de edge da Akamai, incluindo CDN (Rede de Edge da Akamai) e produtos de serviços de origem.

Tags

Compartilhe

Publicações de blog relacionadas

Nuvem
IA em qualquer lugar com a Akamai Inference Cloud
October 28, 2025
Apresentamos a Akamai Inference Cloud, uma plataforma criada especificamente em parceria com a NVIDIA, que redefine onde e como a IA é usada.
Nuvem
Como as empresas estão equilibrando a inovação em IA com o risco
September 15, 2025
Um novo relatório da Forrester, encomendado pela Akamai, revela como as empresas estão promovendo a inovação em IA em larga escala sem se expor a níveis inaceitáveis de risco.
Nuvem
O que 400 executivos revelam sobre o futuro da adoção da IA
September 25, 2025
Saiba como um estudo da Forrester descobriu que a maioria das empresas já está usando IA para diferenciação competitiva, personalização e retenção de clientes.