IA em qualquer lugar com a Akamai Inference Cloud

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

escrito por

Adam Karon

Adam Karon é vice-presidente executivo e gerente geral das Divisões de mídia e operadora da Akamai. Na função de gerente geral, o Sr. Karon é responsável por liderar as principais funções da Divisão de mídia e operadora de engenharia e desenvolvimento de produtos, gerenciamento de produtos, vendas, canais, engenharia de vendas e marketing, com foco em possibilitar que as principais empresas de comunicação, jogos e software da atualidade entreguem as melhores experiências possíveis, e de grande alcance, a seus clientes em qualquer dispositivo, em qualquer lugar e ajudar as operadoras a administrarem redes de baixo custo e alto desempenho.

Compartilhe

Toda revolução tecnológica começa com um momento de centralização. Antigamente, as fábricas se amontoavam ao longo dos rios, atraídas pelo irresistível magnetismo do poder hídrico. As redes elétricas transformaram economias inteiras, canalizando energia em grupo específico de centros industriais. A indústria cinematográfica seguiu um caminho semelhante, canalizando vastas somas de capital para estúdios de destaque e suas redes de distribuição rigidamente controladas. Até mesmo o conteúdo e a segurança começaram centralizados.

No entanto, em todos os casos, cada um desses sistemas eventualmente mudou para a descentralização:

  • A geração de energia local superou o domínio dos monopólios regionais. 

  • Os serviços de streaming impactaram a experiência cinematográfica tradicional, trazendo entretenimento diretamente para nossas casas. 

  • As informações e a mídia se aproximaram da edge, onde o público vive e trabalha, tornando as notícias e o entretenimento mais acessíveis e imediatos. 

  • O conteúdo se aproximou dos usuários e a segurança foi transferida para a nuvem para interromper ataques localmente antes que eles pudessem atingir seu alvo.

O atual ponto de inflexão da IA

A IA atingiu um ponto de inflexão semelhante. Ela não se expandirá através das mesmas práticas — isso não é possível. Enquanto setor, fixamo-nos na criação de modelos cada vez maiores em data centers cada vez maiores. Nas notícias, vemos contratos de bilhões de dólares, campi de data center medidos em gigawatts e clusters recordes de GPUs. Mas escala não significa qualidade. Não mais.

A centralização se tornou uma restrição. Toda solicitação enviada entre continentes desperdiça ciclos, energia e investimentos preciosos. A latência prejudica a experiência do usuário em negociações, pagamentos, jogos e conversas. As redes elétricas sofrem sob tensão. As empresas gastam bilhões para treinar modelos, mas descobrem que os custos de saída e segundos de atraso os tornam impraticáveis em escala.

A explosão da inferência do futuro

O aumento de agentes inteligentes, sistemas autônomos e IA física causará uma explosão de inferência que superará as solicitações iniciadas por humanos em ordens de magnitude. Todo veículo autônomo, robô e sistema inteligente se tornará um consumidor persistente de inferência de edge distribuída, complementando sua computação local da maneira como cada smartphone hoje transmite vídeos que nunca poderia armazenar localmente.

A centralização, no entanto, não é a única restrição. Hoje, existe o temor de que a IA não esteja pronta para o que se espera.

  • As respostas serão precisas ou o modelo terá alucinações?

  • A experiência será responsiva ou a latência interromperá o fluxo?

  • O aspecto econômico funcionará ou os custos com inferência destruirão o caso de negócios?

  • Os modelos funcionarão de maneira eficaz ou falharão durante a produção, na hora mais importante?

A IA está superando o modelo de nuvem tradicional, enquanto as empresas enfrentam os crescentes custos com inferência e problemas de latência. Os CFOs estão recuando, e os CIOs estão reequilibrando as cargas de trabalho silenciosamente, fazendo tudo o que podem para se aproximarem de onde os dados e os usuários realmente estão. O gargalo não são as GPUs. É a proximidade.

Chegou a hora de mudar o padrão

Anunciamos hoje a Akamai Inference Cloud, uma plataforma que redefine onde e como a IA é usada expandindo a inferência a partir dos principais data centers para a edge da Internet.

Desenvolvida com a NVIDIA, a Akamai Inference Cloud combina a experiência da Akamai com arquiteturas distribuídas globalmente e a infraestrutura Blackwell AI e a liderança em IA da NVIDIA para repensar e ampliar radicalmente os sistemas necessários para desbloquear o verdadeiro potencial da IA.

Ao contrário dos sistemas tradicionais, essa plataforma foi criada especificamente para fornecer processamento de IA de edge em tempo real e de baixa latência em escala global, colocando a infraestrutura de computação acelerada da NVIDIA mais próxima de onde os dados são criados e as decisões precisam ser tomadas.

Inteligência que aproxima

Por décadas, a tecnologia recompensou empresas que pudessem construir data centers maiores, gerenciar conjuntos de dados massivos e fortalecer sua capacidade de computação e dados. Essa era produziu um poder notável, mas também distanciou dados e pessoas e inovação e acesso.

Agora, a vantagem pertence àqueles que eliminam esse distanciamento. Uma inteligência que opere mais perto de onde é necessária será mais valiosa do que qualquer coisa confinada em um data center distante.

Aproxime-se do futuro com a Akamai

A IA está redefinindo as infraestruturas de nuvem, tirando o foco da potência e colocando na proximidade, de megawatts para milissegundos. E ninguém está mais bem posicionado para ajudar os clientes a lidar com essa mudança do que a Akamai. Não estamos esperando que o futuro chegue. Estamos trazendo esse futuro.

Saiba mais

Nosso comunicado à imprensa oficial trouxe o anúncio do lançamento da Akamai Inference Cloud, e esta publicação do blog por Jon Alexander, Vice-Presidente Sênior de Produtos da Akamai, apresenta mais informações sobre o processo. Para obter ainda mais informações sobre a Akamai Inference Cloud, visite nosso website.

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

escrito por

Adam Karon

Adam Karon é vice-presidente executivo e gerente geral das Divisões de mídia e operadora da Akamai. Na função de gerente geral, o Sr. Karon é responsável por liderar as principais funções da Divisão de mídia e operadora de engenharia e desenvolvimento de produtos, gerenciamento de produtos, vendas, canais, engenharia de vendas e marketing, com foco em possibilitar que as principais empresas de comunicação, jogos e software da atualidade entreguem as melhores experiências possíveis, e de grande alcance, a seus clientes em qualquer dispositivo, em qualquer lugar e ajudar as operadoras a administrarem redes de baixo custo e alto desempenho.

Tags

Compartilhe

Publicações de blog relacionadas

Nuvem
IA: Edge é tudo o que você precisa
October 28, 2025
Saiba como a Akamai Inference Cloud se baseia no trabalho de arquitetura distribuída do qual fomos pioneiros há quase 30 anos para expandir a inferência de IA para a edge.
Nuvem
Como as empresas estão equilibrando a inovação em IA com o risco
September 15, 2025
Um novo relatório da Forrester, encomendado pela Akamai, revela como as empresas estão promovendo a inovação em IA em larga escala sem se expor a níveis inaceitáveis de risco.
Nuvem
O que 400 executivos revelam sobre o futuro da adoção da IA
September 25, 2025
Saiba como um estudo da Forrester descobriu que a maioria das empresas já está usando IA para diferenciação competitiva, personalização e retenção de clientes.