Analisi riassuntiva
L'Akamai Inference Cloud è una piattaforma cloud full-stack che consente alle organizzazioni di creare, proteggere e ottimizzare sull'edge le applicazioni basate sull'intelligenza artificiale.
La piattaforma è stata progettata per supportare sistemi agentici che si adattano agli utenti, comunicano con altri agenti e agiscono in tempo reale.
Le funzioni principali includono GPU NVIDIA Blackwell, sistemi Kubernetes gestiti, database vettoriali e sicurezza basata sull'AI.
La piattaforma supporta tre utenti specifici: tecnici addetti alle operazioni dell'apprendimento automatico, ingegneri AI e architetti di sistemi agentici.
L'Akamai Inference Cloud offre una base affidabile, sicura e scalabile per implementare ovunque gli avanzati sistemi basati sull'intelligenza artificiale.
Nel 2017, un articolo stilato da alcuni ricercatori ha cambiato in modo silenzioso il corso della tecnologia. Questo articolo dal titoloAttention Is All You Need ha introdotto l'architettura Transformer, un nuovo tipo di modello per l'elaborazione di linguaggio e dati che presto sarebbe stato alla base di quasi tutti i principali progressi compiuti nell'intelligenza artificiale (AI). All'epoca, la rivoluzione era limitata principalmente ai circoli accademici e degli sviluppatori.
Cinque anni dopo, nel novembre 2022, OpenAI ha lanciato ChatGPT. Per la prima volta, un pubblico più ampio ha potuto interagire in prima persona con un sistema basato su ciò che questa architettura ha reso possibile. È stato uno sguardo a un nuovo tipo di interfaccia, non solo con le macchine, ma con le stesse conoscenze.
Ora, appena tre anni dopo il lancio, OpenAI segnala più di 700 milioni di utenti attivi alla settimana.
Il World Economic Forum ha notato che l'intelligenza artificiale sta introducendo una doppia rivoluzione per la forza lavoro. Da un lato, l'automazione genera un'eccessiva capacità nei ruoli consolidati. Dall'altro lato, la domanda di intelligenza artificiale sta accelerando più rapidamente di quanto i sistemi di assunzione e istruzione possano adattarsi. Anche i vecchi modelli per il lavoro (e per il modo in cui prepariamo le persone a farlo) si stanno evolvendo rapidamente.
Questa è la fine dell'inizio.
Guardare indietro per andare avanti
Ventisette anni fa, il mondo si trovava in un punto di inflessione simile. Internet si stava espandendo rapidamente e le questioni relative a scalabilità, affidabilità e sicurezza non sono state risolte. In questo contesto, un gruppo di ricercatori del MIT ha fondato Akamai con una chiara missione: risolvere il problema del "World Wide Wait", ossia l'attesa su Internet,
avvicinando le funzionalità di computing, storage e networking ai luoghi in cui avvengono le operazioni di creazione e utilizzo, con un modello che da allora è stato spesso imitato.
L'ascesa dell'agentic web ci ha riportati al punto di partenza, reintroducendo nuove sfide su larga scala e in termini di prossimità, che risultano esclusive per l'intelligenza artificiale, e l'AI inferencing necessario per realizzarne il potenziale.
L'Akamai Inference Cloud, di cui abbiamo annunciato oggiil lancio, si basa sul lavoro dell'architettura distribuita che abbiamo introdotto quasi trent'anni fa per espandere l'AI inferencing dai data center centralizzati sull'edge e, ancora una volta, per rimuovere i colli di bottiglia e superare i limiti dell'infrastruttura centralizzata.
L'agentic web
Questa nuova generazione di sistemi intelligenti non attende più comandi o input umani; osserva, motiva e agisce per conto degli utenti che esprimono il loro intento nel linguaggio naturale. Questi sistemi prendono iniziative, si coordinano con altri sistemi e forniscono risultati senza istruzioni dettagliate: si parla così di agentic web.
L'agentic web sta cambiando il modo con cui persone e macchine interagiscono con i servizi digitali. Le experience stanno diventando conversazionali, multimodali e personalizzate. Le interfacce si adattano alle intenzioni degli utenti, non il contrario. Una persona potrebbe chiedere una referenza e riceverla sotto forma di riassunto vocale, come confronto visivo o in un'analisi scritta in base alle preferenze, al contesto e al dispositivo utilizzati. Il sistema seleziona il formato e il tono più adatti.
Le interazioni basate sugli agenti hanno bisogno di nuovi modi per supportarle
Man mano che le interazioni basate sugli agenti diventano sempre più diffuse, le aziende hanno bisogno di nuovi modi per supportarle. L'inferencing deve avvicinarsi agli utenti. I tempi di risposta devono essere prevedibili e ridotti. Strumenti e memoria devono essere disponibili in tempo reale. L'intero stack deve supportare gli agenti che lavorano per conto di utenti e sistemi, non solo la gestione di richieste una tantum.
Questo cambiamento è già in corso, ma oggi le piattaforme cloud centralizzate non sono state progettate per supportare tutte queste esigenze. Le aziende sono costrette a scegliere tra infrastrutture basilari e soluzioni limitate. Manca una piattaforma creata appositamente per l'intelligenza artificiale, una piattaforma in grado di ridurre le complessità, accelerare lo sviluppo e offrire comportamenti intelligenti su scala globale.
L'Akamai Inference Cloud rende possibile il futuro
L'Akamai Inference Cloud soddisfa queste esigenze future. Il suo approccio al cloud e all'intelligenza artificiale è incentrato sulle esigenze di sistemi e applicazioni agentici che si adattano agli utenti, comunicano con altri agenti e agiscono in tempo reale.
La sua esclusiva architettura distribuita è progettata specificamente per supportare questi modelli, offrendo performance elevate per le funzioni di elaborazione, storage e coordinamento necessarie per i complessi carichi di lavoro dell'inferencing e avvicinando le caratteristiche di routing, controllo e reattività all'utente.
I nostri clienti devono affrontare quattro missioni critiche:
Potenziare le applicazioni basate sull'intelligenza artificiale
Gestire l'intelligenza artificiale come nuovo canale di traffico
Utilizzare agenti basati sull'intelligenza artificiale per i carichi di lavoro aziendali
Consentire ai dipendenti di utilizzare l'intelligenza artificiale in modo responsabile
Potenziare le applicazioni basate sull'intelligenza artificiale
Ogni azienda incorporerà l'intelligenza artificiale nelle proprie applicazioni. Questa sarà la fase successiva dell'architettura delle applicazioni, dalla progettazione reattiva al multi-cloud e ora ai sistemi in tempo reale integrati nell'intelligenza artificiale. Akamai rimane l'affidabile struttura portante che abilita e protegge ogni evoluzione.
Gestire l'intelligenza artificiale come nuovo canale di traffico
Gli utenti raggiungono i brand tramite piattaforme basate sull'intelligenza artificiale come una volta avveniva attraverso ricerche, social media o dispositivi mobili. Tutti i brand, le app e le API dovranno distinguere le interazioni con l'intelligenza artificiale desiderate da quelle non desiderate e gestire il traffico dell'AI in modo intelligente per trasformarlo da rischio in opportunità.
Utilizzare agenti basati sull'intelligenza artificiale per i carichi di lavoro aziendali
I nostri clienti utilizzano agenti basati sull'intelligenza artificiale per gestire parti della loro attività, dalla gestione dell'infrastruttura all'analisi dei dati. Gli agenti hanno bisogno di accedere ad eccellenti risorse associate ai sistemi interni ed esterni, ma con barriere di protezione appropriate (fiducia, identità, osservabilità e sicurezza), in modo che le aziende possano scalare i propri ambienti basati sull'intelligenza artificiale con sicurezza ed efficienza.
Consentire ai dipendenti di utilizzare l'intelligenza artificiale in modo responsabile
I dipendenti di tutte le aziende utilizzano servizi basati sull'intelligenza artificiale: Copilot, Cursor, ChatGPT, Claude e molti altri. Le aziende devono gestire l'uso responsabile, i costi e la protezione dei dati legati a questo utilizzo.
L'Akamai Inference Cloud consente di scalare l'inferencing.
Che cos'è l'Akamai Inference Cloud?
L'Akamai Inference Cloud è una piattaforma cloud full-stack progettata per creare, proteggere e ottimizzare la prossima generazione di applicazioni basate sull'intelligenza artificiale, che offre funzionalità di computing, storage, networking, coordinamento, sicurezza e strumenti per sviluppatori allineati ai requisiti specifici dell'inferencing in tempo reale, sistemi agentici e intelligence più vicino all'utente (Tabella).
Creare |
Proteggere |
Ottimizzare |
|
|---|---|---|---|
Problemi |
|
|
|
Soluzioni |
Infrastruttura intelligente distribuita con una piattaforma per sviluppatori |
Gestione dei bot basata sull'intelligenza artificiale e sicurezza delle API (app, API e sistemi di protezione basati sull'AI, che operano con i sistemi di gestione dei bot basati sull'intelligenza artificiale) |
Rete di connettività dell'AI per persone e agenti |
Prodotti |
|
|
|
L'Akamai Inference Cloud è una piattaforma cloud full-stack progettata per creare, proteggere e ottimizzare la prossima generazione di applicazioni basate sull'intelligenza artificiale
A chi si rivolge
L'Akamai Inference Cloud è una piattaforma modulare che soddisfa i clienti ovunque. Sia durante l'utilizzo di endpoint delle API ospitati da OpenAI e Gemini nelle app o per la creazione di un workflow agentico basato sui modelli ottimizzati, l'Akamai Inference Cloud consente di creare, proteggere e ottimizzare sull'edge.
Nello specifico, siamo in grado di soddisfare tre utenti specifici:
Tecnici delle operazioni dell'apprendimento automatico (MLOps): ingegneri che automatizzano l'intero ciclo di vita dell'apprendimento automatico per garantire che i modelli vengano continuamente riaddestrati, implementati e monitorati per garantire elevate performance in fase di produzione
Ingegneri AI: data scientist o ingegneri informatici che creano applicazioni agentiche end-to-end, spesso utilizzando modelli preaddestrati, e colmano il divario esistente tra la ricerca sul data science e il software di produzione
Architetti di sistemi agentici: si tratta dell'evoluzione dell'architetto di sistemi tradizionale che progetta, crea e gestisce complessi sistemi agentici autonomi in grado di motivare, pianificare, agire e adattarsi in modo indipendente per raggiungere obiettivi aziendali di alto livello
Con l'Akamai Inference Cloud, non stiamo bloccando gli utenti in un paradigma o una soluzione specifici, ma offriamo ai clienti la flessibilità di noleggiare l'infrastruttura, sviluppare su una piattaforma senza server e combinare in modo semplice sistemi complessi in base alle loro preferenze.
Lo stack dell'intelligenza artificiale di NVIDIA è più vicino ai luoghi in cui avvengono i processi decisionali
Il 28 ottobre 2025, abbiamo annunciato il lancio dell'Akamai Inference Cloud con l'obiettivo di introdurre l'AI inferencing sull'edge, ossia dove viene richiesto per offrire experience personalizzate, prendere decisioni in tempo reale e utilizzare gli agenti intelligenti.
Ora, i clienti possono accedere alla più recente generazione di GPU NVIDIA Blackwell, insieme al networking NVIDIA BlueField, alla memoria multilivello su GDDR7, DRAM e NVMe, allo storage a blocchi e oggetti scalabile e performante, ai database vettoriali gestiti e al networking virtuale su cloud privato.
Un tecnico MLOps può noleggiare una singola GPU ogni ora o costruire un cluster di inferencing performante, che contiene fino a 8 GPU NVIDIA RTX PRO™ 6000 Blackwell Server Edition, DPU NVIDIA BlueField-3Ⓡ, 128 vCPU, 1472 GB di DRAM e 8192 GB di NVMe (Figura 1).
Le GPU NVIDIA Blackwell offrono performance straordinarie. La piattaforma Akamai Inference Cloud è ottimizzata per il tempo per il primo byte (TTFB) e i token al secondo (TPS). Insieme con l'infrastruttura edge distribuita di Akamai, l'Akamai Inference Cloud può ridurre la latenza per le applicazioni intelligenti interattive in tempo reale.
Le GPU NVIDIA Blackwell offrono performance straordinarie, come descritto nella nostra prossima analisi di benchmarking.
Distribuire e monitorare le applicazioni agentiche con l'App Platform
Per aiutare ulteriormente gli ingegneri che progettano piattaforme, non ci limitiamo a fornire semplicemente le infrastrutture, ma consentiamo a questi tecnici di implementare e monitorare facilmente le applicazioni agentiche con la nostra piattaforma cloud-native pre-progettata che semplifica l'implementazione di grandi modelli linguistici (LLM), agenti e Knowledge Base su larga scala.
La piattaforma è altamente personalizzabile, ma categorica: accelera l'implementazione, riduce i costi operativi e include componenti pre-integrati predisposti per l'intelligenza artificiale come database vettoriali, sistemi LLM e API compatibili con OpenAI in un unico portale self-service. L'App Platform è ottimizzata per l'esecuzione su LKE, il motore Kubernetes gestito da Akamai, e può essere eseguita su qualsiasi cluster Kubernetes compatibile.
L'App Platform for LKE integra una suite di oltre 30 affidabili strumenti open source CNCF (Cloud Native Computing Foundation), tra cui KServe, un sistema Kubernetes nativo per la gestione e la scalabilità dei modelli di apprendimento automatico in fase cdi produzione, e Kubeflow Pipelines, una piattaforma per la creazione, l'implementazione e la gestione dei workflow ML su Kubernetes.
L'App Platform fornisce sia il sistema Kubernetes che i componenti dell'intelligenza artificiale necessari agli ingegneri per realizzare la propria piattaforma basata sull'AI. Ciò consente di evitare interventi manuali degli utenti che richiedono una notevole integrazione durante la creazione e la manutenzione della propria piattaforma basata su Kubermetes o dello stack personalizzato (Figura 2).
La piattaforma Akamai Inference Cloud: progettata per le integrazioni nel software NVIDIA AI Enterprise
La piattaforma software NVIDIA AI Enterprise è stata progettata per semplificare il percorso dallo sviluppo dell'intelligenza artificiale alla produzione. Questa suite cloud-native accelera e semplifica le modalità di creazione, implementazione e scalabilità delle applicazioni basate sull'intelligenza artificiale. Utilizzando potenti strumenti come i microservizi di inferencing di NVIDIA (NIM) e i microservizi dei moduli neurali (NeMo), è possibile ridurre i costi dell'infrastruttura e accelerare notevolmente il time-to-market (Figura 3).
L'Akamai Inference Cloud si sta evolvendo con funzionalità native per adattarsi all'intera suite di software NVIDIA AI Enterprise. La piattaforma offre una base affidabile, sicura e scalabile per le organizzazioni di tutte le dimensioni, in grado di implementare gli avanzati sistemi basati sull'intelligenza artificiale ovunque (nel cloud, nel data center o sull'edge), il tutto supportato da un ampio ecosistema di partner.
Ulteriori informazioni
L'Akamai Inference Cloud si sta evolvendo rapidamente con il lancio di molti nuovi prodotti previsto per il 2026. Seguite il blog di Akamai o visitate il nostro sito web per ulteriori informazioni sull'Akamai Inference Cloud.
Tag