Come utilizzare l'intelligenza artificiale ovunque con l'Akamai Inference Cloud

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

scritto da

Adam Karon

Adam Karon è Executive Vice President & General Manager della divisione Media & Carrier di Akamai. In veste di General Manager, è responsabile delle funzioni centrali di sviluppo tecnico e di prodotto, gestione prodotti, vendita, canali, progettazione vendite e marketing della divisione Media & Carrier. Si occupa in particolare di aiutare le principali aziende dei comparti software, gaming e media a distribuire ai propri clienti le migliori experience possibili, su larga scala, ovunque e su qualsiasi dispositivo e di consentire agli operatori di gestire reti economicamente vantaggiose e dalle performance elevate.

Condividi

Ogni rivoluzione tecnologica inizia con un periodo di centralizzazione. All'inizio, le fabbriche si concentravano lungo i fiumi, attratte dall'irresistibile forza dell'energia idrica. Le reti elettriche hanno trasformato intere economie, convogliando l'energia verso una serie di poli industriali. L'industria cinematografica ha seguito una strada simile, canalizzando enormi somme di denaro nei grandi studi e nelle loro reti di distribuzione strettamente controllate. Anche i contenuti e la sicurezza hanno iniziato con un periodo di centralizzazione.

Eppure, in ogni caso, ciascuno di questi sistemi si è, alla fine, spostato verso la decentralizzazione:

  • la produzione locale di energia ha sostituito il dominio dei monopoli regionali. 

  • I servizi di streaming hanno rivoluzionato il tradizionale modello di spettacolo, portando l'intrattenimento direttamente nelle nostre case. 

  • Le informazioni e i media si sono avvicinati all'edge, dove gli utenti vivono e lavorano, rendendo le notizie e l'intrattenimento più accessibili e immediati. 

  • I contenuti si sono avvicinati agli utenti e la sicurezza si è spostata sul cloud per bloccare gli attacchi a livello locale prima che potessero raggiungere i loro obiettivi.

Il punto di inflessione dell'intelligenza artificiale di oggi

L'intelligenza artificiale ha raggiunto un simile punto di inflessione: non è in grado di scalare se esegue più operazioni simili. Nel nostro settore, ci siamo concentrati sulla creazione di modelli sempre più grandi in data center sempre più grandi. Ogni notizia si vanta di stipulare contratti da miliardi di dollari, campus di data center misurati in gigawatt e cluster di GPU da record. Ma più grande non è sinonimo di meglio. Non più.

Ora, la centralizzazione è diventata un vincolo. Ogni richiesta inviata attraverso i vari continenti spreca cicli preziosi, energia e denaro. La latenza compromette le user experience per operazioni finanziarie, pagamenti, giochi e conversazioni. Le reti elettriche sono sotto pressione. Le aziende spendono miliardi per addestrare i loro modelli, solo per scoprire che gli elevati costi di uscita e i secondi di ritardo li rendono impraticabili su larga scala.

L'esplosione dell'inferencing di domani

L'ascesa degli agenti intelligenti, dei sistemi autonomi e dell'AI fisica scatenerà un'esplosione di inferencing che supererà di gran lunga le richieste degli esseri umani per ordini di grandezza. Tutti i veicoli autonomi, i robot e i sistemi intelligenti diventeranno consumatori persistenti di inferencing distribuito sull'edge, integrando il computing locale nel modo con cui oggi ogni smartphone trasmette i video che non potrebbe mai memorizzare localmente.

La centralizzazione, tuttavia, non è l'unico vincolo. Oggi, l'intelligenza artificiale è frenata dalle preoccupazioni relative al fatto che non sia pronta per il grande pubblico, facendo nascere le seguenti domande:

  • Le risposte saranno accurate o il modello potrà generare allucinazioni?

  • Le experience saranno reattive o la latenza interromperà il flusso?

  • L'economia funzionerà o le bollette per l'inferencing seppelliranno il caso di utilizzo aziendale?

  • L'AI funzionerà in modo affidabile o fallirà in fase di produzione quando conta di più?

L'intelligenza artificiale sta distruggendo il modello di cloud obsoleto mentre le aziende devono affrontare l'aumento dei costi dell'inferencing e i problemi di latenza. I CFO si oppongono e i CIO cercano di riequilibrare silenziosamente i carichi di lavoro, facendo tutto il possibile per avvicinarsi ai luoghi in cui si trovano realmente i dati e gli utenti. L'ostacolo non è rappresentato dalle GPU, ma dalla prossimità.

È tempo di rompere gli schemi

Oggi, è stata lanciata l'Akamai Inference Cloud, una piattaforma che ridefinisce i luoghi e le modalità con cui l'intelligenza artificiale viene utilizzata ampliando l'inferencing dai data center centralizzati all'edge di Internet.

Basata su NVIDIA, l'Akamai Inference Cloud combina le competenze di Akamai nelle architetture distribuite a livello globale con l'infrastruttura basata sull'intelligenza artificiale di NVIDIA Blackwell e la leadership nel settore dell'AI per ripensare ed estendere radicalmente i sistemi necessari per sfruttare il vero potenziale dell'AI.

A differenza dei sistemi tradizionali, questa piattaforma è appositamente progettata per fornire l'elaborazione dell'AI sull'edge in tempo reale e a bassa latenza su scala globale, avvicinando l'infrastruttura di computing accelerata di NVIDIA alle posizioni in cui vengono creati i dati e in cui si svolgono i processi decisionali.

L'intelligence che riduce le distanze

Per decenni, la tecnologia ha premiato le aziende in grado di creare data center più grandi, gestire dataset di grandi dimensioni e rafforzare il loro controllo su computing e dati. Questa epoca ha prodotto una notevole potenza, ma ha anche aumentato la distanza tra dati e persone, nonché tra l'innovazione e gli accessi.

Ora, il vantaggio appartiene a coloro che riescono a ridurre questa distanza. L'intelligence che opera più vicino ai luoghi in cui serve sarà più utile di tutto ciò che è bloccato in un data center distante.

Avvicinate il futuro con Akamai

L'intelligenza artificiale sta ridefinendo l'infrastruttura cloud, spostando l'attenzione dalla potenza alla prossimità, dai megawatt ai millisecondi. Nessuna azienda riesce meglio di Akamai ad aiutare i clienti a gestire questa svolta. Non aspettiamo che arrivi il futuro, anticipiamolo.

Ulteriori informazioni

Con un comunicato stampa ufficiale, abbiamo annunciato il lancio dell'Akamai Inference Cloud e questo post del blog di Jon Alexander, Senior Vice President del reparto Products di Akamai, fornisce un'analisi più approfondita di cosa ha prodotto questa piattaforma. Per ulteriori informazioni sull'Akamai Inference Cloud, visitate il nostro sito web.

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

scritto da

Adam Karon

Adam Karon è Executive Vice President & General Manager della divisione Media & Carrier di Akamai. In veste di General Manager, è responsabile delle funzioni centrali di sviluppo tecnico e di prodotto, gestione prodotti, vendita, canali, progettazione vendite e marketing della divisione Media & Carrier. Si occupa in particolare di aiutare le principali aziende dei comparti software, gaming e media a distribuire ai propri clienti le migliori experience possibili, su larga scala, ovunque e su qualsiasi dispositivo e di consentire agli operatori di gestire reti economicamente vantaggiose e dalle performance elevate.

Tag

Condividi

Blog correlati

Cloud
AI: L'edge è tutto ciò che vi serve
October 28, 2025
Scoprite in che modo l'Akamai Inference Cloud è stata realizzata sulla base dell'architettura distribuita che abbiamo introdotto quasi 30 anni fa per espandere l'AI inferencing sull'edge.
Cloud
In che modo le aziende stanno bilanciando rischi e innovazione dell'intelligenza artificiale
September 15, 2025
Un nuovo rapporto di Forrester, commissionato da Akamai, rivela come le aziende perseguono l'innovazione dell'intelligenza artificiale su vasta scala senza esporle a livelli di rischio inaccettabili.
Cloud
Cosa dicono 400 dirigenti sul futuro dell'adozione dell'intelligenza artificiale
September 25, 2025
Scoprite come uno studio di Forrester abbia scoperto che la maggior parte delle aziende utilizza già l'intelligenza artificiale per la differenziazione dalla concorrenza, la personalizzazione e la fidelizzazione.