Ogni rivoluzione tecnologica inizia con un periodo di centralizzazione. All'inizio, le fabbriche si concentravano lungo i fiumi, attratte dall'irresistibile forza dell'energia idrica. Le reti elettriche hanno trasformato intere economie, convogliando l'energia verso una serie di poli industriali. L'industria cinematografica ha seguito una strada simile, canalizzando enormi somme di denaro nei grandi studi e nelle loro reti di distribuzione strettamente controllate. Anche i contenuti e la sicurezza hanno iniziato con un periodo di centralizzazione.
Eppure, in ogni caso, ciascuno di questi sistemi si è, alla fine, spostato verso la decentralizzazione:
la produzione locale di energia ha sostituito il dominio dei monopoli regionali.
I servizi di streaming hanno rivoluzionato il tradizionale modello di spettacolo, portando l'intrattenimento direttamente nelle nostre case.
Le informazioni e i media si sono avvicinati all'edge, dove gli utenti vivono e lavorano, rendendo le notizie e l'intrattenimento più accessibili e immediati.
I contenuti si sono avvicinati agli utenti e la sicurezza si è spostata sul cloud per bloccare gli attacchi a livello locale prima che potessero raggiungere i loro obiettivi.
Il punto di inflessione dell'intelligenza artificiale di oggi
L'intelligenza artificiale ha raggiunto un simile punto di inflessione: non è in grado di scalare se esegue più operazioni simili. Nel nostro settore, ci siamo concentrati sulla creazione di modelli sempre più grandi in data center sempre più grandi. Ogni notizia si vanta di stipulare contratti da miliardi di dollari, campus di data center misurati in gigawatt e cluster di GPU da record. Ma più grande non è sinonimo di meglio. Non più.
Ora, la centralizzazione è diventata un vincolo. Ogni richiesta inviata attraverso i vari continenti spreca cicli preziosi, energia e denaro. La latenza compromette le user experience per operazioni finanziarie, pagamenti, giochi e conversazioni. Le reti elettriche sono sotto pressione. Le aziende spendono miliardi per addestrare i loro modelli, solo per scoprire che gli elevati costi di uscita e i secondi di ritardo li rendono impraticabili su larga scala.
L'esplosione dell'inferencing di domani
L'ascesa degli agenti intelligenti, dei sistemi autonomi e dell'AI fisica scatenerà un'esplosione di inferencing che supererà di gran lunga le richieste degli esseri umani per ordini di grandezza. Tutti i veicoli autonomi, i robot e i sistemi intelligenti diventeranno consumatori persistenti di inferencing distribuito sull'edge, integrando il computing locale nel modo con cui oggi ogni smartphone trasmette i video che non potrebbe mai memorizzare localmente.
La centralizzazione, tuttavia, non è l'unico vincolo. Oggi, l'intelligenza artificiale è frenata dalle preoccupazioni relative al fatto che non sia pronta per il grande pubblico, facendo nascere le seguenti domande:
Le risposte saranno accurate o il modello potrà generare allucinazioni?
Le experience saranno reattive o la latenza interromperà il flusso?
L'economia funzionerà o le bollette per l'inferencing seppelliranno il caso di utilizzo aziendale?
L'AI funzionerà in modo affidabile o fallirà in fase di produzione quando conta di più?
L'intelligenza artificiale sta distruggendo il modello di cloud obsoleto mentre le aziende devono affrontare l'aumento dei costi dell'inferencing e i problemi di latenza. I CFO si oppongono e i CIO cercano di riequilibrare silenziosamente i carichi di lavoro, facendo tutto il possibile per avvicinarsi ai luoghi in cui si trovano realmente i dati e gli utenti. L'ostacolo non è rappresentato dalle GPU, ma dalla prossimità.
È tempo di rompere gli schemi
Oggi, è stata lanciata l'Akamai Inference Cloud, una piattaforma che ridefinisce i luoghi e le modalità con cui l'intelligenza artificiale viene utilizzata ampliando l'inferencing dai data center centralizzati all'edge di Internet.
Basata su NVIDIA, l'Akamai Inference Cloud combina le competenze di Akamai nelle architetture distribuite a livello globale con l'infrastruttura basata sull'intelligenza artificiale di NVIDIA Blackwell e la leadership nel settore dell'AI per ripensare ed estendere radicalmente i sistemi necessari per sfruttare il vero potenziale dell'AI.
A differenza dei sistemi tradizionali, questa piattaforma è appositamente progettata per fornire l'elaborazione dell'AI sull'edge in tempo reale e a bassa latenza su scala globale, avvicinando l'infrastruttura di computing accelerata di NVIDIA alle posizioni in cui vengono creati i dati e in cui si svolgono i processi decisionali.
L'intelligence che riduce le distanze
Per decenni, la tecnologia ha premiato le aziende in grado di creare data center più grandi, gestire dataset di grandi dimensioni e rafforzare il loro controllo su computing e dati. Questa epoca ha prodotto una notevole potenza, ma ha anche aumentato la distanza tra dati e persone, nonché tra l'innovazione e gli accessi.
Ora, il vantaggio appartiene a coloro che riescono a ridurre questa distanza. L'intelligence che opera più vicino ai luoghi in cui serve sarà più utile di tutto ciò che è bloccato in un data center distante.
Avvicinate il futuro con Akamai
L'intelligenza artificiale sta ridefinendo l'infrastruttura cloud, spostando l'attenzione dalla potenza alla prossimità, dai megawatt ai millisecondi. Nessuna azienda riesce meglio di Akamai ad aiutare i clienti a gestire questa svolta. Non aspettiamo che arrivi il futuro, anticipiamolo.
Ulteriori informazioni
Con un comunicato stampa ufficiale, abbiamo annunciato il lancio dell'Akamai Inference Cloud e questo post del blog di Jon Alexander, Senior Vice President del reparto Products di Akamai, fornisce un'analisi più approfondita di cosa ha prodotto questa piattaforma. Per ulteriori informazioni sull'Akamai Inference Cloud, visitate il nostro sito web.
Tag