KI: Auf die Edge kommt es an

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

Verfasser

Jon Alexander

Jon Alexander ist VP of Product Management und verantwortlich für das Portfolio der Akamai Edge-Bereitstellung, einschließlich der CDN- und Origin-Services-Produkte.

Teilen

Zusammenfassung

  • Die Akamai Inference Cloud ist eine Full-Stack-Cloud-Plattform, mit der Unternehmen KI-basierte Anwendungen an der Edge entwickeln, schützen und optimieren können.

  • Die Plattform wurde entwickelt, um agentische Systeme zu unterstützen, die sich an Nutzer anpassen, mit anderen Agents kommunizieren und in Echtzeit agieren.

  • Zu den wichtigsten Merkmalen gehören NVIDIA Blackwell GPUs, verwaltetes Kubernetes, Vektordatenbanken und KI-bewusste Sicherheit.

  • Die Plattform verschafft drei spezifischen Nutzergruppen das notwendige Handwerkszeug: MLOps (Machine Learning Operation Engineers, Operation Engineers für maschinelles Lernen), KI-Ingenieuren und Agentic System Architects (Architekten für agentische Systeme).

  • Die Akamai Inference Cloud bietet eine zuverlässige, sichere und skalierbare Grundlage für die Bereitstellung fortschrittlicher KI-Systeme an jedem Ort.

Im Jahr 2017 sorgte eine Studie ganz beiläufig für einen technologischen Wandel. Mit Attention Is All You Need wurde die Transformer-Architektur eingeführt: ein neues Modell für die Verarbeitung von Sprache und Daten, das sich schnell als maßgeblich für fast jede wichtige Weiterentwicklung bei künstlicher Intelligenz (KI) erwiesen hat. Zu diesem Zeitpunkt war der Durchbruch hauptsächlich auf akademische und Entwicklerkreise beschränkt.

Fünf Jahre später, im November 2022, führte OpenAI ChatGPT ein. Zum ersten Mal konnte die breite Öffentlichkeit selbst mit einem System interagieren, das auf dem basiert, was diese Architektur möglich gemacht hat. Es war ein Einblick in eine neuartige Schnittstelle – nicht nur zu Maschinen, sondern auch zu eigentlichem Wissen. 

Inzwischen – nur drei Jahre nach der Einführung – verzeichnet OpenAI über 700 Millionen aktive Nutzer pro Woche. 

Das Weltwirtschaftsforum stellte fest: KI wirkt sich in zweierlei Hinsicht disruptiv auf die Belegschaft aus. Einerseits führt die Automatisierung zu Überkapazitäten in etablierten Rollen. Andererseits wächst die Nachfrage nach KI-Kompetenz so schnell, dass Schulungs- und Einstellungssysteme Mühe haben, sich daran anzupassen. Die alten Arbeitsmodelle – und wie wir die Mitarbeiter darauf vorbereiten – entwickeln sich schnell weiter.

Dies ist das Ende vom Anfang.

Zurückblicken, um nach vorne zu gehen

Vor 27 Jahren stand die Welt an einem ähnlichen Wendepunkt. Das Internet expandierte schnell, und viele Fragen zu Skalierbarkeit, Zuverlässigkeit und Sicherheit waren ungelöst. Aus diesem Zusammenhang heraus gründete eine Forschergruppe am MIT Akamai mit einer klaren Mission: das Internet zu beschleunigen und eine Lösung für das sogenannte „World Wide Wait“ zu finden. 

Hierfür wurde ein seitdem häufig nachgeahmtes Modell entwickelt, dass Rechen-, Speicher- und Netzwerkkapazitäten näher an die Punkte gebracht hat, an denen Inhalte erstellt und konsumiert werden.

Mit dem Aufkommen des agentischen Internets hat sich dieser Kreis geschlossen und es sind neue Herausforderungen in Bezug auf Skalierung und Nähe entstanden, die spezifisch für die KI und die zur Ausschöpfung von deren Potenzial erforderliche Inferenz sind. 

Die heute vorgestellte Akamai Inference Cloud baut auf der von uns vor fast drei Jahrzehnten federführend entwickelten dezentralen Architektur auf und erweitert die KI-Inferenz von zentralen Rechenzentren hin zur Edge, um wieder einmal Engpässe zu beseitigen und die Grenzen einer zentralisierten Infrastruktur zu überwinden.

Das agentische Internet

Diese neue Generation intelligenter Systeme wartet nicht mehr auf menschliche Befehle oder Eingaben. Sie beobachten, entscheiden und handeln im Namen von Nutzern, die ihre Absicht in natürlicher Sprache ausdrücken. Diese Systeme ergreifen die Initiative, koordinieren sich mit anderen Systemen und liefern ohne Schritt-für-Schritt-Anweisungen Ergebnisse. Dies ist das agentische Internet.

Das agentische Internet verändert die Interaktion von Menschen und Maschinen mit digitalen Diensten. Erlebnisse erlangen Dialogcharakter, werden multimodal und personalisiert. Schnittstellen passen sich an die Absicht des Nutzers an, nicht umgekehrt. Je nach Vorlieben, Kontext und Gerät kann eine Person um eine Empfehlung bitten und diese in Form einer kommentierten Zusammenfassung, eines visuellen Vergleichs oder einer schriftlichen Aufschlüsselung erhalten. Das System wählt das Format und den Ton aus, die am besten geeignet sind.

Agentgesteuerte Interaktionen erfordern neue Support-Ansätze

Agentgesteuerte Interaktionen verbreiten sich immer mehr und Unternehmen benötigen daher neue Support-Ansätze. Die Inferenz muss näher an die Nutzer gebracht werden. Reaktionszeiten müssen vorhersehbar und gering sein. Tools und Speicher müssen in Echtzeit verfügbar sein. Der gesamte Stack muss Agents unterstützen, die im Auftrag von Nutzern und Systemen arbeiten, und nicht nur einmalige Anfragen bearbeiten.

Dieser Wandel ist bereits im Gange, aber die heutigen zentralisierten Cloudplattformen wurden nicht dafür entwickelt. Unternehmen haben lediglich die Wahl zwischen einer reinen Infrastruktur und eingeschränkten Lösungen. Was fehlt, ist eine speziell für agentische KI entwickelte Plattform, die die Komplexität reduziert, die Entwicklung beschleunigt und sich im globalen Maßstab intelligent verhält.

Die Akamai Inference Cloud macht die Zukunft möglich

Die Akamai Inference Cloud macht diese Zukunft möglich. Ihr Ansatz für Cloud und KI konzentriert sich auf die Anforderungen agentischer Systeme und Anwendungen, die sich an Nutzer anpassen, mit anderen Agents kommunizieren und in Echtzeit agieren. 

Ihre einzigartige verteilte Architektur wurde speziell entwickelt, um diese Muster zu unterstützen. Auf diese Weise werden die für komplexe Inferenz-Workloads erforderlichen hochleistungsfähigen Rechen-, Speicher- und Orchestrierungskapazitäten sowie Routing, Kontrolle und Reaktionsfähigkeit näher an die Nutzer gebracht.  

Unsere Kunden stehen vor vier kritischen Herausforderungen:

  1. KI-fähige Anwendungen betreiben

  2. KI als neuen Traffic-Kanal verwalten

  3. KI-Agents für Unternehmens-Workloads ausstatten

  4. Verantwortungsvolle Nutzung von KI durch Mitarbeiter ermöglichen

KI-fähige Anwendungen betreiben

Jedes Unternehmen wird Informationen in seine Anwendungen integrieren. Dies stellt die nächste Stufe der Anwendungsarchitektur dar – von responsivem Design über Multicloud bis hin zu KI-integrierten Echtzeit-Systemen. Akamai bleibt das vertrauenswürdige Rückgrat, das jede Entwicklung ermöglicht und sichert.

KI als neuen Traffic-Kanal verwalten

Nutzer erreichen Marken über KI-Plattformen genauso wie früher über die Suche, soziale Netzwerke oder Mobilgeräte. Alle Marken, Anwendungen und APIs müssen erwünschte und unerwünschte KI-Interaktionen definieren und diesen Traffic intelligent verwalten, damit KI-Traffic zur Chance wird und kein Risiko darstellt.

KI-Agents für Unternehmens-Workloads ausstatten

Unsere Kunden nutzen KI-Agents, um Teile ihres Geschäfts zu betreiben – vom Infrastrukturmanagement bis zur Datenanalyse. Agents benötigen Zugriff auf erstklassige Ressourcen, die mit internen und externen Systemen verbunden, dabei jedoch mit entsprechenden Leitlinien – Vertrauen, Identität, Beobachtbarkeit und Sicherheit – ausgestattet sind, damit Unternehmen ihre KI-betriebenen Umgebungen zuverlässig und effizient skalieren können.

Verantwortungsvolle Nutzung von KI durch Mitarbeiter ermöglichen

Mitarbeiter in allen Unternehmen nutzen KI-Services wie CoPilot, Cursor, ChatGPT, Claude und andere. Unternehmen müssen dabei für verantwortungsvolle Nutzung, Kosten und Datenschutz Sorge tragen.

Die Akamai Inference Cloud ermöglicht die Skalierung von Inferenz.

Was ist die Akamai Inference Cloud?

Die Akamai Inference Cloud ist eine Full-Stack-Cloudplattform, die entwickelt wurde, um intelligente Anwendungen der nächsten Generation mit KI-Technologie zu entwickeln, zu schützen und zu optimieren. Sie bietet Rechen-, Speicher-, Netzwerk-, Orchestrierungs-, Sicherheits- und Entwicklertools, die auf die spezifischen Anforderungen von Echtzeit-Inferenz, agentischen Systemen und Informationen ausgerichtet sind, die näher am Nutzer liegen (Tabelle).

 

 

Entwickeln

Schützen

Optimieren

Die Problemstellungen

  • APIs zu hosten ist teuer

  • Zentralisierte Inferenz ist langsam

  • Das Hosten eigener Modelle ist schwierig

     

     

     

  • KI-Bots schöpfen Inhalte ab

  • KI-Endpunkte geben ungewollt sensible Daten frei

  • KI-Endpunkte werden missbraucht

  • Cyberkriminelle nutzen DDoS- und Überlastungsangriffe

  • Das traditionelle Web ist für KI-Suchen unsichtbar

  • KI-Schnittstellen sind langsam

  • Die Kosten können eskalieren

  • Agents benötigen einen Rahmen für Erkennung, Authentifizierung, Identität, Vertrauen usw.

     

Die Lösung(en)

Verteilte intelligente Infrastruktur mit einer Entwicklerplattform 

KI-bewusstes Bot-Management und API-Sicherheit (Anwendungs-, API- und KI-Schutz in Verbindung mit KI-bewusstem Bot-Management)

KI-Konnektivitätsnetz für Menschen und Agents 

Die Produkte

  • NVIDIA Blackwell GPUs

  • NVIDIA BlueField DPUs

  • Managed K8s

  • K8-Entwicklerplattform 

  • Vektordatenbank

  • Object/Block Storage

  • Backups und Snapshots

  • VPC

  • Funktionen

 

  • AEO/GEO

  • Semantisches Caching

  • LLM-Ratenbeschränkungen und Kontingente

  • MCP-Server

  • CDN-Beschleunigung

  • Funktionen

  • Transparenz

     

Die Akamai Inference Cloud ist eine Full-Stack-Cloudplattform, die entwickelt wurde, um intelligente Anwendungen der nächsten Generation mit KI-Technologie zu entwickeln, zu schützen und zu optimieren.

Für wen entwickeln wir?

Die Akamai Inference Cloud ist eine modulare Plattform, die unseren Kunden genau das bietet, was sie benötigen. Ganz gleich, ob Sie gehostete API-Endpunkte von OpenAI und Gemini in Ihren Anwendungen nutzen oder einen agentischen Workflow um Ihre eigenen, punktgenau abgestimmten Modelle herum erstellen – die Akamai Inference Cloud ermöglicht Ihnen Erstellung, Schutz und Optimierung an der Edge. 

Insbesondere haben wir drei bestimmte Nutzertypen bedacht:

  1. MLOPs (Machine Learning Operations Engineers, Operation Engineers für maschinelles Lernen): Ingenieure, die den gesamten Lebenszyklus des maschinellen Lernens automatisieren, um sicherzustellen, dass Modelle kontinuierlich neu trainiert, bereitgestellt und auf Leistung in der Produktion überwacht werden

  2. KI-Ingenieure: Data Scientists oder Softwareingenieure, die agentische End-to-End-Anwendungen erstellen, häufig unter Verwendung vortrainierter Modelle, und die Lücke zwischen datenwissenschaftlicher Forschung und Produktionssoftware schließen

  3. Agentische System Architects: System Architects, die über das herkömmliche System hinaus komplexe, autonome agentische Systeme entwickeln, die in der Lage sind, unabhängig voneinander zu denken, zu planen, zu handeln und sich anzupassen, um übergeordnete Geschäftsziele zu erreichen

Mit der Akamai Inference Cloud werden Nutzer nicht auf ein bestimmtes Paradigma oder eine bestimmte Lösung festgelegt. Vielmehr bieten wir Kunden die Flexibilität, Infrastruktur zu mieten, auf einer serverlosen Plattform zu entwickeln und komplexe Systeme ihren Präferenzen entsprechend nahtlos zu kombinieren. 

Den KI-Stack von NVIDIA näher an die entscheidenden Stellen bringen

Am 28. Oktober 2025 haben wir die Akamai Inference Cloud vorgestellt, die zum Ziel hat, intelligente, agentbasierte KI-Inferenz an die Edge zu bringen, wo dies für personalisierte Erlebnisse, Echtzeit-Entscheidungen und intelligente Agents erforderlich ist. 

Kunden haben nun Zugriff auf die neueste Generation von NVIDIA Blackwell GPUs in Verbindung mit NVIDIA Bluefield Netzwerken, mehrstufigem Speicher über GDDR7, DRAM und NVMe, leistungsfähigem, skalierbarem Block- und Objektspeicher, verwalteten Vektordatenbanken und virtuellen Private-Cloud-Netzwerken.

Ein MLOps-Engineer kann eine einzelne GPU stundenweise mieten oder einen leistungsstarken Inferenzcluster mit bis zu 8 NVIDIA RTX PRO™ 6000 Blackwell Server Edition GPUs, NVIDIA BlueField-3Ⓡ DPUs, 128 vCPUs, 1.472 GB DRAM und 8.192 GB NVMe erstellen (Abbildung 1).

NVIDIA Blackwell GPUs bieten unglaubliche Performance.  Die Akamai Inference Cloud ist für Übertragungszeit bis zum ersten Token (Time to First Token, TTFT) und Token pro Sekunde (TPS) optimiert. In Kombination mit der verteilten Edge-Infrastruktur von Akamai kann die Akamai Inference Cloud die Latenz für intelligente interaktive und Echtzeit-Anwendungen reduzieren. 

NVIDIA Blackwell GPUs bieten eine unglaubliche Performance, wie in unserer bevorstehenden Benchmark-Analyse beschrieben.

Bereitstellen und Überwachen von agentischen Anwendungen mit App Platform

Um Platform Engineers weiter zu unterstützen, gehen wir über die reine Bereitstellung von Infrastruktur hinaus. Platform Engineers können agentische Anwendungen mit unserer vorkonfigurierten nativen Cloudplattform einfach bereitstellen und überwachen. Auf diese Weise lassen sich große Sprachmodelle (LLMs), Agents und Wissensdatenbanken ganz einfach bereitstellen und skalieren. 

Die Plattform ist hochgradig anpassbar, aber dennoch flexibel – sie beschleunigt die Bereitstellung, reduziert den Betriebsaufwand und umfasst vorintegrierte KI-fähige Komponenten wie Vektordatenbanken, LLM-Frameworks und OpenAI-kompatible APIs in einem einheitlichen Self-Service-Portal. App Platform ist für die Ausführung auf LKE – der verwalteten Kubernetes-Engine von Akamai – optimiert und kann an alle konformen Kubernetes-Cluster übertragen werden.  

App Platform for LKE integriert eine Suite von über 30 vertrauenswürdigen Open-Source-Tools der Cloud Native Computing Foundation (CNCF), darunter KServe, ein Kubernetes-natives Framework für die Bereitstellung und Skalierung von Modellen für maschinelles Lernen in der Produktion, und Kubeflow Pipelines, eine Plattform für die Erstellung, Bereitstellung und Verwaltung von ML-Workflows in Kubernetes. 

App Platform bietet sowohl das Kubernetes-Framework als auch die KI-Komponenten, die Softwareingenieure benötigen, um ihre eigene KI-Plattform zu erstellen. So vermeiden Sie selbst entwickelte Ansätze, die zu hohem Integrationsaufwand bei der Erstellung und Wartung Ihrer eigenen Kubernetes-basierten Plattform oder Ihres maßgeschneiderten Stacks führen (Abbildung 2).

Akamai Inference Cloud – entwickelt für NVIDIA AI Enterprise-Integrationen

NVIDIA AI Enterprise ist die Softwareplattform, die entwickelt wurde, um Ihren Weg von der KI-Entwicklung zur Produktion zu optimieren. Die cloudnative Suite beschleunigt und vereinfacht die Erstellung, Bereitstellung und Skalierung von KI-Anwendungen. Mit leistungsstarken Tools wie NVIDIA Inference Microservices (NIM) und Neural Modules (NeMo) Microservices können Sie Infrastrukturkosten senken und Ihre Markteinführungszeit spürbar verkürzen (Abbildung 3). 

Die Akamai Inference Cloud wird mit nativen Funktionen weiterentwickelt, um die gesamte NVIDIA AI Enterprise Software zu integrieren. Die Plattform bietet eine zuverlässige, sichere und skalierbare Grundlage für Unternehmen jeder Größe, um moderne KI-Systeme überall – in der Cloud, im Rechenzentrum oder an der Edge – bereitzustellen, und das alles mit Unterstützung eines umfangreichen Partner-Ökosystems.

Weitere Informationen

Die Akamai Inference Cloud entwickelt sich rasant weiter, und viele neue Produkte sind für 2026 geplant. Folgen Sie dem Akamai-Blog oder besuchen Sie unsere Website, um weitere Informationen zur Akamai Inference Cloud zu erhalten.

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

Verfasser

Jon Alexander

Jon Alexander ist VP of Product Management und verantwortlich für das Portfolio der Akamai Edge-Bereitstellung, einschließlich der CDN- und Origin-Services-Produkte.

Tags

Teilen

Verwandte Blogbeiträge

Cloud
Überall einsetzbare KI dank der Akamai Inference Cloud
October 28, 2025
Wir führen die Akamai Inference Cloud ein, eine spezielle, mit NVIDIA entwickelte Plattform, die neu definiert, wo und wie KI eingesetzt wird.
Cloud
Wie Unternehmen KI-Innovation und Risiken abwägen
September 15, 2025
Ein neuer von Akamai in Auftrag gegebener Forrester-Bericht deckt auf, wie Unternehmen KI-Innovation verfolgen, ohne dabei inakzeptable Risiken einzugehen.
Cloud
400 Führungskräfte teilen ihre Sicht auf die Zukunft der KI-Einführung
September 25, 2025
Eine Forrester-Studie zeigt, dass die meisten Unternehmen bereits auf KI setzen, um Wettbewerbsvorteile, Personalisierung und Kundenbindung zu erreichen.