Überall einsetzbare KI dank der Akamai Inference Cloud

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

Verfasser

Adam Karon

Adam Karon ist Executive Vice President & General Manager der Media and Carrier Divisions bei Akamai. Als General Manager leitet Karon die Kernbereiche der Media and Carrier Division, also Technik und Produktentwicklung, Produktmanagement, Vertrieb, Channels, Vertriebstechnik und Marketing. Sein Schwerpunkt liegt darauf, führende Medien-, Gaming- und Softwareunternehmen von heute in die Lage zu versetzen, ihren Kunden das bestmögliche – und skalierbare – Nutzererlebnis anzubieten, auf jedem Gerät und überall auf der Welt. Zudem unterstützt er Anbieter dabei, leistungsstarke und kosteneffiziente Netzwerke zu betreiben.

Teilen

Jede technologische Revolution beginnt mit einer Zentralisierung. In den frühen Jahren des Industriezeitalters reihten sich die Fabriken entlang der Flussufer, angezogen von der unaufhaltsamen Kraft des Wassers. Stromnetze veränderten ganze Volkswirtschaften, indem sie eine Handvoll industrieller Zentren mit Strom versorgten. Die Filmbranche schlug eine ähnliche Richtung ein – hier flossen riesige Kapitalsummen in einzelne erfolgreiche Studios und deren streng kontrollierte Vertriebsnetzwerke. Sogar Inhalts- und Sicherheitslösungen wurden anfangs zentralisiert.

In allen genannten Bereichen fand mit der Zeit jedoch eine Dezentralisierung statt:

  • Regionale Monopole wurden von lokalen Stromerzeugern verdrängt. 

  • Streaming-Dienste revolutionierten das traditionelle Theatermodell und brachten Entertainment direkt in unser Zuhause. 

  • Informationen und Medien wurden stärker an den Netzwerkrand verschoben, wo sich die Zielgruppen befinden. Auf diese Weise wurden Nachrichten und Unterhaltungsangebote zugänglicher und jederzeit verfügbar gemacht. 

  • Inhalte gelangten näher an die Nutzer und die Sicherheit wurde in die Cloud verlagert, um Angreifer lokal abzuwehren, bevor sie ihr Ziel erreichen konnten.

Der Stand von heute: KI befindet sich am Wendepunkt

KI hat einen ähnlichen Wendepunkt erreicht. Wenn sich nichts verändert, wird keine Skalierung mit KI möglich sein. Unsere Branche hat sich darauf versteift, immer größere Modelle in immer größeren Rechenzentren zu entwickeln. Ständig sorgen Milliardenverträge, in Gigawatt bemessene Datenzentren und rekordverdächtige GPU-Cluster für Schlagzeilen. Aber größer ist nicht gleich besser. Zumindest nicht mehr.

Die Zentralisierung schränkt uns mittlerweile ein. Durch jede Anfrage, die über Kontinente hinweg gesendet wird, werden wertvolle Zyklen sowie Leistung und Geld verschwendet. Latenz verschlechtert das Nutzererlebnis bei Geschäftsabschlüssen, Zahlungen, Spielen und Gesprächen. Die Stromnetze sind einer starken Belastung ausgesetzt. Unternehmen geben Milliarden für das Training von Modellen aus, nur um festzustellen, dass die Skalierung aufgrund der Ausstiegskosten und der Verzögerung um mehrere Sekunden schwer umsetzbar wird.

Der Stand von morgen: Drastische Zunahme von Inferenzen

Durch die Verbreitung von intelligenten Agents, autonomen Systemen und physischer KI wird es eine Explosion an Inferenzen geben, die in der Größenordnung weit über der Zahl von Menschen initiierter Anfragen liegt. Jedes autonome Fahrzeug, jeder Roboter und jedes intelligente System wird permanent verteilte Edge-Inferenzen nutzen, um die lokale Rechenleistung zu erweitern – vergleichbar mit einem Smartphone, das heutzutage Videomengen streamen kann, für die es lokal niemals genügend Speicherplatz hätte.

Zentralisierung ist jedoch nicht die einzige Einschränkung. Heutzutage wird KI auch ausgebremst durch die Angst, sie könnte noch nicht ausgereift sein.

  • Sind die Antworten wirklich korrekt oder halluziniert das Modell?

  • Wird das Erlebnis reibungslos sein oder wird die Latenz für Unterbrechungen sorgen?

  • Wird das System wirtschaftliche Vorteile bringen oder werden die Inferenzkosten das Geschäft erdrücken?

  • Wird die KI zuverlässig funktionieren oder wird sie in entscheidenden Momenten versagen?

Während Unternehmen mit steigenden Inferenzkosten und Latenzproblemen kämpfen, bricht KI das jahrzehntelang genutzte Cloudmodell auf. CFOs verhalten sich zögerlich und CIOs verteilen still und heimlich Workloads um – dabei tun sie alles in ihrer Macht Stehende, um näher an Daten und Nutzer zu gelangen. Das Problem liegt nicht bei den GPUs, sondern bei der Entfernung.

Es ist höchste Zeit, neue Wege zu gehen

Heute haben wir die Einführung der Akamai Inference Cloud bekanntgegeben, eine Plattform, die neu definiert, wo und wie KI eingesetzt wird, indem sie die Inferenz von zentralen Rechenzentren an die Edge des Internets ausweitet.

Die mit NVIDIA entwickelte Akamai Inference Cloud kombiniert das Know-how von Akamai für global verteilte Architekturen mit der NVIDIA Blackwell KI-Infrastruktur und den führenden KI-Lösungen und liefert einen ganz neuen Ansatz zur Skalierung der für die Ausschöpfung des vollen Potenzials von KI benötigten Systeme.

Im Gegensatz zu herkömmlichen Systemen ist diese Plattform speziell für die Bereitstellung einer Echtzeit-KI-Verarbeitung mit geringer Latenz an der Edge in globalem Maßstab konzipiert. Dabei wird die beschleunigte Computing-Infrastruktur von NVIDIA näher dorthin gebracht, wo Daten generiert und Entscheidungen getroffen werden.

Intelligenz, die Entfernungen überbrückt

Jahrzehntelang hat sich Technologie für diejenigen Unternehmen ausgezahlt, die größere Rechenzentren aufbauen, riesige Datenmengen verwalten und ihre Rechenleistung und Daten besser kontrollieren konnten. In dieser Ära wurden bemerkenswerte Leistungen erzielt, aber auch der Abstand zwischen Daten und Menschen sowie zwischen Innovation und Zugänglichkeit hat sich vergrößert.

Der Vorteil liegt nun bei denjenigen, die diesen Abstand überbrücken können. Intelligente Lösungen bieten einen deutlich höheren Wert, wenn sie näher an dem Ort betrieben werden, an dem sie tatsächlich gebraucht werden – und nicht in einem weit entfernten Rechenzentrum.

Rücken Sie der Zukunft mit Akamai näher

KI definiert die Cloudinfrastruktur neu und verlagert den Fokus von Leistung auf Nähe, von Megawatt auf Millisekunden. Und niemand ist besser positioniert als Akamai, wenn es darum geht, Kunden bei diesem Wandel zu unterstützen. Wir warten nicht auf die Zukunft. Wir bringen Ihnen die Zukunft näher.

Mehr erfahren

In unserer offiziellen Pressemitteilung wurde die Einführung der Akamai Inference Cloud angekündigt. Im Blogbeitrag von Jon Alexander, Senior Vice President of Products bei Akamai, erhalten Sie darüber hinaus einen tieferen Einblick in die Lösung und die Hintergründe. Weitere Informationen zur Akamai Inference Cloud finden Sie auf unserer Website.

Adam Karon

Oct 28, 2025

Adam Karon

Adam Karon

Verfasser

Adam Karon

Adam Karon ist Executive Vice President & General Manager der Media and Carrier Divisions bei Akamai. Als General Manager leitet Karon die Kernbereiche der Media and Carrier Division, also Technik und Produktentwicklung, Produktmanagement, Vertrieb, Channels, Vertriebstechnik und Marketing. Sein Schwerpunkt liegt darauf, führende Medien-, Gaming- und Softwareunternehmen von heute in die Lage zu versetzen, ihren Kunden das bestmögliche – und skalierbare – Nutzererlebnis anzubieten, auf jedem Gerät und überall auf der Welt. Zudem unterstützt er Anbieter dabei, leistungsstarke und kosteneffiziente Netzwerke zu betreiben.

Tags

Teilen

Verwandte Blogbeiträge

Cloud
KI: Auf die Edge kommt es an
October 28, 2025
Erfahren Sie, wie die Akamai Inference Cloud auf der von uns vor fast 30 Jahren federführend entwickelten verteilten Architektur aufbaut und die Ausweitung der KI-Inferenz an die Edge ermöglicht.
Cloud
Wie Unternehmen KI-Innovation und Risiken abwägen
September 15, 2025
Ein neuer von Akamai in Auftrag gegebener Forrester-Bericht deckt auf, wie Unternehmen KI-Innovation verfolgen, ohne dabei inakzeptable Risiken einzugehen.
Cloud
400 Führungskräfte teilen ihre Sicht auf die Zukunft der KI-Einführung
September 25, 2025
Eine Forrester-Studie zeigt, dass die meisten Unternehmen bereits auf KI setzen, um Wettbewerbsvorteile, Personalisierung und Kundenbindung zu erreichen.