Jede technologische Revolution beginnt mit einer Zentralisierung. In den frühen Jahren des Industriezeitalters reihten sich die Fabriken entlang der Flussufer, angezogen von der unaufhaltsamen Kraft des Wassers. Stromnetze veränderten ganze Volkswirtschaften, indem sie eine Handvoll industrieller Zentren mit Strom versorgten. Die Filmbranche schlug eine ähnliche Richtung ein – hier flossen riesige Kapitalsummen in einzelne erfolgreiche Studios und deren streng kontrollierte Vertriebsnetzwerke. Sogar Inhalts- und Sicherheitslösungen wurden anfangs zentralisiert.
In allen genannten Bereichen fand mit der Zeit jedoch eine Dezentralisierung statt:
Regionale Monopole wurden von lokalen Stromerzeugern verdrängt.
Streaming-Dienste revolutionierten das traditionelle Theatermodell und brachten Entertainment direkt in unser Zuhause.
Informationen und Medien wurden stärker an den Netzwerkrand verschoben, wo sich die Zielgruppen befinden. Auf diese Weise wurden Nachrichten und Unterhaltungsangebote zugänglicher und jederzeit verfügbar gemacht.
Inhalte gelangten näher an die Nutzer und die Sicherheit wurde in die Cloud verlagert, um Angreifer lokal abzuwehren, bevor sie ihr Ziel erreichen konnten.
Der Stand von heute: KI befindet sich am Wendepunkt
KI hat einen ähnlichen Wendepunkt erreicht. Wenn sich nichts verändert, wird keine Skalierung mit KI möglich sein. Unsere Branche hat sich darauf versteift, immer größere Modelle in immer größeren Rechenzentren zu entwickeln. Ständig sorgen Milliardenverträge, in Gigawatt bemessene Datenzentren und rekordverdächtige GPU-Cluster für Schlagzeilen. Aber größer ist nicht gleich besser. Zumindest nicht mehr.
Die Zentralisierung schränkt uns mittlerweile ein. Durch jede Anfrage, die über Kontinente hinweg gesendet wird, werden wertvolle Zyklen sowie Leistung und Geld verschwendet. Latenz verschlechtert das Nutzererlebnis bei Geschäftsabschlüssen, Zahlungen, Spielen und Gesprächen. Die Stromnetze sind einer starken Belastung ausgesetzt. Unternehmen geben Milliarden für das Training von Modellen aus, nur um festzustellen, dass die Skalierung aufgrund der Ausstiegskosten und der Verzögerung um mehrere Sekunden schwer umsetzbar wird.
Der Stand von morgen: Drastische Zunahme von Inferenzen
Durch die Verbreitung von intelligenten Agents, autonomen Systemen und physischer KI wird es eine Explosion an Inferenzen geben, die in der Größenordnung weit über der Zahl von Menschen initiierter Anfragen liegt. Jedes autonome Fahrzeug, jeder Roboter und jedes intelligente System wird permanent verteilte Edge-Inferenzen nutzen, um die lokale Rechenleistung zu erweitern – vergleichbar mit einem Smartphone, das heutzutage Videomengen streamen kann, für die es lokal niemals genügend Speicherplatz hätte.
Zentralisierung ist jedoch nicht die einzige Einschränkung. Heutzutage wird KI auch ausgebremst durch die Angst, sie könnte noch nicht ausgereift sein.
Sind die Antworten wirklich korrekt oder halluziniert das Modell?
Wird das Erlebnis reibungslos sein oder wird die Latenz für Unterbrechungen sorgen?
Wird das System wirtschaftliche Vorteile bringen oder werden die Inferenzkosten das Geschäft erdrücken?
Wird die KI zuverlässig funktionieren oder wird sie in entscheidenden Momenten versagen?
Während Unternehmen mit steigenden Inferenzkosten und Latenzproblemen kämpfen, bricht KI das jahrzehntelang genutzte Cloudmodell auf. CFOs verhalten sich zögerlich und CIOs verteilen still und heimlich Workloads um – dabei tun sie alles in ihrer Macht Stehende, um näher an Daten und Nutzer zu gelangen. Das Problem liegt nicht bei den GPUs, sondern bei der Entfernung.
Es ist höchste Zeit, neue Wege zu gehen
Heute haben wir die Einführung der Akamai Inference Cloud bekanntgegeben, eine Plattform, die neu definiert, wo und wie KI eingesetzt wird, indem sie die Inferenz von zentralen Rechenzentren an die Edge des Internets ausweitet.
Die mit NVIDIA entwickelte Akamai Inference Cloud kombiniert das Know-how von Akamai für global verteilte Architekturen mit der NVIDIA Blackwell KI-Infrastruktur und den führenden KI-Lösungen und liefert einen ganz neuen Ansatz zur Skalierung der für die Ausschöpfung des vollen Potenzials von KI benötigten Systeme.
Im Gegensatz zu herkömmlichen Systemen ist diese Plattform speziell für die Bereitstellung einer Echtzeit-KI-Verarbeitung mit geringer Latenz an der Edge in globalem Maßstab konzipiert. Dabei wird die beschleunigte Computing-Infrastruktur von NVIDIA näher dorthin gebracht, wo Daten generiert und Entscheidungen getroffen werden.
Intelligenz, die Entfernungen überbrückt
Jahrzehntelang hat sich Technologie für diejenigen Unternehmen ausgezahlt, die größere Rechenzentren aufbauen, riesige Datenmengen verwalten und ihre Rechenleistung und Daten besser kontrollieren konnten. In dieser Ära wurden bemerkenswerte Leistungen erzielt, aber auch der Abstand zwischen Daten und Menschen sowie zwischen Innovation und Zugänglichkeit hat sich vergrößert.
Der Vorteil liegt nun bei denjenigen, die diesen Abstand überbrücken können. Intelligente Lösungen bieten einen deutlich höheren Wert, wenn sie näher an dem Ort betrieben werden, an dem sie tatsächlich gebraucht werden – und nicht in einem weit entfernten Rechenzentrum.
Rücken Sie der Zukunft mit Akamai näher
KI definiert die Cloudinfrastruktur neu und verlagert den Fokus von Leistung auf Nähe, von Megawatt auf Millisekunden. Und niemand ist besser positioniert als Akamai, wenn es darum geht, Kunden bei diesem Wandel zu unterstützen. Wir warten nicht auf die Zukunft. Wir bringen Ihnen die Zukunft näher.
Mehr erfahren
In unserer offiziellen Pressemitteilung wurde die Einführung der Akamai Inference Cloud angekündigt. Im Blogbeitrag von Jon Alexander, Senior Vice President of Products bei Akamai, erhalten Sie darüber hinaus einen tieferen Einblick in die Lösung und die Hintergründe. Weitere Informationen zur Akamai Inference Cloud finden Sie auf unserer Website.
Tags