すべての技術革新は、集中化の瞬間から始まります。初期の頃は、水力が不可欠であったことから、川に沿って工場が密集していました。電力系統が経済全体を一変させ、一部の産業の中心に力を与えました。映画業界も同様の流れをたどり、膨大な資本が大手スタジオと厳格に管理された配給ネットワークに流れ込みました。そして、コンテンツとセキュリティまでもが集中化し始めたのです。
しかし、いずれの場合も、これらのシステムは最終的に分散していきました。
地域を独占してきた発電会社は、地方発電会社に取って代わられました。
ストリーミングサービスが従来の劇場モデルを破壊し、家庭にいながらエンターテイメントを楽しめるようになりました。
情報やメディアは、視聴者が生活したり仕事をしたりするエッジにさらに接近し、ニュースやエンターテインメントをより身近かつ即座に利用できるようになりました。
コンテンツはユーザーの近くに配置されるようになり、セキュリティはクラウドに移動し、標的にされても集団攻撃を受ける前にローカルで攻撃を阻止できるようになりました。
現在の AI の転換点
AI も同様に、転換点に達しています。同じことをさらに繰り返しても、拡張しない(できない)でしょう。業界として、私たちはますます大規模なデータセンターで、ますます大規模なモデルを構築することに固執するようになりました。ニュースの見出しには、「数十億ドル規模の契約」、「ギガワット単位のデータ・センター・キャンパス」、「記録的な GPU クラスター」といった内容が並びます。しかし、規模が大きいほど良いわけではありません。もはやそのような問題ではないのです。
集中化が足枷になり、大陸間で送信されるすべてのリクエストは、貴重なサイクル、エネルギー、お金をいたずらに消費します。レイテンシーにより、取引、決済、ゲーム、会話におけるユーザー体験が損なわれています。電力系統は、その負荷の重さに悲鳴を上げています。企業はモデルのトレーニングに数十億ドルを費やしていますが、エグレス(出方向の通信)コストと秒単位の遅延が生じるため、大規模な実用化には対応できないことがわかっただけです。
将来の推論の爆発的増加
インテリジェントエージェント、自律システム、物理 AI の増加により、推論が爆発的に増加し、人間が開始したリクエストを桁違いに上回る規模になるでしょう。すべての自律走行車、ロボット、およびスマートシステムは、分散されたエッジ推論の永続的な消費者となり、現在のスマートフォンが決してローカルに保存できない動画をストリーミングする方法で、ローカルコンピューティングを補完します。
しかし、足枷になっているのは集中化だけではありません。現在、AI は、利用が集中する時間帯に備えることができていないという不安を抱えています。
AI は正確な回答を提示するでしょうか?それとも、モデルがハルシネーションを起こすでしょうか?
応答性に優れた体験が提供されるでしょうか?それとも、レイテンシーによってフローが中断するでしょうか?
経済的な効果はあるでしょうか?それとも、推論によってビジネスケースが埋もれるほどの費用が発生するでしょうか?
信頼性の高い動作をするでしょうか?それとも、最も重要なタイミングで本番環境に障害を起こすでしょうか?
企業は推論コストの増加とレイテンシーの問題に直面しており、AI は数十年前のクラウドモデルを壊しつつあります。これに抵抗しているのが CFO です。一方で CIO は、ワークロードのバランスを静かに調整し、データとユーザーの実際の場所に近づくためにできる限りのことを行っています。それを妨げているのは GPU ではありません。近接性です。
今こそ、古い慣習を打ち破るとき
本日、Akamai は、Akamai Inference Cloud を公表しました。このプラットフォームは、推論が行われる場所をコアデータセンターからインターネットのエッジに拡げることで、AI の使用場所と使用方法を再定義します。
NVIDIA と共に構築した Akamai Inference Cloud は、グローバルに分散されているアーキテクチャに関する Akamai の専門知識と、NVIDIA Blackwell AI インフラ、AI リーダーシップを組み合わせ、AI の真の可能性を引き出すために必要なシステムを徹底的に見直し、拡張するものです。
従来のシステムとは異なり、このプラットフォームは、NVIDIA の高速化されたコンピューティングインフラをデータが作成される場所や意思決定が必要な場所の近くに配置することで、低レイテンシーでリアルタイムのエッジ AI 処理をグローバルな規模で提供することを目的として設計されています。
距離を縮めるインテリジェンス
テクノロジーは、数十年にわたり、大規模なデータセンターを構築し、大規模なデータセットを管理し、コンピューティングとデータの保持を強化できる企業に報いてきました。その時代には驚くべき力が生まれましたが、データと人の間、そしてイノベーションとアクセスの間には距離が生まれました。
今、有利なのは、その距離を近づけることができる企業です。必要な場所の近くで機能するインテリジェンスは、遠く離れたデータセンターに閉じ込められるものよりも価値があります。
Akamai とともに、未来をより身近なものに
AI はクラウドインフラを再定義し、電力から近接性へ、メガワットからミリ秒へと、中心を変化させています。そして、こうした変化の中で、お客様とともに進む役割を担うことができる企業は Akamai だけです。私たちは未来が来るのを待っているのではありません。未来をより身近なものにしているのです。
さらに詳しく
Akamai の公式プレスリリースでは、Akamai Inference Cloud の提供開始を発表しています。また、Akamai の Senior Vice President of Products を務める Jon Alexander によるこのブログ投稿では、このプラットフォームが構築された背景について詳しく説明しています。Akamai Inference Cloud の詳細については、Akamai の Web サイトをご覧ください。
タグ