AI:エッジこそがすべて

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

執筆者

Jon Alexander

Jon Alexander is the VP of Product management and is responsible for the Akamai Edge Delivery portfolio including CDN and origin services products.

シェア

エグゼクティブサマリー

  • Akamai Inference Cloud は、組織がエッジで AI 活用型アプリケーションを構築、保護、最適化できるようにする、フルスタックのクラウドプラットフォームです。

  • このプラットフォームは、ユーザーに適応し、他のエージェントと連携し、リアルタイムで動作するエージェンティックシステムをサポートするように設計されています。

  • 主な機能として、NVIDIA Blackwell GPU、マネージド型 Kubernetes、ベクトルデータベース、AI 対応セキュリティなどを備えています。

  • このプラットフォームは、機械学習運用エンジニア、AI エンジニア、エージェンティックシステムアーキテクトの 3 種類の特定のユーザーを支援します。

  • Akamai Inference Cloud は、高度な AI システムをあらゆる場所に展開するための、信頼性と安全性に優れたスケーラブルな基盤を提供します。

2017 年、ある研究論文が静かにテクノロジーの流れを変えました。「Attention Is All You Need(注意こそがすべて)」で発表されたトランスフォーマーアーキテクチャは、言語とデータを処理するための新しいモデルであり、その後の人工知能(AI)のほぼすべての主要な進歩を支える基盤となっていきました。当時、このブレイクスルーは主に学術界や開発者の間にとどまっていました。

5 年後の 2022 年 11 月、OpenAI が ChatGPT を公開しました。この時初めて、一般の人々がこのアーキテクチャによって実現されたシステムと直接触れ合うことができました。マシンだけでなく、知識自体とやり取りするという新しいインターフェースを垣間見ることができたのです。 

そして、その公開からわずか 3 年後の今、OpenAI は週当たり 7 億人以上のアクティブユーザーを報告しています。 

世界経済フォーラムは、次のように指摘しています。AI は、労働力に二重の変革をもたらしています。一方では、自動化によって、既存の職種における供給過多が生しています。他方では、AI リテラシーに対する需要が、教育や採用の制度が適応できるよりも速く加速しています。仕事のあり方、そしてそのための人材育成の従来のモデルは、急速に進化しています。

これは、始まりの終わりです。

過去を振り返って未来に進む

27 年前、世界は同様の転換点に立っていました。インターネットが急速に拡大しており、スケーラビリティ、信頼性、セキュリティの課題が解決されていませんでした。そのような状況の中、MIT の研究者グループが、「World Wide Wait」を解決するという明確な使命を掲げ、Akamai を設立しました。 

彼らは、コンピューティング、ストレージ、ネットワーキングを生成点と消費点に近づけることで、この課題を解決しました。このモデルは、その後広く模倣されることになります。

そして今、エージェンティック Web の台頭によって、AI およびその可能性を実現するために必要な推論処理に特有の、新たなスケーラビリティと近接性の課題が再び浮上しています。 

本日発表した Akamai Inference Cloud は、私たちが約 30 年前に先駆けて取り組んだ分散アーキテクチャを基に、AI 推論をコアデータセンターからエッジへと拡張し、中央集約型インフラの限界とボトルネックに再び新たな形で挑んでいます。

エージェンティック Web

この新世代のインテリジェントシステムは、人間のコマンドや入力を待つのではなく、ユーザーが自然言語で意図を表現すると、それを観察し、推論し、ユーザーに代わって行動に移します。これらのシステムは、段階的な指示がなくても主体的に行動を起こし、他のシステムと連携し、成果を生み出します。これがエージェンティック Web です。

エージェンティック Web は、人とマシンがデジタルサービスとやり取りする方法を変えています。体験は、会話的で、マルチモーダルで、パーソナライズされたものになっています。インターフェースがユーザーの意図に適応し、その逆ではありません。ユーザーは推奨事項を求め、自分の好みやコンテキスト、デバイスに応じて、ナレーション付きの要約、視覚的な比較、または文章による説明を受け取ります。システムが、最適な形式とトーンを選択します。

エージェント主導のインタラクションには新しいサポート方法が求められる

このようなエージェント主導のインタラクションが普及するにつれ、企業は新たな対応方法を必要としています。推論は、ユーザーのより近くで実行されなければなりません。レスポンスタイムは、予測可能で短くする必要があります。ツールとメモリーは、リアルタイムで利用可能である必要があります。スタック全体で、単発のリクエストを処理するだけでなくユーザーやシステムに代わって作業するエージェントに対応する必要があります。

この変化はすでに始まっていますが、今日の集約型クラウドプラットフォームはそれに対応するようには設計されていません。企業は、基礎的なインフラか、限定的なソリューションかのどちらかを選択せざるを得ません。必要なのは、複雑さを軽減し、開発を加速し、グローバル規模でインテリジェントなふるまいを提供する、エージェンティック AI 専用に構築されたプラットフォームです。

Akamai Inference Cloud が未来を実現する

Akamai Inference Cloud は、この未来を現実のものにします。クラウドと AI へのアプローチは、ユーザーに適応し、他のエージェントと連携し、リアルタイムで動作するエージェンティックシステムとアプリケーションのニーズを中心に据えています。 

独自の分散アーキテクチャはこれらのパターンをサポートするように特別に設計されており、複雑な推論ワークロードに必要な高性能のコンピューティング、ストレージ、オーケストレーションを提供し、ルーティング、制御、応答性をユーザーのより近くで実現します。  

当社のお客様は、次の 4 つの重要なミッションに直面しています。

  1. AI 対応アプリケーションを強化する

  2. 新たなトラフィックチャネルとしての AI を管理する

  3. 企業のワークロード向けに AI エージェントに必要なリソースを提供する

  4. 従業員による責任ある AI 活用を実現する

AI 対応アプリケーションを強化する

すべての企業は、自社のアプリケーションにインテリジェンスを組み込むことになります。これは、アプリケーションアーキテクチャの次の段階を示しています。レスポンシブデザインからマルチクラウドへ、そして今は AI 統合型リアルタイムシステムへ。Akamai は、それぞれの進化を可能にし、セキュリティを確保する信頼できるバックボーンであり続けます。

新たなトラフィックチャネルとしての AI を管理する

ユーザーは今、かつて検索、ソーシャル、モバイルで行ったように、AI プラットフォームを通じてブランドにつながっています。AI トラフィックをリスクから機会に変えるために、すべてのブランド、アプリ、API は、望ましい AI インタラクションと望ましくない AI インタラクションを定義し、そのトラフィックをインテリジェントに管理する必要があります。

企業のワークロード向けに AI エージェントに必要なリソースを提供する

Akamai のお客様は、インフラ管理からデータ分析まで、ビジネスの一部を AI エージェントで運用しています。エージェントは、社内外システムに関連する高品質リソースにアクセスする必要がありますが、適切なガードレール(信頼性、アイデンティティ、可観測性、安全性)を備えている必要があります。これにより、企業は自信を持って効率的に AI 運用環境をスケーリングできます。 

従業員による責任ある AI 活用を実現する

あらゆる企業の従業員は、Copilot、Cursor、ChatGPT、Claude などの AI サービスを活用しています。企業は、この活用における責任ある利用、コスト管理、データ保護を管理する必要があります。

Akamai Inference Cloud が、推論のスケーラビリティを実現します。

Akamai Inference Cloud とは

Akamai Inference Cloud は、AI を活用した次世代のインテリジェントアプリケーションを構築、保護、最適化するために設計されたフルスタックのクラウドプラットフォームです。コンピューティング、ストレージ、ネットワーキング、オーケストレーション、セキュリティ、開発者向けのツールを提供し、リアルタイム推論、エージェンティックシステム、ユーザーにより近いインテリジェンスといった固有の要件に対応しています(表参照)。

 

 

構築

保護

最適化

課題

  • API のホスティングにはコストがかかります

  • 集中型推論は低速

  • 独自モデルのホスティングは困難

     

     

     

  • AI ボットによるコンテンツのスクレイピング

  • AI エンドポイントからの機微な情報の漏えい

  • AI エンドポイントの悪用

  • 脅威アクターによる DDoS やリソース消耗型攻撃

  • 従来の Web は AI 検索では見えない

  • AI インターフェースが遅い

  • コストが増大する可能性

  • エージェントに探索、認証、アイデンティティ、信頼などのためのフレームワークが必要

     

ソリューション

開発者プラットフォームを備えた分散型インテリジェントインフラ 

AI 対応ボット管理と API セキュリティ(アプリ保護、API 保護、AI 保護が AI 対応ボット管理と連携して機能)

人とエージェントをつなぐ AI コネクティビティメッシュ 

製品

  • NVIDIA Blackwell GPUs

  • NVIDIA BlueField DPUs

  • マネージド型 K8s

  • K8s 開発者プラットフォーム 

  • ベクトルデータベース

  • オブジェクト/ブロックストレージ

  • バックアップとスナップショット

  • VPC

  • 関数

 

  • AEO/GEO

  • セマンティックキャッシング

  • LLM のレート制限とクォータ

  • MCP サーバー

  • CDN 高速化

  • 関数

  • 可観測性

     

Akamai Inference Cloud は、AI を活用した次世代のインテリジェントアプリケーションを構築、保護、最適化するために設計されたフルスタックのクラウドプラットフォームです。

このプラットフォームを届けたいお客様

Akamai Inference Cloud は、お客様の現状に寄り添うモジュール型プラットフォームです。OpenAI や Gemini のホスト型 API エンドポイントをアプリで使用している場合でも、独自にファインチューニング、蒸留されたモデルを中心にエージェンティックワークフローを構築している場合でも、Akamai Inference Cloud によって、エッジでの構築、保護、最適化が可能になります。 

具体的には、次の 3 種類のユーザーを支援しています。

  1. 機械学習オペレーションエンジニア(MLOps):機械学習のライフサイクル全体を自動化し、モデルの継続的な再トレーニング、展開、および本番環境におけるパフォーマンス監視を担当するエンジニア

  2. AI エンジニア:エンドツーエンドのエージェンティックアプリケーションを構築し(事前にトレーニングされたモデルを使用することが多い)、データサイエンスの研究と本番環境用ソフトウェアのギャップを埋めるための橋渡しを担うデータサイエンティストまたはソフトウェアエンジニア

  3. エージェンティック・システム・アーキテクト:複雑な自律型のエージェンティックシステムを設計、構築、管理する、従来よりも高度な業務まで対応し、独立して推論し、計画し、行動し、適応し、高度なビジネス目標の達成に貢献するシステムを手掛けているシステムアーキテクト

Akamai Inference Cloud は、ユーザーを特定のパラダイムやソリューションに閉じ込めるのではなく、インフラのレンタル、サーバーレスプラットフォームでの開発、複雑なシステムのシームレスな組み合わせをユーザーの好みに合わせて柔軟に実現することができます。 

NVIDIA の AI スタックを意思決定の場に近づける

2025 年 10 月 28 日、Akamai は Akamai Inference Cloud を発表し、パーソナライズされた体験、リアルタイムの意思決定、スマートエージェントが必要とされるエッジにおいてインテリジェントでエージェンティックな AI 推論を提供するという目標を掲げました。 

お客様は、NVIDIA Bluefield ネットワーキング、GDDR7、DRAM、NVMe 全体の階層型メモリー、高性能でスケーラブルなブロックストレージとオブジェクトストレージ、マネージド型ベクトルデータベース、仮想プライベートクラウドネットワーキングと組み合わせた最新世代の NVIDIA Blackwell GPU を利用できます。

MLOps エンジニアは、1 台の GPU を時間単位でレンタルしたり、最大 8 台の NVIDIA RTX PRO™6000 Blackwell Server Edition GPU、NVIDIA BlueField-3Ⓡ DPU、128 vCPU、1,472 GB の DRAM、8,192 GB の NVMe を使用して、高パフォーマンス推論クラスターを構築したりできます(図 1)。

NVIDIA Blackwell GPU は驚異的なパフォーマンスを提供します。 Akamai Inference Cloud は、Time to First Token(最初のトークンまでの時間、TTFT)と Tokens Per Second(1 秒あたりのトークン数、TPS)に最適化されています。Akamai の分散型エッジインフラと組み合わせることで、Akamai Inference Cloud は、リアルタイムかつインタラクティブなインテリジェントアプリケーションにおけるレイテンシーを削減できます。 

今後公開予定のベンチマーク分析で説明するように、NVIDIA Blackwell GPU は驚異的なパフォーマンスを提供します。

App Platform を使用したエージェンティックアプリケーションの展開と監視 

プラットフォームエンジニアをさらに支援するために、Akamai は単なるインフラ提供にとどまらない取り組みを行っています。プラットフォームエンジニアは、事前に設計されたクラウドネイティブプラットフォームを使用して、エージェンティックアプリケーションを簡単に展開し、監視できます。このプラットフォームでは、大規模言語モデル(LLM)、エージェント、ナレッジベースを大規模に展開する作業が容易になります。 

このプラットフォームは高度にカスタマイズ可能でありながら、明確な設計方針を持っています。展開を加速し、運用オーバーヘッドを削減し、ベクトルデータベース、LLM フレームワーク、OpenAI 互換 API などの AI 対応コンポーネントを 1 つのセルフサービスポータルに事前統合しています。App Platform は、Akamai のマネージド型 Kubernetes エンジンである LKE 上での実行に最適化されており、適合する Kubernetes クラスターに移植できます。  

App Platform for LKE には、30 以上の信頼できる Cloud Native Computing Foundation(CNCF)オープンソースツールが統合されています。 これには、本番環境で機械学習(ML)モデルを提供およびスケーリングするための Kubernetes ネイティブフレームワークである KServe や、Kubernetes 上で ML ワークフローを構築、展開、管理するためのプラットフォームである Kubeflow Pipelines が含まれます。 

App Platform は、エンジニアが独自の AI プラットフォームを構築するために必要な Kubernetes フレームワークと AI コンポーネントの両方を提供します。これにより、独自の Kubernetes ベースのプラットフォームやカスタムスタックを構築して保守する際に、多大な統合作業を伴う DIY アプローチを回避できます(図 2)。

Akamai Inference Cloud - NVIDIA AI Enterprise 統合向けに設計

NVIDIA AI Enterprise は、AI 開発から本番運用までのプロセスを効率化するために構築されたソフトウェアプラットフォームです。このクラウド・ネイティブ・スイートは、AI アプリケーションの構築、展開、スケーリングを加速し、シンプル化します。NVIDIA 推論向けマイクロサービス(NIM)やニューラルモジュール(NeMo)マイクロサービスなどの強力なツールを使用することで、インフラコストを削減し、市場投入までの時間を大幅に短縮できます(図 3)。 

Akamai Inference Cloud は、NVIDIA AI Enterprise ソフトウェアスイート全体に対応できるネイティブ機能を備えるべく、進化を続けています。このプラットフォームは、あらゆる規模の組織が、クラウド、データセンター、エッジなどのあらゆる場所に高度な AI システムを展開できるように、信頼性と安全性に優れたスケーラブルな基盤を提供します。これらはすべて、広範なパートナーエコシステムによって支えられています。

詳細を見る

Akamai Inference Cloud は急速に進化しており、2026 年までに多くの新製品の発売が予定されています。Akamai Inference Cloud の詳細については、Akamai のブログをフォローするか、Web サイトをご覧ください。

Jon Alexandar

Oct 28, 2025

Jon Alexander

Jon Alexandar

執筆者

Jon Alexander

Jon Alexander is the VP of Product management and is responsible for the Akamai Edge Delivery portfolio including CDN and origin services products.

タグ

シェア

関連ブログ記事

クラウド
Akamai Inference Cloud があらゆる場所で AI の利用を可能にする
October 28, 2025
そこで、Akamai Inference Cloud のご紹介です。これは NVIDIA とのパートナーシップによって構築された、AI の使用場所と使用方法を再定義する特別な目的のためのプラットフォームです。
クラウド
企業はどのように AI イノベーションとリスクのバランスを取っているのか
September 15, 2025
Forrester の最新のレポート(Akamai が委託)では、企業が許容できないレベルのリスクにさらされることなく、大規模に AI イノベーションを推進していることが明らかになりました。
クラウド
AI 導入の未来について 400 名の上級幹部が明らかにしたこと
September 25, 2025
Forrester 調査で、ほとんどの企業がすでに AI を利用して競合他社との差別化、パーソナライズ、顧客維持を行っていることが明らかになりました。