アカマイがAI推論をエッジへ展開する「Akamai Inference Cloud」、NVIDIA Blackwellの国内テスト開始

アカマイ・テクノロジーズは2025年10月28日(米国時間)、AIインフラをエッジへ展開する「Akamai Inference Cloud」を発表した。エヌビディアと連携して提供するAI推論用のエッジAIインフラだ。アカマイ日本法人は10月31日、このAkamai Inference Cloudの詳細を解説する記者説明会を開催した。

「世界中で、リアルタイムに処理されるAI推論が求められる時代になった」

アカマイ・テクノロジーズ プリンシパルメジャーアカウントエグゼクティブのデイビー チェン(Davy Chen)氏は、「Akamai Inference Cloud」提供の背景についてそう語った。

アカマイ・テクノロジーズ プリンシパルメジャーアカウントエグゼクティブのデイビー チェン(Davy Chen)氏

アカマイ・テクノロジーズ プリンシパルメジャーアカウントエグゼクティブのデイビー チェン(Davy Chen)氏

AI関連投資は、LLM(大規模言語モデル)などのAIモデルのトレーニングから、そのモデルを活用した「AI推論」のためのインフラ、仕組みづくりへとシフトしてきている。特に、自動運転やフィジカルAIといったリアルタイム性が求められる用途での需要が拡大すると同氏は予測。Akamai Inference Cloudは、エヌビディアと提携してそのニーズに応える基盤を構築するものだと説明した。

これは、ひと言でいえば、アカマイがCDNやセキュリティサービスを提供するために世界中に展開しているコンピューティング基盤に、AI推論のためのGPUサーバーを配備するものだ。その拠点数は4200拠点以上に及ぶ。ユーザーに近いエッジでAI推論を提供することで、リアルタイム性が求められるユースケースに対応する。

Akamai Inference Cloud

Akamai Inference Cloudの概要

クラウドに比べて「遅延は5分の1」

Akamai Inference Cloudの最大の価値は低遅延だ。チェン氏によれば、中央集約型のクラウドデータセンターでAI推論を行う場合と比べて、AIエージェントがユーザーのリクエストに応える「応答時間は6~10倍高速になり、遅延は5分の1になる」という。通信も含めたトータルコストは4~6割も削減が可能で、「持続可能なかたちでAI推論を地球規模にスケールさせることができる」と、その効果に自信を見せた。

クラウドとのパフォーマンス比較

クラウドとのパフォーマンス比較

このAI推論基盤は、GPUリソースだけでなく、AIモデルのデプロイや運用を行うオーケストレーション、トラフィックの制御やルーティング、セキュリティ等の機能も提供する。

まずは20拠点から展開を始めるが、すでに商用利用している事例もあるという。米国のスタートアップ、Monksだ。

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

NEW ARTICLES新着記事

記事一覧

FEATURE特集

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。