アカマイがAI推論をエッジへ展開する「Akamai Inference Cloud」、NVIDIA Blackwellの国内テスト開始

アカマイ・テクノロジーズは2025年10月28日(米国時間)、AIインフラをエッジへ展開する「Akamai Inference Cloud」を発表した。エヌビディアと連携して提供するAI推論用のエッジAIインフラだ。アカマイ日本法人は10月31日、このAkamai Inference Cloudの詳細を解説する記者説明会を開催した。

GPU分散は第1フェーズ、4段階で進化

Monksは、Akamai Inference Cloudを活用してLive Visionというサービスを実現している。スポーツ中継などの場面で、複数の4K/8Kカメラ映像をAIが解析し、映像の中身を認識してベストショットを自動的に選択、提案するというものだ。エッジAIによる素早い応答により、中継放送の現場で行われる「リアルタイムの意思決定をAIがサポートできるようになる」(チェン氏)。

Monks社の利用例

Monksの利用例「Live Vision」

アカマイはこのAkamai Inference Cloudを、段階的に進化させていく計画だ。

まずは、世界4200拠点にGPUを分散配備。第2フェーズでは、ユーザーが求めるコストや性能の要件に応じて、最適なモデル/ロケーションにルーティングする機能を実装する(下図表)。

Akamai Inference Cloudの進化プロセス

Akamai Inference Cloudの進化プロセス

第3フェーズでは、複数のAIエージェントが連携する処理において、そのワークフローを並列処理できるようにすることで、さらなる低遅延化、高速化を実現する。

最終段階では、ユーザーのステータスやコンテキスト情報も加味して、より最適なかたちでリクエストを処理できるように進化させていくという。

RTX PRO 6000 Blackwellを国内展開

日本では、2種類のGPUを展開する。

1つは、2024年12月から大阪リージョンで動画コンテンツ処理等向けに提供している「NVIDIA RTX 4000 Ada」。これをAI推論向けにも展開する。

もう1つが、NVIDIA Blackwell アーキテクチャーを搭載したフラッグシップモデル「NVIDIA RTX PRO 6000 Blackwell Server Edition」だ。商用提供は少し先になるが、この10月から国内でもテストを開始している。

Akamai Inference Cloudで展開するGPUのスペック

Akamai Inference Cloudで展開するGPUのスペック

この新型GPUは、前世代のL40S GPUと比較して推論性能が最大6倍に向上しているという。「従来のGPUでは動かせないようなAIモデル、ユースケースにも対応できる」とチェン氏は話した。

アカマイはこの基盤を、学術・研究機関のほか、ゲーム/メディア・エンターテイメント業界や製造業、ロボティクス、スマートシティといった分野に適用していく考え。低遅延性というエッジの利点に加えて、長年にわたってサービス提供してきたセキュリティも強みに、AI推論の領域でビジネスを拡大していこうとしている。

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

NEW ARTICLES新着記事

記事一覧

FEATURE特集

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。