GPU分散は第1フェーズ、4段階で進化
Monksは、Akamai Inference Cloudを活用してLive Visionというサービスを実現している。スポーツ中継などの場面で、複数の4K/8Kカメラ映像をAIが解析し、映像の中身を認識してベストショットを自動的に選択、提案するというものだ。エッジAIによる素早い応答により、中継放送の現場で行われる「リアルタイムの意思決定をAIがサポートできるようになる」(チェン氏)。

Monksの利用例「Live Vision」
アカマイはこのAkamai Inference Cloudを、段階的に進化させていく計画だ。
まずは、世界4200拠点にGPUを分散配備。第2フェーズでは、ユーザーが求めるコストや性能の要件に応じて、最適なモデル/ロケーションにルーティングする機能を実装する(下図表)。

Akamai Inference Cloudの進化プロセス
第3フェーズでは、複数のAIエージェントが連携する処理において、そのワークフローを並列処理できるようにすることで、さらなる低遅延化、高速化を実現する。
最終段階では、ユーザーのステータスやコンテキスト情報も加味して、より最適なかたちでリクエストを処理できるように進化させていくという。
RTX PRO 6000 Blackwellを国内展開
日本では、2種類のGPUを展開する。
1つは、2024年12月から大阪リージョンで動画コンテンツ処理等向けに提供している「NVIDIA RTX 4000 Ada」。これをAI推論向けにも展開する。
もう1つが、NVIDIA Blackwell アーキテクチャーを搭載したフラッグシップモデル「NVIDIA RTX PRO 6000 Blackwell Server Edition」だ。商用提供は少し先になるが、この10月から国内でもテストを開始している。

Akamai Inference Cloudで展開するGPUのスペック
この新型GPUは、前世代のL40S GPUと比較して推論性能が最大6倍に向上しているという。「従来のGPUでは動かせないようなAIモデル、ユースケースにも対応できる」とチェン氏は話した。
アカマイはこの基盤を、学術・研究機関のほか、ゲーム/メディア・エンターテイメント業界や製造業、ロボティクス、スマートシティといった分野に適用していく考え。低遅延性というエッジの利点に加えて、長年にわたってサービス提供してきたセキュリティも強みに、AI推論の領域でビジネスを拡大していこうとしている。
 
    









 
           
           
           
           
           
          






 
                 
                 
                 
                 
                 
         
        