生成AIが世の中を席巻している。生成AIの力を使って、いち早くビジネスを革新した企業が、時代の一歩先を行くと言っても過言ではないが、そうしたなか生成AIを支えるインフラであるデータセンター(DC)への大規模投資が相次いでいる。主役はもちろんGPUだ。
生成AIに必要なコンピューティング能力は、従来のアプリケーションとは質・量ともに桁違いであり、大量のGPUを用いた高速な並列分散処理が欠かせないからである。
「例えば、Meta社が開発したオープンソースLLMのLLaMAの場合、650億パラメーターのモデルの学習に、エヌビディアの当時のフラッグシップGPUサーバー2048台を用いても21日かかりました。1台あたりGPUを8基搭載しており、GPU数では約1万6000基です」
マクニカでDCインフラの構築・運用を支援している北島佑樹氏はこう話したうえで、「コンピューティング能力=競争力の時代が到来しているのです」と強調する。生成AI時代をリードするためには、まずコンピューティング能力でリードしなければならない。
そこでGPU需要が急増しているわけだが、実はGPUへの投資だけでは生成AI用のコンピューティング能力は十分に高められない。「ネットワークも含めてDCインフラをアプリケーションドリブンに変えていく必要があります」とエヌビディアの愛甲浩史氏は指摘する。
生成AI時代、DCネットワークも変わる必要があるのは、ネットワークの位置付け自体が変化したからだという。