生成AIのためのネットワーク──。データセンター(DC)ネットワークの業界は今、この新需要で沸き返っている。まさに、キラーアプリケーションが登場したかたちだ。
「30年以上もDCをやっているが、『AIネットワーキング』はこれまで想像していなかったユースケース。求められる要件も強烈だ」と語るのは、アリスタネットワークスジャパン 副社長 兼 技術本部長の兵頭弘一氏。ジュニパーネットワークスでソリューション技術本部長を務める塚本広海氏も、「従来型のDCネットワークに比べると市場規模はまだ小さいが、AIネットワークの伸び率は圧倒的。お客様の期待もどんどん高まっている」と話す。
ここでいうAIネットワーキングとは生成AI、大規模言語モデル(LLM)等の学習に用いられるGPUサーバー間をつなぐネットワークのことだ。
GPUサーバークラスターで並列分散学習を行うためのインターコネクトの要件は、従来のDCネットワークとは全く異なる。広帯域かつ低遅延、ロスレスであることが必要だ。
これが、DCネットワーク向けソリューション市場に飛躍的な技術進歩の機会をもたらしている。
AIネットワーキングは、一般的なイーサネットとは性能要件が桁違いに高いため、サーバー内で処理が終わった結果を外部に出すネットワークやストレージ用のネットワークとは別に、GPUクラスター専用のネットワークを作る必要がある。
これまでのDCネットワークは、単一のインフラに様々なサービス/用途の通信を統合することでコスト効率を高めてきた。対して、AIネットワーキングを分離せざるを得ない理由は「GPUがあまりに高価」なことにある。
GPUサーバーは非常に高価で、しかも取り合いの状況にある。当然、導入したGPUは可能な限りフル稼働させたい。GPUクラスター専用ネットワークを作って「GPUを遊ばせずに使い倒す」ことが、コスト効率を最大化することにつながるのだ。