インテルがH100 GPU対抗のAIアクセラレーター「Gaudi 3」、内蔵イーサネット強化で大規模クラスターが容易に

インテル日本法人は2024年9月25日、AI学習・推論向けに展開しているAIアクセラレーターの第3世代「Gaudi 3」を国内で正式発表した。Gaudiは標準イーサネットを搭載する点が特徴で、前世代の100GbEから200GbEへ拡張。大規模クラスタの構築を容易にすることで、競合のNVIDIA H100 GPUに対抗する。

インテルが2024年後半に市場投入を予定する「Gaudi 3 AIアクセラレーター」(以下、Gaudi 3)を正式発表した。

Gaudi 3は、インテルがAI学習・推論向けに展開しているアクセラレーターの第3世代に当たる製品だ。64個のTensorプロセッサー・コア(TPC)と8個の行列乗算エンジン(MME)を実装。同社は、Metaの大規模言語モデル(LLM)であるLLaMa-2 70Bの推論において、競合製品であるNVIDIA H100 Tensorコア GPU(以下、H100)と比較して最大20%のスループット向上と2倍の価格性能比を実現したとして、コストパフォーマンスの高さを強調している。

国内での正式発表となった9月25日の記者説明会で執行役員 技術本部長の町田奈穂氏は、「LLMの処理においてかなりの生産性向上を期待できる製品」と自信を見せた。「柔軟な拡張性と、TCOの削減に貢献することができる極めて魅力的な価格設定で市場投入する」点をアピールした。

執行役員 技術本部長の町田奈穂氏

インテル 執行役員 技術本部長の町田奈穂氏

インテルはGaudi 3の製品展開において、エンタープライズのAIソリューション開発・展開を支援することに重点を置いており、検索拡張生成(RAG)とvLLMをサポートしている点も売りとしている。RAGは、従来型のデータベースとLLM機能を組み合わせることでLLMの回答精度を向上させる技術。vLLMは、ローカル環境においてLLMの推論を高速に行えるようにするオープンソースライブラリである。

続きのページは、会員の方のみ閲覧していただけます。

関連リンク

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

NEW ARTICLES新着記事

記事一覧

FEATURE特集

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。