NTTが世界初の「ポータブルチューニング」技術、生成AIの再学習コストを劇的低減

生成AIの基盤モデルは定期的なアップデートが欠かせない。だが、アップデートのたびに、ドメインやタスクごとに特化させるための追加学習をやり直す必要がある。生成AI活用の難点と言える、この再学習コストを抜本的に削減するための新技術をNTTが開発した。異なる基盤モデル間で学習過程を転移する新手法「ポータブルチューニング」によって、ファインチューニング/追加学習のコスト構造が劇的に変わる可能性がある。

生成AIのカスタマイズにかかるコストを抜本的に削減し、低コスト運用を持続可能にする――。

これが、NTTが今回開発した「ポータブルチューニング」技術の目的だ。

生成AIの基盤モデルはPCやサーバー等のOSと同様に、定期的なアップデートが不可欠だ。これは、知識の最新化や脆弱性の修正、学習データ/アルゴリズムの偏りによって生じるバイアスの修正といった観点から避けられない。だが、バージョンアップのたびにドメインやタスクごとに特化学習(ファインチューニング)をやり直す必要があるため(下図表)、これが生成AIを活用するにあたって大きなコストとなっている。

基盤モデルの更新に伴う再学習コスト

基盤モデルの更新に伴う再学習コスト

ポータブルチューニング技術は、バージョンアップのたびに必要なこの「再学習」を不要にする技術だ。

開発に携わったNTTコンピュータ&データサイエンス研究所 革新的コンピューティングアーキテクチャ研究プロジェクト 准特別研究員の千々和大輝氏は、2025年7月7日に開催したオンライン説明会で、その仕組みと利点について解説。一度目のバージョンアップ時には再学習が必要だが、その際の「学習過程を再利用することで、2回め以降の追加学習コストが基本的にゼロになる」という。

NTTコンピュータ&データサイエンス研究所 革新的コンピューティングアーキテクチャ研究プロジェクト 准特別研究員の千々和大輝氏

NTTコンピュータ&データサイエンス研究所 革新的コンピューティングアーキテクチャ研究プロジェクト 准特別研究員の千々和大輝氏

NTTが提案する新概念「学習転移」とは

ポータブルチューニング技術は、NTTが提案する「学習過程転移」という新しい概念に基づくものだ。AIの学習効率を向上させる機械学習の手法に「転移学習」があるが、それとは「逆の概念」だと千々石氏は説明した。

学習過程転移(下図表)とは、基盤モデルを更新(Ver.1→Ver.2)した際に、Ver.1で行った追加学習の過程を、新しい基盤モデル(Ver.2)の上に移植し転換することで、追加学習をやり直すよりも高速かつ低コストにファインチューニングができるというものだ。Ver.1モデルの学習過程をVer.2が模倣するイメージである。

昨年発表した「学習過程転移」のイメージ

昨年発表した「学習過程転移」のイメージ

NTTは2024年5月にこの学習過程転移の概念を発表していたが、「2つの課題が残っていた」(千々石氏)。これを解決したのが今回発表した新技術だ。

続きのページは、会員の方のみ閲覧していただけます。

RELATED ARTICLE関連記事

SPECIAL TOPICスペシャルトピック

スペシャルトピック一覧

NEW ARTICLES新着記事

記事一覧

FEATURE特集

WHITE PAPERホワイトペーパー

ホワイトペーパー一覧
×
無料会員登録

無料会員登録をすると、本サイトのすべての記事を閲覧いただけます。
また、最新記事やイベント・セミナーの情報など、ビジネスに役立つ情報を掲載したメールマガジンをお届けいたします。