NTTは、深層学習において過去の学習過程をモデル間で再利用する新たな仕組みとして「学習転移」技術を開発した。生成AIなど大規模な基盤モデルを、用途ごとに追加学習(チューニング)して利用する場合に不可欠な、基盤モデルの更新に伴う再チューニングのコストを大幅に削減できる。生成AIの運用容易化や適用領域拡大、消費電力の削減に貢献するという。 生成AIを利用する際には、各企業や組織の要件に対応するため、個々のデータセットを用いた追加学習により基盤モデルをチューニングするのが一般的だ。しかし、チューニングした生成AIは、基盤モデルの更新時や変更時に再チューニングが必要となり、多大な計算コストが生じることが課題となっている。 NTTは今回、ニューラルネットワークのパラメータ空間にある高い対称性に着目。置換変換と呼ばれるニューロンの入れ替えに関する対称性の下で、異なるモデル間の学習過程同士を近似的に同一
![AIモデルの再学習コストを大幅に削減、NTTが新手法](https://cdn-ak-scissors.b.st-hatena.com/image/square/ecfc65e77bc0ef722d63c835604eeac741662a76/height=288;version=1;width=512/https%3A%2F%2Fwww.technologyreview.jp%2Fwp-content%2Fthemes%2Ftechnologyreview%2Fimg%2Fthumbnail_newsflash.png)