この現象はいささか不可解に感じられる。なぜなら、生成人工知能(AI)モデルはユーザーからの入力を利用して自らを訓練し続けるため、時間とともにより多くの入力が蓄積されるほど賢くなるはずだからだ。 その謎の答えは、「ドリフト」と呼ばれる概念にあるかもしれない。 「ドリフト」とは、大規模言語モデル(LLM)が予期しない、あるいは予測不可能な振る舞いをし、元のパラメーターから逸脱してしまうことだ。こうした現象は、複雑なAIモデルの一部を改善しようとした結果、他の部分の性能が低下することで発生する可能性がある。 カリフォルニア大学バークレー校とスタンフォード大学の研究チームが、ドリフト現象を検証するための研究で、広く用いられているLLM「GPT-3.5」(ChatGPTの基盤)と「GPT-4」(新しい「Bing」と「ChatGPT Plus」の基盤)の経時的変化を調査した。 この研究では、両LLMの
![「ChatGPT」の精度を劣化させる「ドリフト」現象--米研究チームが検証](https://cdn-ak-scissors.b.st-hatena.com/image/square/3044c7d7abe1ea67533821e2ccbe20a6d581272d/height=288;version=1;width=512/https%3A%2F%2Fjapan.zdnet.com%2Fstorage%2F2023%2F08%2F08%2F216a285d1142cf7e090c2e6f63721cc8%2Fgettyimages-1572426293_1280x960.jpg)