AIが過去に自ら生成したコンテンツを学習データとして使い始めるのは、時間の問題だった。 大規模言語モデル(LLM)をベースにした生成AIが現代社会を席巻するようになったのは、ほんの数年前のことだ。 にもかかわらず、彼らはたちまち人間の知識を食い尽くし、身につけるべきさらなる知識を求め始めた。そこで狙いをつけたのが、AI自身が過去に生み出したものだ。 ではAIが生成した知識で学んだAIは、さらに賢くなるのだろうか?答えは逆だ。 出力がおかしくなりゴミのようなコンテンツを吐き出すようになったという。それがAIを崩壊させると科学技術ジャーナリストは警鐘を鳴らしている。 AIがAI生成データを学習するという悪循環 AIがAIから学ぶとモデルが崩壊してしまうリスクについては以前も指摘されていた。 科学技術を専門とするジャーナリスト、スティーブン・ヴォーン=ニコルズ氏は、この現象を「GIGO」の典型例

