幼児の頭部に装着したビデオカメラの映像を用いて訓練されたニューラル・ネットワークは、大規模言語モデルよりもはるかに少ないデータで、単語と対象物を一致させられるようになることがわかった。 by Cassandra Willyard2024.02.05 14 22 人間の赤ちゃんは、どんなに優れた大規模言語モデルよりもはるかに高い学習能力をもっている。オープンAI(OpenAI)の「チャットGPT(ChapGPT)」がまともな英語を書けるようになるには、数百万~1兆語の単語を用いた膨大なデータセットによる訓練が必要だった。それに比べて子どもがアクセスできるデータ量ははるかに少ないが、3歳までにはかなり高度なコミュニケーションが可能となる。 ニューヨーク大学の研究チームは、人工知能(AI)が赤ちゃんと同じような方法で学習できないかと考えた。はるかに少量のデータセット、つまり会話を学ぶ一人の子ども