人工知能(AI)モデルが、人間の感情理解力を測るテストで人間並み、時に上回る成績を収めたことが分かった。ただ、訓練データにそうしたタスクが含まれていた可能性も否定できず、大規模言語モデルが「人のように」考えているわけではない。 by Rhiannon Williams2024.05.22 275 21 人間は複雑な存在だ。私たちのコミュニケーションの方法は多層的であり、心理学者たちは対話から意味や理解を推測する能力を測るためのテストを数多く考案してきた。 人工知能(AI)モデルは、こうしたテストでますます優れた結果を出している。ネイチャー・ヒューマン・ビヘイビア(Nature Human Behavior)に5月20日に掲載された新たな研究によると、一部の大規模言語モデル(LLM)は人の心理状態を追跡する能力(いわゆる「心の理論」と呼ばれる)を測るために設計されたタスクを与えられた場合、人
![AIが「心の理論」テストで人間超え、この結果は何を意味するか](https://cdn-ak-scissors.b.st-hatena.com/image/square/665c17f14c0010309edb7024874478c7abb98358/height=288;version=1;width=512/https%3A%2F%2Fcdn.technologyreview.jp%2Fwp-content%2Fuploads%2Fsites%2F2%2F2024%2F05%2F21001504%2Fllm-mentalstates2a-1400x787.jpg)