脳の活動パターンを人工知能モデルの信号に変換することによって、人が見たり、想像したりしている物体を推定することに、京都大情報学研究科の神谷之康教授や国際電気通信基礎技術研究所(ATR)の堀川友慈主任研究員のグループが成功した。心を解読する技術の大きな前進で、英科学誌ネイチャー・コミュニケーションズで22日発表した。 神谷教授のグループは、機能的磁気共鳴画像装置(fMRI)を使って人の脳の活動パターンを計測し、あらかじめ記録しておいたパターンと参照するやり方で、何を見たかを推定することに成功している。ただし、記録されたパターンに対応する物体しか推定できないという限界があった。 今回の手法では、fMRIで計測した脳の活動パターンを、人工知能で応用されている深層学習モデル(DNN)の信号に変換した上で利用した。5人が「カモ」や「シルクハット」などを見たり想像したりした際の脳由来のDNN信号を
