2017年6月8日のブックマーク (1件)

  • 人がモノを見たり想像したりする時の脳活動を解読、人工知能への応用も

    京都大学は、ヒトの脳活動パターンを人工知能モデルの信号に変換し、どんな物体を見たり想像したりしているかを脳から解読する技術を開発した。脳からビッグデータを利用する先進的技術となり、脳型人工知能の開発が期待できる。 京都大学は2017年5月22日、ヒトの脳活動パターンを人工知能モデルの信号に変換することで、見ている画像や想像している物体を脳から解読する技術を発表した。同大学 情報学研究科 教授の神谷之康氏、国際電気通信基礎技術研究所 主任研究員の堀川友慈氏の研究グループによるもので、成果は同日、英科学誌「Nature Communications」に掲載された。 ヒトの脳活動パターンを機能的磁気共鳴画像法(fMRI)などによって計測し、機械学習によるパターン認識で解析すると、どんな物体を見たり想像したりしているかを予測できる。これは「ブレインデコーディング」と呼ばれ、同研究グループが世界に先

    人がモノを見たり想像したりする時の脳活動を解読、人工知能への応用も