サクサク読めて、アプリ限定の機能も多数!
トップへ戻る
GPT-4o
chazuke-man.hatenadiary.org
京都のATRの研究室で次のような実験が行われた。被験者が今どんな画像を見ているか、それを脳の活動状態のデータだけから予測する、というテストだ。下にある画像がその例で、上の段が実際に被験者が見ていた画像。そして下の段がMRIを使って取得した脳データを元に、計算で予測した画像。 うーん、よく出来てる。 前にこちらのエントリで同じタイプの別の実験について書いたけど(こちらは見ている画像に出てくる「ものの名前」を当てるという試み)、今回の実験の方が視覚的な分、断然センセーショナルだ。ちなみに論文はNeuronに投稿され、12月10日号の表紙を飾った。 取得されるデータの分解能はfMRIの性能に規定される。今回の実験に使用した装置の場合、空間分解能で3mm立方、時間分解能で2秒(つまり0.5fps)程度とのこと。 感想 感想は前のエントリーと一緒。脳は複雑だ複雑だ、と言われるけど、こういう単純な(と
このページを最初にブックマークしてみませんか?
『科学と工学と哲学から、日常を考える』の新着エントリーを見る
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く