![](https://cdn-ak-scissors.b.st-hatena.com/image/square/e3ca10673ca943e26cb6bd295a698cb03bc2ec80/height=288;version=1;width=512/https%3A%2F%2Fwww.asahicom.jp%2Fimages%2Flogo_ogp.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント1件
- 注目コメント
- 新着コメント
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ヒトの想像をAIが読み取り 脳情報解読の新手法:朝日新聞デジタル
人工知能(AI)技術を使い、人間が見たり想像したりしている物が何かを推定する方法を、京都大の神谷... 人工知能(AI)技術を使い、人間が見たり想像したりしている物が何かを推定する方法を、京都大の神谷之康教授らのグループが開発、英科学誌ネイチャーコミュニケーションズに22日発表した。脳の活動を読み取って機械を動かすブレーン・マシン・インターフェース(BMI)の技術などに応用できそうだ。 これまでの脳の解読技術は、物体を見ている際の脳の活動パターンが解析された「学習済み」のものしか予測対象にできなかった。グループは、AIの画像認識性能の向上を踏まえ、脳の情報伝達ネットワークをヒントに作られた人工知能モデルを使い、任意の物体の予測を目指した。 ある物体の画像を見た時の脳活動のパターンを機能的磁気共鳴画像(fMRI)で計測。このパターンを画像認識を行う人工知能モデルのデータに変換する方法を開発した。このデータをもとにAIが何の画像か類推することで、「学習済み」以外の物体も、何を見ているのか分かるよ
2017/05/22 リンク