MITによる人工的な効果音、将来は映像だけでなくロボットに2016.06.20 13:00 Rina Fukazu もはや音の「不気味の谷現象」の域に...? MITのコンピュータ科学・人工知能研究所(CSAIL)の研究チームが人間の耳をだませるほどリアルな効果音を生み出すシステムを開発しました。 機械学習を利用した彼らチームは、音質を正確に予測して人工的なサウンドを創り出す、新たなアルゴリズムを構築。たとえば無音動画のなかで、ドラムスティックでものが叩かれているシーンにおいてどんな音が発生し得るか予測したシステムが映像のシーンに相応しい効果音を生成してくれるのです。 莫大なローデータのなかから完全自動で重要なパターンを検出するために、博士課程のAndrew Owensさん率いるチームが適用したのは、ニューラルネットワークを用いた人工知能技術として知られる「ディープラーニング」。 数カ月の
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く