エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
MITとIBM、映像内で何が起きているのかにラベル付けされた3秒動画の大規模データセット100万点を発表。AIシステムが動的な行動を理解する
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
MITとIBM、映像内で何が起きているのかにラベル付けされた3秒動画の大規模データセット100万点を発表。AIシステムが動的な行動を理解する
MITとIBM、映像内で何が起きているのかにラベル付けされた3秒動画の大規模データセット100万点を発表。A... MITとIBM、映像内で何が起きているのかにラベル付けされた3秒動画の大規模データセット100万点を発表。AIシステムが動的な行動を理解する 2017-12-07 CSAIL MITとIBM Researchの研究者たちは、AIシステムが動画を認識し理解するのに役立つ動画ベースの大規模なデータセット「Moments in Time Dataset」を公開しました。 論文も発表しました。 Moments in Time Dataset: one million videos for event understanding(PDF) 本稿では、映像内のアクションやイベントにラベル付けされた3秒以内の動画が100万点あるデータセットを紹介します。例えば、以下の図を確認します。左に動画内の出来事が書かれたテキストが表示され、横一列にその出来事の3秒動画シーンが羅列します。 「Flying」であれば