タグ

ブックマーク / hi-king.hatenablog.com (2)

  • Twitter社が発表した超解像ネットワークをchainerで再実装 - 人工言語処理入門

    この記事は Chainer Advent Calendar 2016の18日目の記事です。昨日は@zacapa_23さんのPokemonGANでした。僕もDCGANを使って百合漫画の解析に活かそうとしたことがあるので、なんだか親近感がわきます。ちなみにこの記事もDCGANがらみです。 数年前にニューラルネットで超解像を行う研究が発表されてから、近年のディープラーニングブームの中で、特に企業の研究として(学習型一枚絵)超解像が発表されています。国内でも、特にイラストへの応用として、waifu2xという実装が注目を浴びたりしました。GitHub - nagadomi/waifu2x: Image Super-Resolution for Anime-Style Art さて、いくつかある論文の中で、今回はTwitter社が9月に公開したもの( Photo-Realistic Single Im

    Twitter社が発表した超解像ネットワークをchainerで再実装 - 人工言語処理入門
  • ニコニコの動画を識別するためのマルチモーダル特徴(ニコニコ動画の統計的機械学習1) - 人工言語処理入門

    "ニコニコ動画の統計的機械学習"シリーズとして、ニコニコ動画のデータを使った解析を幾つか書いてみます。 結構前にやった、以下の発表の内容をブログ化するってのも含めて。 ニコニコ動画のコメント解析 from Keisuke Ogaki ニコニコ動画のコメント解析 このスライドのトピックは ごちうさ難民はどこにいったか コメントによる動画要約 動画を表現するマルチモーダル特徴量の精度検証 なんですが、まずこの記事では3番目の、特徴量の精度検証に触れます。 概要 ニコニコ動画の体験は、音声、画像、そしてなんといってもコメント、と マルチモーダルな体験ですが、それらの情報を使ってニコニコ動画を解析するにあたって、どういう入力特徴を使うことができるか、そしてどの特徴が有用か、を検証しました。 結果は、"コメント >>> 超えられない壁 >>> 画像 > 音声"でした。 また、特徴量を結合することで、

    ニコニコの動画を識別するためのマルチモーダル特徴(ニコニコ動画の統計的機械学習1) - 人工言語処理入門
  • 1