今日はNL研(情報処理学会自然言語処理研究会)の2日目。午前中から午後にかけては招待講演が2本である。それぞれ実況したものをまとめた。 前半の、東北大学の岡谷先生による画像処理における深層学習(deep learning)のお話は大変示唆的で興味深かった。畳み込みニューラルネットワークの気持ちが少し分かった(が、画像処理で使われる一般的な畳み込みニューラルネットワークは、やはり自然言語処理とは設定が違う、という気がする)。あと、物体認識で一躍有名になったのは、深層学習(だけ)の成果ではなく、ImageNet という大規模データセットのおかげで、そういうリソースがない(あるいはクラウドソーシングできない)タスクでは依然性能を上げるのは難しいのではなかろうか。結局教師データが重要である、という結論に見える。同じく教師データを使う他の手法よりよくできる、というのは利点だが、そこの貢献よりは、生成