タグ

Deep LearningとRNNに関するni66lingのブックマーク (7)

  • LSTMネットワークの概要 - Qiita

    Christopher Olah氏のブログ記事 http://colah.github.io/posts/2015-08-Understanding-LSTMs/ の翻訳です。 翻訳の誤りなどあればご指摘お待ちしております。 リカレントニューラルネットワーク 人間は毎秒ゼロから思考を開始することはありません。このエッセイを読んでいる間、あなたは前の単語の理解に基づいて、各単語を理解します。すべてを捨てて、またゼロから思考を開始してはいません。あなたの思考は持続性を持っています。 従来のニューラルネットワークは、これを行うことができません、それは大きな欠点のように思えます。たとえば、映画の中の各時点でどのような種類の出来事が起こっているかを分類したいと想像してください。従来のニューラルネットワークが、映画の前の出来事についての推論を後のものに教えるためにどのように使用できるかは不明です。 リ

    LSTMネットワークの概要 - Qiita
  • ディープラーニングを使って転職会議の企業クチコミデータを感情分析してみる - Qiita

    せっかく会社の名前を借りたAdvent Calendarの記事なので、会社に絡んだ題材を扱います。 (前置き)転職会議 について Livesenseでは、転職会議という転職者による企業の評判クチコミを扱ったサイトを運営しており、日々企業についてのクチコミが投稿されている。 これまで転職会議では、クチコミのテキストデータと5段階からなる評点データを別々のデータとして取得していたが、先日のリニューアルで、評点とテキストデータを同時に投稿できるようになり、さらに読みやすいクチコミを提供できるようになった。 リニューアル以前に投稿されたクチコミ リニューアル後に投稿されたクチコミ ここで感じる課題感 新しく投稿されるクチコミは評点によって読みやすくなったものの、過去に蓄積された大量の投稿には当然5段階の評点データは無いし、そのままでは顔アイコンを出すことは当然出来ない。 しかしこの課題を解決して、

    ディープラーニングを使って転職会議の企業クチコミデータを感情分析してみる - Qiita
  • 基本的なRecurrent Neural Networkモデルを実装してみた - Qiita

    Recurrent Neural Network(再帰型ニューラルネット)に関心はあるが,なかなかコード作成に手がつかない,このようなケースが多くないだろうか?理由はいくつかあるが,私の場合は次のようなものが思い当たる. 単純にネットワークの構成が複雑.MLP(Multi-layer Perceptron)から入門してCNN(Convolutional-NN)に進むまでは,特殊なLayerがあるにせよ,信号の流れは順方向のみであった.(誤差の計算は除く.) MLPやCNNにおいては分かりやすい例題,(Deep Learningの’Hello World'と称される)"MNIST" があったが,そのような標準的な(スタンダードな)例題がRNNにはない. 因みにTheanoのDeep LearningやTensorFlowのTutorialは,言語モデルを扱ったものである.言語モデルに精通され

    基本的なRecurrent Neural Networkモデルを実装してみた - Qiita
  • Conditional Random Fields as Recurrent Neural Networks

    Pixel-level labelling tasks, such as semantic segmentation, play a central role in image understanding. Recent approaches have attempted to harness the capabilities of deep learning techniques for image recognition to tackle pixel-level labelling tasks. One central issue in this methodology is the limited capacity of deep learning techniques to delineate visual objects. To solve this problem, we i

  • リカレントニューラルネットなぜ強い? - 武蔵野日記

    午前中は言語学習支援・機械翻訳の進捗報告。それぞれ新しい研究で各自色々自分で進めているので、話を聞くのは楽しいのだが、年内に実験結果が出るのか? という不安がそこはかとなくある。当は、こんな締め切りに追われるような感じではなく、ゆっくりできるといいと思うのだが、締め切りに追われている方が進むという不思議(いや、あまり不思議ではないか)。 お昼は論文紹介。 Tang et al. Document Modeling with Gated Recurrent Neural Network for Sentiment Classification. EMNLP 2015. を紹介してもらう。感情極性分析では、頑張って素性エンジニアリングした SVM と、適当に作った畳み込みニューラルネットワークが同じくらいの性能になるらしいのだが、リカレントニューラルネットワーク(普通の RNN から、LST

    リカレントニューラルネットなぜ強い? - 武蔵野日記
  • 再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会

    3. 章で扱う問題  サンプル毎に系列長が違うデータをどう扱うか? ニューラルネット           1.0 9.0 3.0 入力ベクトル系列 出力ベクトル系列           6.0 5.0 2.0           2.0 4.0 6.0        1.0 9.0       6.0 3.0       7.0 3.0  固定次元 固定次元 可変 入力と同じ系列長 4. 応用  自然言語処理  途中までの文章から次の単語を順次予測  音声認識  短時間フレーム毎の音素認識 We can get an idea of the quality of the leaned feature 1 x 2 x 3 x 4 x 5 x 6 x 7 x 8 x 9

    再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
  • Composing Music With Recurrent Neural Networks

    (Update: A paper based on this work has been accepted at EvoMusArt 2017! See here for more details.) It's hard not to be blown away by the surprising power of neural networks these days. With enough training, so called "deep neural networks", with many nodes and hidden layers, can do impressively well on modeling and predicting all kinds of data. (If you don't know what I'm talking about, I recomm

  • 1