
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
ゼロから作るDeep Learning❷で素人がつまずいたことメモ:5章 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
ゼロから作るDeep Learning❷で素人がつまずいたことメモ:5章 - Qiita
5章 リカレントニューラルネットワーク(RNN) この章は、リカレントニューラルネットワークの説明です... 5章 リカレントニューラルネットワーク(RNN) この章は、リカレントニューラルネットワークの説明です。 5.1 確率と言語モデル 言語モデルの説明と、CBOWを言語モデルに使おうとした時の問題点が解説されています。式5.8が近似になっているのは、CBOWだと単語の並びを無視してしまうからということかと思います。 word2vecは単語の並びを無視してしまうので、分散表現に使うならこの章で学ぶRNNの方が良さそうに思えるのですが、RNNが先に生まれ、語彙数増加と質の向上のために後からword2vecが提案されたとのことで、実際には逆の流れだったというのが興味深いです。 5.2 RNNとは RNNの解説です。活性化関数としてtanh関数(双曲線正接関数)がでてきますが、なぜかこの本では解説がないので、詳細は「tanh」でググりましょう。 あと少し気になったのは、ミニバッチ学習でデータを終端ま