エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Kerasで可変長系列をEmbeddingしてLSTMに入力するときはmask_zero=Trueにする - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Kerasで可変長系列をEmbeddingしてLSTMに入力するときはmask_zero=Trueにする - Qiita
KerasのLSTMに文章を入力して何らかの評価値を出力する場合、よく次のような流れで処理すると思います。... KerasのLSTMに文章を入力して何らかの評価値を出力する場合、よく次のような流れで処理すると思います。 文章を形態素解析器で単語に分割 単語系列の系列長を揃える 単語ベクトルでEmbedding LSTMに入力 評価値を出力 「系列長を揃える」というのは、具体的には長すぎる系列を切断したり短すぎる系列をゼロパディングしたりします。 さて、これで問題なく学習できるかと思いきや、学習後にどんな文章を入力しても同じ評価値しか出力しないという状況に陥ってしまいました。 実はこのままだとゼロパディングした部分を0の系列として扱うため、うまく学習できなくなるケースがあるようです。 Embeddingレイヤーでmask_zero=Trueにすると、ゼロパディングした部分を無視(?)してくれるようです。 mask_zero: 真理値.入力の0をパディングのための特別値として扱うかどうか. これは入力の