KerasのLSTMに文章を入力して何らかの評価値を出力する場合、よく次のような流れで処理すると思います。 文章を形態素解析器で単語に分割 単語系列の系列長を揃える 単語ベクトルでEmbedding LSTMに入力 評価値を出力 「系列長を揃える」というのは、具体的には長すぎる系列を切断したり短すぎる系列をゼロパディングしたりします。 さて、これで問題なく学習できるかと思いきや、学習後にどんな文章を入力しても同じ評価値しか出力しないという状況に陥ってしまいました。 実はこのままだとゼロパディングした部分を0の系列として扱うため、うまく学習できなくなるケースがあるようです。 Embeddingレイヤーでmask_zero=Trueにすると、ゼロパディングした部分を無視(?)してくれるようです。 mask_zero: 真理値.入力の0をパディングのための特別値として扱うかどうか. これは入力の