これはいろいろごちゃごちゃ書いてるけど、結局「attentionをreccurentにしたら良い精度が出た」と言っている。reorderingでうまくいくというのは想像通りではある https://t.co/dsfLflRblq

elu_18elu_18 のブックマーク 2016/05/17 17:18

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

Implicit Distortion and Fertility Models for Attention-based Encoder-Decoder NMT Model

    Neural machine translation has shown very promising results lately. Most NMT models follow the encoder-decoder framework. To make encoder-decoder models more flexible, attention mechanism was intro...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう