サクサク読めて、アプリ限定の機能も多数!
これはいろいろごちゃごちゃ書いてるけど、結局「attentionをreccurentにしたら良い精度が出た」と言っている。reorderingでうまくいくというのは想像通りではある https://t.co/dsfLflRblq
elu_18 のブックマーク 2016/05/17 17:18
Implicit Distortion and Fertility Models for Attention-based Encoder-Decoder NMT Model[fromTw] これはいろいろごちゃごちゃ書いてるけど、結局「attentionをreccurentにしたら良い精度が出た」と言っている。reorderingでうまくいくというのは想像通りではある <a href="https://t.co/dsfLflRblq" target="_blank" rel="noopener nofollow">https://t.co/dsfLflRblq</a>2016/05/17 17:18
これはいろいろごちゃごちゃ書いてるけど、結局「attentionをreccurentにしたら良い精度が出た」と言っている。reorderingでうまくいくというのは想像通りではある <a href="https://t.co/dsfLflRblq" target="_blank" rel="noopener nofollow">https://t.co/dsfLflRblq</a>
このブックマークにはスターがありません。 最初のスターをつけてみよう!
arxiv.org2016/05/17
Neural machine translation has shown very promising results lately. Most NMT models follow the encoder-decoder framework. To make encoder-decoder models more flexible, attention mechanism was intro...
2 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /
これはいろいろごちゃごちゃ書いてるけど、結局「attentionをreccurentにしたら良い精度が出た」と言っている。reorderingでうまくいくというのは想像通りではある https://t.co/dsfLflRblq
elu_18 のブックマーク 2016/05/17 17:18
このブックマークにはスターがありません。
最初のスターをつけてみよう!
Implicit Distortion and Fertility Models for Attention-based Encoder-Decoder NMT Model
arxiv.org2016/05/17
Neural machine translation has shown very promising results lately. Most NMT models follow the encoder-decoder framework. To make encoder-decoder models more flexible, attention mechanism was intro...
2 人がブックマーク・1 件のコメント
\ コメントが サクサク読める アプリです /