脱エンコーダ・デコーダ.脱Attention.ソース単語の入力と同時にターゲット単語を出力,つまり言語モデルっぽい構造.単語アライメントを事前に推定.文長は特殊記号で揃える.better on long sentences.

RyobotRyobot のブックマーク 2018/11/09 01:14

その他

このブックマークにはスターがありません。
最初のスターをつけてみよう!

[1810.13409] You May Not Need Attention

    In NMT, how far can we get without attention and without separate encoding and decoding? To answer that question, we introduce a recurrent neural translation model that does not use attention and d...

    \ コメントが サクサク読める アプリです /

    • App Storeからダウンロード
    • Google Playで手に入れよう