タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

machine translationに関するtksakakiのブックマーク (2)

  • seq2seq-attnニューラル機械翻訳を試す - Qiita

    @tkngueと共著 TL;DR NMTを試してみました. 翻訳結果を見ると、うまくいっている翻訳は驚きの結果でした. ただ,内容語をとんでもない間違いかたをしているものもあったりして面白かったです. 概要 "でぃ〜ぷらーにんぐ"の波が機械翻訳にも来ていて 大きなパラダイムシフトになりつつあります. その圧倒的な表現能力の高さ や 高価なGPGPUが大量にないと話にならないお金持ちゲーであること や 膨大なハイパパラメータ(学習の際の設定の組み合わせ)が 存在することから 「さわるの嫌だなー」と思いつつも、さわらざるを得ない状況になったので触ってみました. 実際にさわってみて, やっぱり凄かったので 投稿する次第です. 稿では, 再配布可能な対訳コーパスKFTTを対象に日英翻訳をニューラルネット翻訳(NMT)で試してみます. 加えて, これまでのフレーズベースの統計的機械翻訳の典型的なツ

    seq2seq-attnニューラル機械翻訳を試す - Qiita
  • GitHub - harvardnlp/seq2seq-attn: Sequence-to-sequence model with LSTM encoder/decoders and attention

    UPDATE: Check-out the beta release of OpenNMT a fully supported feature-complete rewrite of seq2seq-attn. Seq2seq-attn will remain supported, but new features and optimizations will focus on the new codebase. Torch implementation of a standard sequence-to-sequence model with (optional) attention where the encoder-decoder are LSTMs. Encoder can be a bidirectional LSTM. Additionally has the option t

    GitHub - harvardnlp/seq2seq-attn: Sequence-to-sequence model with LSTM encoder/decoders and attention
  • 1