タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

あとで読むとchainerに関するmozy_okのブックマーク (2)

  • 14対話bot発表資料

    6. nicolas-ivanov/tf_seq2seq_chatbot Sequence-to-sequence model with attention multiple buckets multi-layer recurrent neural network as encoder, and an attention-based decoder https://github.com/nicolas-ivanov/tf_seq2seq_chatbot 8. データと論文 Corpora ・ AlJohri/OpenSubtitles Get a lot of raw movie subtitles (~1.2Gb) ・ Cornell Movie-Dialogs Corpus ~ 40Mb after clearing out the technical data. Papers [1]

    14対話bot発表資料
  • シンプルなRNN/LSTMだけでまともな文章はできない - studylog/北の雲

    「プログラムが自動で文章を生成する」 昔からこれにロマンを感じてる。 やってて面白い。 暇つぶしになるし、副次的に色んなことの勉強になるし、もしかしたらいつかいいプログラムが作れてお金になるかもしれない、なんてぼーっと考えてる。 今年に入ってからNN/深層学習を少しかじり出したのでRNN/LSTMで挑戦中。楽しい。 でも実際はなかなかまともな文なんて出来やしない。 前の文字列or単語のみを素性としてRNN/LSTMに与えて学習させるだけのモデルでは、まずまともな文が出てこないという結論に至った。どんだけテキストを増やしても、どんだけ学習回数を増やしても無駄っぽい。 この場合の「まともな文」の定義だけど、 1.文法が正しい (○明日はとても暑い ×明日にが暑い) 2.意味が通る (○今日はトマトべた ×今日はトマトが走る) 1と2をどちらも同時に満たすのが「まともな文」だと定義づければ、

    シンプルなRNN/LSTMだけでまともな文章はできない - studylog/北の雲
  • 1