タグ

ブックマーク / ie110704.net (1)

  • Attention Seq2Seqで対話モデルを実装してみた

    最近は、深層学習の技術の発展によって、自然言語処理界隈でも深層学習を利用する例で賑わってきている印象です。 今回は上記書籍にも紹介されている、Attention Model + Sequence to Sequence Modelを使った対話モデルをChainerで実装してみました。 系列変換モデル(Sequence to Sequence Model) 自然言語処理の典型的の応用タスクとしては、機械翻訳、文章要約、対話、質問応答、文章分類などがあります。 これらのうち、文章から文章への変換とみなせるタスクを考えてみると、 機械翻訳 = 「翻訳元の言語の文章」から「翻訳先の言語の文章」への変換 対話 = 「相手の発言の文章」から「自分の発言の文章」への変換 質問応答 = 「質問の文章」から「応答の文章」への変換 とみなすことができます。 以上から、これらのタスクは系列から系列への変換を行う

    Attention Seq2Seqで対話モデルを実装してみた
  • 1