↵t⌧ st 1 h⌧ ↵t⌧ st 1 h⌧ ↵t⌧ st 1 h⌧
最近は、深層学習の技術の発展によって、自然言語処理界隈でも深層学習を利用する例で賑わってきている印象です。 今回は上記書籍にも紹介されている、Attention Model + Sequence to Sequence Modelを使った対話モデルをChainerで実装してみました。 系列変換モデル(Sequence to Sequence Model) 自然言語処理の典型的の応用タスクとしては、機械翻訳、文章要約、対話、質問応答、文章分類などがあります。 これらのうち、文章から文章への変換とみなせるタスクを考えてみると、 機械翻訳 = 「翻訳元の言語の文章」から「翻訳先の言語の文章」への変換 対話 = 「相手の発言の文章」から「自分の発言の文章」への変換 質問応答 = 「質問の文章」から「応答の文章」への変換 とみなすことができます。 以上から、これらのタスクは系列から系列への変換を行う
この記事はシンデレラガールズAdvent Calendar 13日目の記事です. 目次 目次 はじめに みりあちゃん大好き どうやってみりあちゃんとお話するか みりあちゃんモデルの作成 Seq2Seqで対話ボットの学習 Seq2Seqとは モデルの作成 転移学習でみりあちゃんの口調を学習 転移学習とは 口調の学習を行う方法 データの収集 Twitterから対話データの収集 ツイートとリプライを取得 データの整形 デレマスのSSなどからみりあちゃんの対話データを収集 取得したデータの整形 取得したデータ数 実際に学習を行う 環境 Twitterデータでクソリプボットに データでかすぎ問題 モデルの会話例 転移学習でみりあちゃんボットに モデルの会話例 LINEでみりあちゃんとお話しできるようにする LINE APIの使用 VPSにサーバを建てる 学習済みボットを物理サーバーに載せる VPSの
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く