データ解析入門〜グラフ分析処理・スクレイピング〜【found IT projectセミナー#6】 https://foundit-project.connpass.com/event/51809/
![14対話bot発表資料](https://cdn-ak-scissors.b.st-hatena.com/image/square/f5c3a1d4861fe78f214028ccdf162a1c01ac6501/height=288;version=1;width=512/https%3A%2F%2Fcdn.slidesharecdn.com%2Fss_thumbnails%2F14bot-161201163327-thumbnail.jpg%3Fwidth%3D640%26height%3D640%26fit%3Dbounds)
「プログラムが自動で文章を生成する」 昔からこれにロマンを感じてる。 やってて面白い。 暇つぶしになるし、副次的に色んなことの勉強になるし、もしかしたらいつかいいプログラムが作れてお金になるかもしれない、なんてぼーっと考えてる。 今年に入ってからNN/深層学習を少しかじり出したのでRNN/LSTMで挑戦中。楽しい。 でも実際はなかなかまともな文なんて出来やしない。 前の文字列or単語のみを素性としてRNN/LSTMに与えて学習させるだけのモデルでは、まずまともな文が出てこないという結論に至った。どんだけテキストを増やしても、どんだけ学習回数を増やしても無駄っぽい。 この場合の「まともな文」の定義だけど、 1.文法が正しい (○明日はとても暑い ×明日にが暑い) 2.意味が通る (○今日はトマトを食べた ×今日はトマトが走る) 1と2をどちらも同時に満たすのが「まともな文」だと定義づければ、
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く