Skip-gramモデルについて、歴史的背景抜きにおおまかに説明しています。最近発見されたPMI行列の分解との関係性と、その観点にたったときのLinear Regularityの解釈についてもふれました。
これは、私が実際に体験した話なんですがね。 その時私は、ニューラルネットワークを使って、 特定の文章を機械が読める特殊な形式に変換する、 という実験をやってたんだ。 でも何しろニューラルネットワークなんて大学でちょびっと習ったっきりなもんで、 処理ソフトについてるチュートリアルをやってみたり、インターネットに転がってるサンプルコードを読んでみたり、 とにかくいろいろやってみるしかない、ってんでいろいろ勉強して、 やーっと、それらしいものが動くようになった。 あるところからもらってきたデータセット、これを仮にデータAさんとしましょうか、データAさんでニューラルネットワークを学習してあげたあとに、それらしい入力をニューラルネットに与えてみる。 そうすると、けっこう面白い結果が出てくるようになったんですね。 いろいろ悩んでやってみた結果ちゃんとした出力が出てきたわけですから、それはもううれしかっ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く