日本語Wikipediaを対象にdoc2vec学習させたモデルを作成したので、学習済みモデルとして公開します。 概要 doc2vecは2014年にQuoc LeとTomas Mikolovによって発表された文章の埋め込みの手法です。今更doc2vecかという感じではありますが、日本語のdoc2vecの学習済みモデルは探した限り容易に利用できるものがなかったこともあり、せっかくなので作成したモデルを配布します。 word2vecのような単語の分散表現においては学習済みモデルとして配布されたものを利用することが多いですが、文章の埋め込みに関しては対象とするドキュメント集合やそのドメインに特化した学習モデルを作成することが多い印象です。なので、学習済みモデルファイルの配布自体にそれほど意味があるわけではなさそうですが、既存手法との比較に利用したり、とりあえず何かしらの手法で単語列から文章ベクトル
![Out-of-the-box - 日本語Wikipediaで学習したdoc2vecモデル](https://cdn-ak-scissors.b.st-hatena.com/image/square/2ef2c9fd0a0cf918c19c9cf0fbf52ec5c4e92350/height=288;version=1;width=512/https%3A%2F%2Fyag-ays.github.io%2Fimg%2Fbanner.png)