理論的なことはほとんどわかってない. だけど,単語n-gramをembeddingsと呼ばれるベクトル表現にしてくれることだけはわかっている. そのうち,しっかり勉強しますから...そのうち... とりあえず,「toolとして使う.」を第一目標にしてみた. word2vecについて Google projectの公式ページ python interfaceのページ python interfaceの使い方 word2vec本体について Google projectの公式ページで入手可能. 大体はここに書いてある説明のとおりにやっていけば良いのだが,pre-trainedのモデルファイルの利用がちょっと気になる. pre-trainedの利用方法 kensuke-mi@pine12:~/opt/word2vec$ ./distance pre_treained/freebase-vector