タグ

GloVeに関するni66lingのブックマーク (4)

  • いますぐ使える単語埋め込みベクトルのリスト - Qiita

    はじめに 単語埋め込みとは、単語を低次元(と言っても200次元程度はある)の実数ベクトルで表現する技術のことです。近い意味の単語を近いベクトルに対応させることができるとともに、ベクトルの足し引きで意味のある結果(例えば king - man + women = queen)が得られるのが特徴です。 単語埋め込みベクトルは品詞タグ付け、情報検索、質問応答などの様々な自然言語処理アプリケーションに使われる重要な技術です。とはいえ、実際に用意するのはなかなか骨の折れる作業です。大規模なデータをダウンロードし、前処理をかけ、長い時間をかけて学習させ、結果を見てパラメータチューニングを行う・・・。 そのため、単に使いたいだけなら学習済みのベクトルを使うのが楽です。というわけで、そんな単語埋め込みベクトルの中から今すぐ使えるものをピックアップしてみました。 埋め込みベクトルの情報は以下のリポジトリにま

    いますぐ使える単語埋め込みベクトルのリスト - Qiita
  • word2vecよりも高性能らしいGloVeを触ってみた - 鴨川にあこがれる日々

    はじめに word2vecよりも性能が高いとかなんとか / “GloVe: Global Vectors for Word Representation” http://t.co/cZPAafJ6Zl #自然言語処理— ηozawa kento (@nozawa0301) June 4, 2015 word2vecというツールが,かなり流行りました. そのあといくつも単語の分散表現に関する論文もでてきています. 最近,目にした中で,word2vecよりも性能がよいらしいGloVeが気になったので,簡単に触ってみました.nlp.stanford.edu 論文はこちら http://nlp.stanford.edu/projects/glove/glove.pdf 英語が拙いため,論文自体は理解できていませんが, word2vecと比べて,コーパス全体の情報もうまく使って学習してやろうというの

    word2vecよりも高性能らしいGloVeを触ってみた - 鴨川にあこがれる日々
  • 単純な単語のベクトル表現: word2vec, GloVe - Qiita

    スタンフォード大学の"Deep Learning for Natural Language Processing"という授業の映像とスライドが公開されているので最近視聴しているのですが、観ただけだと身に残らなさそうなので内容を要約しつつ講義メモを公開することにしました。 今回は第2回目"Simple Word Vector representations: word2vec, GloVe"です。1回目はイントロなので飛ばしました。 動画 スライド 単語毎に意味を表現する方法とその問題点 単語の意味をコンピュータに認識させたい場合、WordNetなどの人手で作られた分類表を使う方法がある。しかしこうした表現には問題がある。 細かいニュアンスを表現されていない(adept, expert, good, practiced, proficient, skillfulなどのsynonymsの違いと

    単純な単語のベクトル表現: word2vec, GloVe - Qiita
  • GloVe: Global Vectors for Word Representation

    GloVe: Global Vectors for Word Representation Jeffrey Pennington,   Richard Socher,   Christopher D. Manning GloVe is an unsupervised learning algorithm for obtaining vector representations for words. Training is performed on aggregated global word-word co-occurrence statistics from a corpus, and the resulting representations showcase interesting linear substructures of the word vector space. Down

  • 1