タグ

word2vecに関するtokuryooのブックマーク (6)

  • word2vec(Skip-Gram Model)の仕組みを恐らく日本一簡潔にまとめてみたつもり - これで無理なら諦めて!世界一やさしいデータ分析教室

    久しぶりの記事更新です。 今回はかねてより書いてみたかったword2vecについて。 word2vecはとても面白い考え方なのですが、個人的には仕組みがちょっと捉えづらく、理解するのに結構時間がかかりました。 そこで今回は、過去の自分を救えるように、word2vecをできるだけ簡潔に、そして直観的に理解できるように解説していきます。 なお、word2vecについては以下書籍でよくまとまっているので、よろしければ是非! Pythonと実データで遊んで学ぶ データ分析講座 作者: 梅津雄一,中野貴広出版社/メーカー: シーアンドアール研究所発売日: 2019/08/10メディア: 単行(ソフトカバー)この商品を含むブログを見る ※追記※ スマホのAMPだと、行列や数式がうまく表示されない可能性がありますので、こちらのリンクかPCから購読頂けますと幸いです。 word2vecを使うと何ができる

    word2vec(Skip-Gram Model)の仕組みを恐らく日本一簡潔にまとめてみたつもり - これで無理なら諦めて!世界一やさしいデータ分析教室
  • word2vecの学習済み日本語モデルを公開します | カメリオ開発者ブログ

    こんにちわ。白ヤギコーポレーションでエンジニアをしている谷田です。 自然言語処理では、テキストに含まれる単語をベクトルとして表現するというタスクが頻繁に発生します。最近ではそのために、日語テキストが来たらMeCabに渡してword2vecに投入する、というのが定番パターンのひとつかと思います。word2vecは単語を分散表現と呼ばれる低次のベクトルに変換するモデルですが、単語をベクトルに変換するためには事前に学習を走らせておく必要があります。word2vecモデルの学習にはよくWikipedia語版をコーパスとして使ったりするのですが、全記事で学習を走らせると結構時間がかかります。 そこで、白ヤギが作った日word2vecモデルを公開します! http://public.shiroyagi.s3.amazonaws.com/latest-ja-word2vec-gensim-mo

    word2vecの学習済み日本語モデルを公開します | カメリオ開発者ブログ
  • Word2Vec のニューラルネットワーク学習過程を理解する · けんごのお屋敷

    Word2Vec というと、文字通り単語をベクトルとして表現することで単語の意味をとらえることができる手法として有名なものですが、最近だと Word2Vec を協調フィルタリングに応用する研究 (Item2Vec と呼ばれる) などもあるようで、この Word2Vec というツールは自然言語処理の分野の壁を超えて活躍しています。 実は Item2Vec を実装してみたくて Word2Vec の仕組みを理解しようとしていたのですが、Word2Vec の内部の詳細に踏み込んで解説した日語記事を見かけることがなかったので、今更感はありますが自分の知識の整理のためにもブログに残しておきます。なお、この記事は Word2Vec のソースコードといくつかのペーパーを読んで自力で理解した内容になります。間違いが含まれている可能性もありますのでご了承ください。もし間違いを見つけた場合は指摘してもらえると

  • 分散表現(単語埋め込み) - 岩波データサイエンス

    特集記事「単語の意味をコンピュータに教える」(岡崎直観)、「自然言語の意味に対する2つのアプローチ—記号表現と分散表現」(宮尾祐介)、およびコラム「Pythonword2vec」(中谷秀洋)で紹介した 分散表現(単語埋め込み) についてです。 分散表現(あるいは単語埋め込み)とは、単語を高次元の実数ベクトルで表現する技術です。 近い意味の単語を近いベクトルに対応させるのが分散表現の基ですが、最近はベクトルの足し算が意味の足し算に対応する「加法構成性」などを中心に、理論や応用の研究が進んでいます。 word2vec Skip-gram(特集記事参照)を実装した、単語の分散表現を生成するツールです。大きなコーパスからの学習と加法構成性を特徴としています。 GloVe 同じく単語の分散表現を生成するツールです。word2vec より高い性能をうたっています。 gensim Python

    分散表現(単語埋め込み) - 岩波データサイエンス
  • word2vecリンク集 - Educational NLP blog

    word2vecに関する資料へのリンク集です.全く網羅的でないですが,とりあえず. 中でやっている計算の資料 Word2vecの並列実行時の学習速度の改善 @chokkanorg 先生のNL研での発表資料.内部の計算をスライドで端的に説明してくれている. http://www.folgertkarsdorp.nl/word2vec-an-introduction/ 英語だが,中でどういう計算をしているのかをPythonのnumpyで表現してくれている. Improving Distributional Similarity with Lessons Learned from Word Embeddings @Bollegala 先生からおすすめされた論文.「なぜc+wにすると良くなるのかについては(この論文)のSec 3.3参照して下さい.」だそうです. Google Code Archi

    word2vecリンク集 - Educational NLP blog
  • ディープラーニングチュートリアル 応用編

    Transcript 1. 大規模データから単語の 意味表現学習-word2vec ボレガラ ダヌシカ 博士(情報理工学) 英国リバープール大学計算機科学科准教授 2. 2 2005 2008~10 学部 修士 博士 助教/講師 東京大学 工学部 東京大学大学院情報理工学系 文書自動要約における 重要文順序学習 同姓同名抽出 別名抽出 属性類似性計測 関係類似性計測 評判分類の分野適応 関係抽出の分野適応 進化計算を用いたWeb 検索結果順序学習 ソーシャルネットワーク の関係予測 対話型協調 Web検索エンジン 潜在関係検索 エンジン 自己紹介 専門分野:自然言語処理, 機械学習,データマイニング 2006~07 2010~13 2010~現在 准教授 リバープール大学 深層学習 3. 今回の講演の背景 •深層学習に関する活動 •2014年9月に深層学習のチュートリアルをCyberAge

    ディープラーニングチュートリアル 応用編
    tokuryoo
    tokuryoo 2015/04/17
    大規模データから単語の意味表現学習-word2vec
  • 1