
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
書籍「15Stepで踏破 自然言語処理アプリケーション開発入門」をやってみる - 3章Step11メモ「Word Embeddings」 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
書籍「15Stepで踏破 自然言語処理アプリケーション開発入門」をやってみる - 3章Step11メモ「Word Embeddings」 - Qiita
gensim.downloader.load('<word embeddingsモデル>')は単語に対応する特徴ベクトルを保持している。ただ... gensim.downloader.load('<word embeddingsモデル>')は単語に対応する特徴ベクトルを保持している。ただし、モデルによっては英単語のみの場合もある。 この例ではtokyoとjapanとfranceという単語を扱っており、単語の意味を踏まえて擬似計算してみると (tokyo - japan) + france = (首都) + france ≒ parisと表現できていることがわかる。 応用課題 他の本で読んだ例をいくつか試してみる。 king - man + woman ≒ queen gone - go + see ≒ seen king - man + woman = [('king', 0.8859834671020508), ('queen', 0.8609581589698792), ('daughter', 0.768451213836669