![](https://cdn-ak-scissors.b.st-hatena.com/image/square/02c3c83f5051b56a1c2007fc22b93687a1d7eed1/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-412672c5f0600ab9a64263b751f1bc81.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTk3MiZoPTM3OCZ0eHQ9JUUzJTgwJTkwJUUzJTgxJUJFJUUzJTgxJUE4JUUzJTgyJTgxJUUzJTgwJTkxJUU4JTg3JUFBJUU3JTg0JUI2JUU4JUE4JTgwJUU4JUFBJTlFJUU1JTg3JUE2JUU3JTkwJTg2JUUzJTgxJUFCJUUzJTgxJThBJUUzJTgxJTkxJUUzJTgyJThCJUU1JThEJTk4JUU4JUFBJTlFJUU1JTg4JTg2JUU2JTk1JUEzJUU4JUExJUE4JUU3JThGJUJFJUVGJUJDJTg4JUU1JThEJTk4JUU4JUFBJTlFJUUzJTgzJTk5JUUzJTgyJUFGJUUzJTgzJTg4JUUzJTgzJUFCJUVGJUJDJTg5JUUzJTgxJUE4JUU2JTk2JTg3JUU2JTlCJUI4JUU1JTg4JTg2JUU2JTk1JUEzJUU4JUExJUE4JUU3JThGJUJFJUVGJUJDJTg4JUU2JTk2JTg3JUU2JTlCJUI4JUUzJTgzJTk5JUUzJTgyJUFGJUUzJTgzJTg4JUUzJTgzJUFCJUVGJUJDJTg5JnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnR4dC1jb2xvcj0lMjMyMTIxMjEmdHh0LWZvbnQ9SGlyYWdpbm8lMjBTYW5zJTIwVzYmdHh0LXNpemU9NTYmcz1kN2MyNjk5ZDI4ZTYzMzQ4ODg2MDMxZTU3ZDM1YzdlOQ%26mark-x%3D142%26mark-y%3D57%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZoPTc2Jnc9NzcwJnR4dD0lNDBrZW50YTE5ODQmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zNiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTkxMjM3MmMyNDQzYWY4YThkZDkxYjc0YzliNDQyNWY3%26blend-x%3D142%26blend-y%3D436%26blend-mode%3Dnormal%26txt64%3DaW4g5qCq5byP5Lya56S-44Kw44Ot44O844OT44K5%26txt-width%3D770%26txt-clip%3Dend%252Cellipsis%26txt-color%3D%2523212121%26txt-font%3DHiragino%2520Sans%2520W6%26txt-size%3D36%26txt-x%3D156%26txt-y%3D536%26s%3D0b27ef67a7f23c59dab70cc46ea30ee0)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【まとめ】自然言語処理における単語分散表現(単語ベクトル)と文書分散表現(文書ベクトル) - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【まとめ】自然言語処理における単語分散表現(単語ベクトル)と文書分散表現(文書ベクトル) - Qiita
自分のメモ代わりに作ったので間違いがあるかもしれません。また、説明が雑な部分もあります。 歴史が分... 自分のメモ代わりに作ったので間違いがあるかもしれません。また、説明が雑な部分もあります。 歴史が分かるように各手法が提案、公開された年も記載しています(※CNN、RNNは理論が発表された年にしています)。 2013年にGoogleのMikolovさん達がWord2Vecを提案して一躍有名に。 「王様」ー「男性」+「女性」=「お姫様」 のように単語の足し算、引き算ができるという画期的な成果を残した。 最初(2013〜2017年頃)は文脈依存なしの分散表現しかなかった。 文脈依存なしの欠点(※後述)を克服するという観点で、2017年以降文脈依存ありの手法が提案され始めた。 文脈依存なし Word2Vec(2013年) 一番有名。Googleの研究者たちが提案。 日本語モデルは東北大学や企業が公開済み。 http://www.cl.ecei.tohoku.ac.jp/~m-suzuki/jawi