AI-powered Search and Chat for AWS Documentation
文書の数が多い場合、単語の種類(ボキャブラリ)も多くなり単語の次元が大幅に増えていきます。 一方、一つの文書に含まれる単語の数には限りがあるため、これは全体として疎行列になります。 また、単語が各次元として扱われますが、文書ごとの出現順序など、単語間での関連性を示す情報は抜け落ちたものとなります。 それに対して低次元(通常数百次元程度)の密な行列で単語の意味を定義する方法があります。 これは、「分散表現」や「埋め込み表現」と言われるものになっております。 この表現を獲得するため手法は様々なものがありますが、ここではWord2Vecを紹介します。 元論文 : Efficient Estimation of Word Representations in Vector Space 具体的な実装についての解説 : word2vec Parameter Learning Explained Wor
Googleのエンジニアチームが、基本的な数理演算のみを使って最適な機械学習アルゴリズムを自動的に発見する人工知能(AI)「AutoML-Zero」を発表しました。 [2003.03384] AutoML-Zero: Evolving Machine Learning Algorithms From Scratch https://arxiv.org/abs/2003.03384 Artificial intelligence is evolving all by itself | Science | AAAS https://www.sciencemag.org/news/2020/04/artificial-intelligence-evolving-all-itself Google Engineers 'Mutate' AI to Make It Evolve Systems Fa
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く