何の話かというと 本シリーズでは、これまで、CNNによる画像分類タスクを中心に解説してきました。ここでは、少し方向性を変えて、NLP(Natural Language Processing/自然言語処理)のタスクを取り上げます。Tutorialでは、Vector Representations of Wordsとして取り上げられているものです。 特徴ベクトルと「意味」の関係 本題に入る前に、「特徴ベクトル」について復習しておきます。 enakai00.hatenablog.com 上記の記事では、データを分類する際は、データそのものを見るのでなく、データから得られる「特徴変数」を見るとうまくいくことを説明しました。一般に特徴変数は複数あるので、これらを並べたベクトルを考えて、「特徴ベクトル」と言ってもよいでしょう。そして、特徴ベクトルの値によってデータがうまく分類できるということは、特徴ベ
![TensorFlow Tutorialの数学的背景 − Vector Representations of Words - めもめも](https://cdn-ak-scissors.b.st-hatena.com/image/square/071ba015d8277abcb8b595f66e2827ba885c75d4/height=288;version=1;width=512/http%3A%2F%2Fcdn-ak.f.st-hatena.com%2Fimages%2Ffotolife%2Fe%2Fenakai00%2F20160229%2F20160229084815.png)