大規模言語モデルの優秀さの秘訣ChatGPTなどに代表されるサービスで採用されている大規模言語モデル(LLM)によって、AIは今までとは比べ物にならないくらい自然な対話ができるようになった。 なぜLLMでは自然な対話ができるかというとその秘訣の1つは、LLMは大量のテキストを学習する際に、文章内の単語を「ベクトル(向きと長さを持つ数学的な量)」に変換して処理しているからだ。 GPTでは各単語は数万という次元でベクトル化されており、単語ベクトルは意味が近いほどベクトル同士の距離が近くなる。 https://openai.com/blog/introducing-text-and-code-embeddingsこれこそが大規模言語モデルがここまで高い言語能力を獲得したポイントであるが、たまたま最近読んだ脳科学、言語学、文字学の本の中で、このLLMにおけるベクトル化の仕組みは非常に理にかなってい