「ChatGPT」は何が得意なのか。それはテキストだ。なぜなら、ChatGPTの機能は全てテキストでトレーニングされているからだ。 ChatGPTのベースとなっているAI(人工知能)モデルである「GPT-3」ファミリーのような大規模言語モデル(LLM:Large Language Model)は、膨大なデータセットでトレーニングすることで構築されている。これらのデータは、クローラーを使ってWebからスクレイピングで収集したり、Wikipediaなどから抽出したりしたものだ。 GPT-3だけでも、数千億の単語を含んでいる。既に周知のように、GPT-3は自然言語による質問に対して、これらの単語をつなぎ合わせて見事な回答を返せる。 だが、私はずっと「LLMを文章ではなくユーザーインタフェース(UI)でトレーニングできたらどうなるか?」と考えている。 「Figma」のような現代的なデジタルデザイン