OpenAI、まことしやかなフェイクニュースも簡単生成の言語モデル「GPT-2」の限定版をオープンソース化 イーロン・マスク氏が共同会長を務める非営利の米AI(人工知能)研究企業OpenAIは2月14日(現地時間)、自然言語の文章を生成する言語モデル「GPT-2」を発表した。 この技術が悪意あるアプリに流用される懸念から、GPT-2をオープンソース化はせず、縮小版モデルと論文のみ公開した。 GPT-2は、40Gバイト分のネット上のテキストの次の単語を予測するためだけに訓練されたTransformerベースの言語モデル。800万のWebページのデータセットで訓練し、15億のパラメータを持つ。 大きな特徴は、固有の訓練用データセットではなく、Webページのデータセットをそのまま使ったことだ。Wikipediaやニュース、書籍など特定のデータで訓練された他の言語モデル(米GoogleのBERTな