こんにちは、品川です。 最近仕事でGPT-2,3について調べてたのですが、日本語GPT-2を作っているプロジェクトのことを知りました。 github.com 見てみると学習済みモデル(small, medium)が公開済みで、fine-tuning用のコードなども揃っておりいたく感動しました。 本記事は生成結果をぜひみてみたいということで試してみたという趣旨の記事になります。 使い方は上記リポジトリのREADMEを読んでいただければ良いかと思います。 contextをオプションで指定することで、contextに沿った生成が可能とのこと。なるほど、ならば架空のNAIST生をD進させてD進後の状況を独白してもらうことも可能・・・? 早速試してみる(この結果はフィクションです) python gpt2-generate.py \ --model gpt2ja-medium \ --num_gen