2.学習済みモデルの利用今回は、日本語の学習済みモデルを提供してくれているgpt2-japaneseを使います。ありがたい。小説を学習させたモデルも用意されているので、ちょうどいいですね。 本章ではローカルにクローンして、試しに動かしてみます。README.mdを読んでできる方は、この章は読まなくて大丈夫です。 2-1. モデルはv1の小説モデルを使います。新しいv2もありますが、短い入力にはv1が良いらしいので、何も考えずにv1を選択。 2-2. ダウンロードしたら解凍しておきます。Windowsなので、解凍用のフリーソフト(7-Zipなど)を使います。 2-3. GitHubからgpt2-japaneseをcloneします。 PyCharmの場合は、VCS>Checkout from Version Control>Gitを選択。 URLには、GitHubのページの「Code」をクリッ
![【機械文芸入門】GPT-2でTwitter小説を呟くbotを作ってみた|葦沢かもめ](https://cdn-ak-scissors.b.st-hatena.com/image/square/97ab7cf32158850fa532f337bbce474ebf63a8f6/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F37995187%2Frectangle_large_type_2_d7c2532d45d15369d3c95107457ed52c.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)