「rinna」の日本語GPT-2モデルが公開されたので、推論を試してみました。 ・Huggingface Transformers 4.4.2 ・Sentencepiece 0.1.91前回 特徴は、次のとおりです。 ・学習はCC-100のオープンソースデータ。 ・Tesla V100 GPUで70GBの日本語テキストを約1カ月学習。 ・モデルの性能は約18 perplexity。2. rinnaの日本語GPT-2モデルの推論(1) Huggingface TransformersとSentencePieceをインストール。 # Huggingface Transformersのインストール !pip install transformers==4.4.2 # Sentencepieceのインストール !pip install sentencepiece==0.1.91(2) 日本語GPT
![Huggingface Transformers 入門 (27) - rinnaの日本語GPT-2モデルの推論|npaka](https://cdn-ak-scissors.b.st-hatena.com/image/square/7f325722d468199e697931b87c30fd6565dd3cf6/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F49530920%2Frectangle_large_type_2_532e45e3ae198277ff554b8779aeadef.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)