こんにちは.AIチームの二宮です. 本記事では,最近話題のPrompt-tuningのご紹介と,実装・実験・分析を行ってみました. はじめに 近年,言語モデルの大規模化が著しいです.例えば,huggingfaceで公開されている日本語版のいくつかの言語生成モデルGPTのパラメタ数は以下になります. (M: million, B: billion) rinna/japanese-gpt2-xsmall: 37M rinna/japanese-gpt2-medium: 336M rinna/japanese-gpt-1b: 1.3B abeja/gpt-neox-japanese-2.7b:2.7B naclbit/gpt-j-japanese-6.8b:6.8B BERT-baseが約110M,BERT-largeが約340Mであることを考えると,非常に大規模であることを実感しますね.最近話
![【PyTorch】GPTをPrompt-tuningしてみた | 株式会社AI Shift](https://cdn-ak-scissors.b.st-hatena.com/image/square/3d96092cb9847b3c991d1ba3e9637f2f31c12e69/height=288;version=1;width=512/https%3A%2F%2Fwww.ai-shift.co.jp%2Fwp-content%2Fuploads%2F2023%2F01%2F25120259_m.png)