LINEから36億(3.6B)パラメータの大規模言語モデル(LLM)が公開されたので早速遊んでみた。正確には遊んだのは昨日のデイリーAIニュースなのだが、面白かったのでこちらにも転載する。 細かいやり方は大先生のページを参照のこと。 例によってこんな関数を書いた def line(prompt): # 推論の実行 input_ids = tokenizer.encode(prompt, add_special_tokens=False, return_tensors="pt") tokens = model.generate( input_ids.to(device=model.device), min_length=50, max_length=300, temperature=1.0, do_sample=True, pad_token_id=tokenizer.pad_token_i
![LINEの3.6B言語モデルで遊んだら爆笑した|shi3z](https://cdn-ak-scissors.b.st-hatena.com/image/square/6658d9d589e47a220c77888ba4c0be3dd0bca1b4/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F113472181%2Frectangle_large_type_2_2c2614b6feec8fe211303ec6354e5a36.png%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)