国立情報学研究所が作ったLLM-JP 13Bが公開されていたので早速試してみた。色々なモデルが公開されているが、全部盛りっぽい 「llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0」を試す。 マシンはもちろんドスパラ製Memeplexマシン(A6000x2)だ。 import torch from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("llm-jp/llm-jp-13b-instruct-full-jaster-dolly-oasst-v1.0") model = AutoModelForCausalLM.from_pretrained("llm-jp/llm-jp-13b
![注目の日本語大規模モデルLLM-JP 13Bを試す(JSON吐けた)|shi3z](https://cdn-ak-scissors.b.st-hatena.com/image/square/3dc0e8f8af587b566e8793deaacacdc895e829d3/height=288;version=1;width=512/https%3A%2F%2Fassets.st-note.com%2Fproduction%2Fuploads%2Fimages%2F119405894%2Frectangle_large_type_2_914b1255ce4e1361d19c6763d55906ba.jpeg%3Ffit%3Dbounds%26quality%3D85%26width%3D1280)