![](https://cdn-ak-scissors.b.st-hatena.com/image/square/1830b7f4f2ea8508f1f2572a8d52ada7a0a1406d/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZoPTMzNiZ0eHQ9JUUzJTgxJTk1JUUzJTgxJThGJUUzJTgyJTg5JUUzJTgxJUFFJUUzJTgyJUFGJUUzJTgzJUE5JUUzJTgyJUE2JUUzJTgzJTg5JUUzJTgxJUFFR1BVJUUzJTgyJUI1JUUzJTgzJUJDJUUzJTgzJTkwJTI4VGVzbGElMjBWMTAwJTI5JUUzJTgxJUE3JUUzJTgyJUI1JUUzJTgyJUE0JUUzJTgzJTkwJUUzJTgzJUJDJUUzJTgyJUE4JUUzJTgzJUJDJUUzJTgyJUI4JUUzJTgyJUE3JUUzJTgzJUIzJUUzJTgzJTg4JUUzJTgxJThDJUU0JUI4JTgwJUU4JTg4JUFDJUU1JTg1JUFDJUU5JTk2JThCJUUzJTgxJTk3JUUzJTgxJTlGJUU2JTk3JUE1JUU2JTlDJUFDJUU4JUFBJTlFTExNJTI4T3BlbkNBTE0lMjklRTMlODIlOTIlRTUlOEIlOTUlRTMlODElOEIlRTIlODAlQTYmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT01NiZ0eHQtY2xpcD1lbGxpcHNpcyZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTlkYWMzODRkZTcwYzE4MGVlOTAzNTFiMjViY2Y3ZjY3%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTcxNiZ0eHQ9JTQwdGFyX3h6dmYmdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zMiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTk3YmMxMTQ5YTE0YWVmNjNjODhkMzdlMTcwN2Y5NGZh%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3Dcab4b4c8de1569e3b92737015009a7b6)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
さくらのクラウドのGPUサーバ(Tesla V100)でサイバーエージェントが一般公開した日本語LLM(OpenCALM)を動かしてみる - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
さくらのクラウドのGPUサーバ(Tesla V100)でサイバーエージェントが一般公開した日本語LLM(OpenCALM)を動かしてみる - Qiita
>>> import torch >>> from transformers import AutoModelForCausalLM, AutoTokenizer >>> >>> model =... >>> import torch >>> from transformers import AutoModelForCausalLM, AutoTokenizer >>> >>> model = AutoModelForCausalLM.from_pretrained("cyberagent/open-calm-1b", device_map="auto", torch_dtype=torch.float16) Downloading (…)lve/main/config.json: 100%|███████████████████████████████████████████| 610/610 [00:00<00:00, 1.85MB/s] Downloading pytorch_model.bin: 100%|█████████████████████████████████████