背景 何やら流行りの LangChain でいい感じに日本語扱いたい! とりあえずローカルで動かしたいので, 日本語は gpt-neox-japanese-2.7b 使います. LangChain 自体はなんかいろいろつなげるための wrapper みたいなものです. (そのうち huggingface もなんか langchain っぽいの出してきそうですネ) LLM module huggingface pipeline 使います. gpt-neox-japanese-2.7b デフォルトだと CPU 実行になってしまうので(CPU でも動くが数分くらいかかる), GPU 処理, また fp16 を使います! また, langchain の(?) デフォルトの max_new_tokens は 20 tokens で, 長い input 与える(下のずんだもんは 220 tokens
![LangChain + GPT-NEOX-Japanese-2.7b で日本語 LLM やりとり整備するメモ - Qiita](https://cdn-ak-scissors.b.st-hatena.com/image/square/002f5582de4ecc6542c4454e5ec537b35b2576b2/height=288;version=1;width=512/https%3A%2F%2Fqiita-user-contents.imgix.net%2Fhttps%253A%252F%252Fcdn.qiita.com%252Fassets%252Fpublic%252Farticle-ogp-background-9f5428127621718a910c8b63951390ad.png%3Fixlib%3Drb-4.0.0%26w%3D1200%26mark64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTkxNiZoPTMzNiZ0eHQ9TGFuZ0NoYWluJTIwJTJCJTIwR1BULU5FT1gtSmFwYW5lc2UtMi43YiUyMCVFMyU4MSVBNyVFNiU5NyVBNSVFNiU5QyVBQyVFOCVBQSU5RSUyMExMTSUyMCVFMyU4MiU4NCVFMyU4MiU4QSVFMyU4MSVBOCVFMyU4MiU4QSVFNiU5NSVCNCVFNSU4MiU5OSVFMyU4MSU5OSVFMyU4MiU4QiVFMyU4MyVBMSVFMyU4MyVBMiZ0eHQtY29sb3I9JTIzMjEyMTIxJnR4dC1mb250PUhpcmFnaW5vJTIwU2FucyUyMFc2JnR4dC1zaXplPTU2JnR4dC1jbGlwPWVsbGlwc2lzJnR4dC1hbGlnbj1sZWZ0JTJDdG9wJnM9NmUxNzkwNjcyNGQ5YjE3NGNmNzUwNTNhZGRjNmZhYzY%26mark-x%3D142%26mark-y%3D112%26blend64%3DaHR0cHM6Ly9xaWl0YS11c2VyLWNvbnRlbnRzLmltZ2l4Lm5ldC9-dGV4dD9peGxpYj1yYi00LjAuMCZ3PTcxNiZ0eHQ9JTQwc3lveW8mdHh0LWNvbG9yPSUyMzIxMjEyMSZ0eHQtZm9udD1IaXJhZ2lubyUyMFNhbnMlMjBXNiZ0eHQtc2l6ZT0zMiZ0eHQtYWxpZ249bGVmdCUyQ3RvcCZzPTAxYmU5NmI0OWVlZTBjYTQxM2NlY2YzNDMyYzVmZTdj%26blend-x%3D142%26blend-y%3D491%26blend-mode%3Dnormal%26s%3D26825d03c6ceb802340297d8d6a04ef8)