
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【備忘録】llama-cpp-python+pyinstallerでexe配布するときの注意点
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【備忘録】llama-cpp-python+pyinstallerでexe配布するときの注意点
ローカルLLMを使ったアプリケーションをexeファイルする時の注意点があったので、備忘録的に。 LLMモデ... ローカルLLMを使ったアプリケーションをexeファイルする時の注意点があったので、備忘録的に。 LLMモデルはあとで読み込めるようにする 最初試したのは以下。 pyinstaller --onefile --add-data "models/hoge.gguf;models" main.py これだと途中でエラーになる。原因はggufにしたところで数GBになるため。なので、ビルド終わったらcpコマンド等でdistディレクトリにmodelsをコピーしてあげよう。 hooksをきちんと書く llama-cpp-pythonはllama.dllというのが必要で、どうやらビルド時にこれの参照が上手くいかなくなるらしい。下記ページを参考に、hooksディレクトリにhook-llama_cpp.pyを配置してあげよう。 最終的なコマンドは以下になった。これさえ気を付ければexe配布できるので、気軽に配