![](https://cdn-ak-scissors.b.st-hatena.com/image/square/e1b9fbbd4ef12b313082d36d3103ad24933701be/height=288;version=1;width=512/https%3A%2F%2Fres.cloudinary.com%2Fzenn%2Fimage%2Fupload%2Fs--TlsTKSuO--%2Fc_fit%252Cg_north_west%252Cl_text%3Anotosansjp-medium.otf_55%3A%2525E3%252580%252590%2525E5%252582%252599%2525E5%2525BF%252598%2525E9%25258C%2525B2%2525E3%252580%252591llama-cpp-python%25252Bpyinstaller%2525E3%252581%2525A7exe%2525E9%252585%25258D%2525E5%2525B8%252583%2525E3%252581%252599%2525E3%252582%25258B%2525E3%252581%2525A8%2525E3%252581%25258D%2525E3%252581%2525AE%2525E6%2525B3%2525A8%2525E6%252584%25258F%2525E7%252582%2525B9%252Cw_1010%252Cx_90%252Cy_100%2Fg_south_west%252Cl_text%3Anotosansjp-medium.otf_37%3ASald%252520ra%252Cx_203%252Cy_121%2Fg_south_west%252Ch_90%252Cl_fetch%3AaHR0cHM6Ly9zdG9yYWdlLmdvb2dsZWFwaXMuY29tL3plbm4tdXNlci11cGxvYWQvYXZhdGFyLzc5MTEyYWU3MTAuanBlZw%3D%3D%252Cr_max%252Cw_90%252Cx_87%252Cy_95%2Fv1627283836%2Fdefault%2Fog-base-w1200-v2.png)
エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【備忘録】llama-cpp-python+pyinstallerでexe配布するときの注意点
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【備忘録】llama-cpp-python+pyinstallerでexe配布するときの注意点
ローカルLLMを使ったアプリケーションをexeファイルする時の注意点があったので、備忘録的に。 LLMモデ... ローカルLLMを使ったアプリケーションをexeファイルする時の注意点があったので、備忘録的に。 LLMモデルはあとで読み込めるようにする 最初試したのは以下。 pyinstaller --onefile --add-data "models/hoge.gguf;models" main.py これだと途中でエラーになる。原因はggufにしたところで数GBになるため。なので、ビルド終わったらcpコマンド等でdistディレクトリにmodelsをコピーしてあげよう。 hooksをきちんと書く llama-cpp-pythonはllama.dllというのが必要で、どうやらビルド時にこれの参照が上手くいかなくなるらしい。下記ページを参考に、hooksディレクトリにhook-llama_cpp.pyを配置してあげよう。 最終的なコマンドは以下になった。これさえ気を付ければexe配布できるので、気軽に配