エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
AndroidタブレットでローカルLLMのllama.cppをTermux上でビルドして軽量高性能モデルPhi-2をサーバモードで起動して遊んでみた。メモリさえあればそこそこちゃんと動いて驚いた。LLM禁止職場へどうぞ
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
AndroidタブレットでローカルLLMのllama.cppをTermux上でビルドして軽量高性能モデルPhi-2をサーバモードで起動して遊んでみた。メモリさえあればそこそこちゃんと動いて驚いた。LLM禁止職場へどうぞ
LinuxならTermuxでもllama.cpp動くという事でビルドして動かしてみました。メモリが気になる所ですが、2... LinuxならTermuxでもllama.cpp動くという事でビルドして動かしてみました。メモリが気になる所ですが、2.2Bクラスなら3.6GB消費メモリだったのでAndroidでもなんとかいけそう。 AndroidのGPU対応してくれたら爆速化しそうな予感で未来を感じます。 LLM禁止職場でどうぞ