エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
【Ollama】自宅サーバーでかんたんにローカルLLMを動かす方法*
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
【Ollama】自宅サーバーでかんたんにローカルLLMを動かす方法*
こんにちは、1日16時間以上はAIを触っている株式会社FP16の二宮です。 (FP16だけに...?笑) 「OpenAIや... こんにちは、1日16時間以上はAIを触っている株式会社FP16の二宮です。 (FP16だけに...?笑) 「OpenAIやMicrosoftにずっとお金を払っていたくない!」 「自分たちで管理できる場所で実行したい!」 と思うことはありませんか? 今回はそんな方へ向けての記事です。 Ollamaとは? 今回はOllamaというこれからローカルでLLMを動かすなら必ず使うべきツールについて紹介します。 Ollamaは、LLama2やLLava、vicunaやPhiなどのオープンに公開されているモデルを手元のPCやサーバーで動かすことの出来るツールです。 LinuxとmacOSに対応しており、WindowsでもWSLを使うことで動かすことが出来ます。(Windowsも今後対応予定) OllamaはCLI又はAPIで使うことができ、そのAPIを使ってオープンソースでOllama WebUIも開発

