記事へのコメント7

    • 注目コメント
    • 新着コメント
    RySa
    GPU無しのMacbook Airでも動作確認出来た。因みにGemma:2bで受け答えは英語。今晩の料理のおすすめを教えてくれて最後に「ナプキン用意しますね!」と言われた。君、実世界にナプキンどうやって持ってくるん?

    その他
    misshiki
    “Ollama という初心者の方でも比較的失敗しにくい LLM 推論アプリケーションを用いて、ローカル環境で LLM を実行するまでを取り扱います。”

    その他
    deejayroka
    “標準で量子化されたモデルを利用することができます。便利ですね。一方で、出たばかりのモデルや自前のモデル、たとえば日本語モデルに対応していないことも多いです。そういった時に自分で量子化し、Ollama で使え

    その他
    puhu208n
    出たての頃のローカルLLM実行環境は日本語特化LLMぶち込むと落ちたりしてたなぁ

    その他
    alex0715
    “Ollama”

    その他
    fai_fx
    "参考値として 32GB であれば 32GB までは動く感触です。"...

    その他
    buhoho
    ollamaは用意されてないモデル使おうとしたら自分でModelfile作る必要ありinstraction シーケンスの設定間違うとまともに動かないし辛かった。koboldcppは何も考えないで拾ってきたggufを読み込むだけでWebUIでチャットできる

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    いちばんやさしいローカル LLM|ぬこぬこ

    https://t.co/q01cRabCyw な、なんだこのは...! というのはさておき、初の商業出版で三章を書かせて...

    ブックマークしたユーザー

    • HIDE102024/12/06 HIDE10
    • showgotch2024/10/29 showgotch
    • techtech05212024/06/30 techtech0521
    • ocha392024/05/19 ocha39
    • J1382024/05/08 J138
    • dowhile2024/05/07 dowhile
    • secondlife2024/05/07 secondlife
    • kikiki-kiki2024/05/02 kikiki-kiki
    • Insite2024/04/29 Insite
    • koga10202024/04/28 koga1020
    • izm_112024/04/28 izm_11
    • hush_in2024/04/26 hush_in
    • ryshinoz2024/04/25 ryshinoz
    • ZAORIKU2024/04/24 ZAORIKU
    • t_trad2024/04/23 t_trad
    • hm_hs2024/04/23 hm_hs
    • VTak2024/04/22 VTak
    • knzw252024/04/22 knzw25
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む