記事へのコメント6

    • 注目コメント
    • 新着コメント
    misshiki
    “MacOSでOllamaを入れてLlama3を動かしてみました。”

    その他
    puhu208n
    Appleの詐欺グラフで未だに誤解してる奴がちらほらまだ居るが、あれ中身別物のノート版との比較で、デスク版と比較したらUltraでも3060Tiに負けるからな。NVIDIAがノート・デスクのコア統一を黙って止めたのを悪用してる。

    その他
    d0i
    d0i 職場の詳しい人は当初からM1みたいなアーキテクチャが推論に最適だと指摘してた。GPUはtransformerの推論には向いてないらしい

    2024/05/19 リンク

    その他
    zgmf-x20a
    先日のAI24時間ハッカソン大阪で我々のチームは、64GBのMakBookProでCommandR/ollama0.1.36を実行した。20GBのモデルなので64GBの主記憶は奏効した。

    その他
    agricola
    agricola 量子化済みのモデル使うからしょっぱいCPUとメモリでもそこそこ動くし、貧相なグラボも使ってくれるollamaさん。

    2024/05/19 リンク

    その他
    dp212
    そういえば、大昔androidのLlamaってヤツでカスタマイズして遊んでたなぁ…と思い出したw

    その他

    注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

    アプリのスクリーンショット
    いまの話題をアプリでチェック!
    • バナー広告なし
    • ミュート機能あり
    • ダークモード搭載
    アプリをダウンロード

    関連記事

    M1MacでOllamaを試したら爆速で驚いた

    はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今...

    ブックマークしたユーザー

    • hamati6662024/12/26 hamati666
    • techtech05212024/07/02 techtech0521
    • nakakzs2024/07/01 nakakzs
    • rawwell2024/06/21 rawwell
    • razokulover2024/06/20 razokulover
    • tackun_hate2024/05/26 tackun_hate
    • shakeisan2024/05/23 shakeisan
    • asa_kaz_x2024/05/20 asa_kaz_x
    • jun_okuno2024/05/20 jun_okuno
    • tonkas2024/05/20 tonkas
    • misshiki2024/05/20 misshiki
    • pukuman2024/05/20 pukuman
    • lasherplus2024/05/20 lasherplus
    • enemyoffreedom2024/05/20 enemyoffreedom
    • yut1482024/05/20 yut148
    • BuchuntaGo2024/05/20 BuchuntaGo
    • thesecret32024/05/20 thesecret3
    • dhesusan46492024/05/20 dhesusan4649
    すべてのユーザーの
    詳細を表示します

    同じサイトの新着

    同じサイトの新着をもっと読む

    いま人気の記事

    いま人気の記事をもっと読む

    いま人気の記事 - テクノロジー

    いま人気の記事 - テクノロジーをもっと読む

    新着記事 - テクノロジー

    新着記事 - テクノロジーをもっと読む

    同時期にブックマークされた記事

    いま人気の記事 - 企業メディア

    企業メディアをもっと読む