エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
記事へのコメント6件

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
128GB搭載M4 Max MacBook ProでオープンLLM「Gemma 3」をローカル実行してみた話|Terisuke
はじめに: M4 Max MacBook ProでLLMを動かすというロマンつい先日、128GBメモリ・8TBストレージを積んだ... はじめに: M4 Max MacBook ProでLLMを動かすというロマンつい先日、128GBメモリ・8TBストレージを積んだM4 Max搭載のMacBook Proを手に入れた。 Apple整備済製品で購入して価格は92万円とかなり思い切った投資だったが、このマシンでどうしてもやりたかったことがある。 それはLLM(大規模言語モデル)をローカルでガチ運用することだ。 自分のPCだけでAIモデルが動き、ネット接続なしでも高度な文章生成や画像認識ができる——そんな未来を先取りしたくて、このスペックのマシンを選んだ。 幸い、Google DeepMindからは最新のオープンウェイトLLM「Gemma 3」が公開されたばかりだった 。Gemma 3はスマホやラップトップといったデバイス上で直接高速に動作するよう設計されたモデルで、サイズも1Bから最大27Bパラメータまで揃っている 。今回このG
2025/04/21 リンク