最初は128GBのメモリを積んだMacBook Proで、次はBlackwell世代のGPUを積んだ、同じく128GBのメモリ搭載DGX Spark互換機(ASUS GX10)。ここで開発に使っているClaude CodeのRate Limitが来てしまい力尽きて終わりました。 が、その後もエージェンティックAIの探究は続けていて、もっとコンパクトなマシンでどうなるかに挑戦。 清水亮さん開発のスクリプト「Suzaku」を使うと、ollamaほか必要ツールをまとめてインストールして設定し、LLMチャット環境が手軽に構築されるのですが、そこで使っているLLMはgpt-oss-20b。これを使うためには10数GBのメモリが必要となります。16GBメモリでも不足で、24GBくらいは必要みたい。 じゃあ、別のLLMを使えば裾野は広がるはず。 もっとコンパクトなLLMでエージェンティックAIに向いてい

