2024年は高性能化と軽量化が進むローカルLLMに注目 また、今はローカルで高性能なLLMを動かすためにはVRAM容量の多い、高価なビデオカードを搭載するPCマシンが必要ですが、モデルの量子化アプローチも様々な圧縮する方法が試されており、大きなモデルをさらに小さなデータ量にする手法が発見されつつあります。最近、RAMとVRAMのどちらの役割も与えられるユニファイドメモリを搭載していることから、ローカルLLMを動かす環境として「Mac Studio」が注目されはじめています。数年という時間はかかるでしょうが、いずれ一般的なスペックのパソコンや、あるいはスマートフォンやタブレットでも、高性能なローカルLLMが動作する環境が整ってくるのではないでしょうか。 2023年までは、ごく一部の人々しか触れられていなかったローカルLLMの世界ですが、2024年に入り、LM Studioのような扱いやすい環