650GBを超える巨大モデルのR1本体と比べると、かなり容量が小さく抑えられていることがわかる。 パラメーター数が小さくなればなるほど、容量だけでなく、推論のスピードも高速化するため、一般的なPCやスマホでも動かせる可能性がある。 例えば、筆者が実験したところ、Llamaの8BモデルはM3チップのMac Book Airでも普通に動作したし、Llamaの3Bモデルに至ってはiPhoneでも動作した。 小型軽量でもGPT-4oを超えるR1の超絶性能 DeepSeek R1のテクニカルペーパーの中で、Distilled Modelsのベンチマークテストの結果も示されている。 R1のいずれのdistilledモデルも、とんでもなくパフォーマンスが高く、6つのモデルの重要性には、甲乙つけ難いところだ。 しかし、筆者が注目したのは、DeepSeekのLlamaベースの8Bモデルが、昨年5月にリリース