ついにローカルLLMで安心して仕事が出来る!― Qwen3.5-27B 採用レポート (2026/02/27) TL;DR ・RTX 3090(VRAM 24GB)+5bit量子化で Qwen3.5-27B (Reasoning) を実用速度でローカル動作させた話。 ・Artificial Analysis の Intelligence Index 上では、 Qwen3.5-27B (42) > o3-pro (41) > Qwen3.5-35B-A3B (37) という並びになっている。 ・実際のコーディング体験でも、長めのタスクのやり切り/コードの一貫性/プロンプト耐性の3点で 27B が 35B-A3B を上回ると感じたため、「常用エンジン」は 27B を採用。 ・TypeScript + Canvas で Pong / Breakout / Tetris の3本をワンショット生成し

