最近、LLMの利用料の値上げに関するニュースがいくつかありました。GitHub Copilotの使用量ベース課金への移行や、Claude Codeが一時的にProプランから外された件などです。そんな時に気になるのが、GemmaやQwenなど自分のPC上でも動かせるオープンウェイトなLLMです。 ただ、50万円以上するMac Studioや高価なGPUマシンで検証している人が多く、いきなり手を出すのはハードルが高い、どの程度の性能なのか試したいと思っていました。 そんな時、OpenRouterというサービスを使うと、複数のオープンウェイトLLMを統一のAPIで数ドルから試せることを知りました。実際にやってみたのでその手順を紹介します。 なお、OpenRouterに限らず、機密情報をどこまでLLMに入れていいかは慎重な検討が必要です。この点についてはよく確認してから使いましょう。私の場合は、オ

