タグ

ブックマーク / note.com/erukiti (2)

  • LLMの使い分けは大体Geminiでいい(2025年4月時点)|erukiti

    3ヶ月経って、いくつか新しいモデルが登場したことでごっそり事情が変わりました。 ChatGPT Pro使ってましたが解約しました。o3が登場したらまた考えます。一時期解約していたGemini Advanced(Google AI Oneプレミアム?)を契約しなおしました。Claudeの年契約をしたんですがすこーし後悔しています。 追記: Gemini 2.5 Pro は今までのGemini シリーズとは明確に違うコメントとかでGeminiアレルギーの人が多そうなので追記します。実際のところ僕もそうでしたよ。過去のGeminiは、特に1.5 Proが論外なくらいハルシネーションも多く馬鹿で、使い物にならないおもちゃでした。それは事実です。2.0 Proで状況が変わり始めたものの実験モデルが続いてて、結局コイツの真価がよくわからんってなってました。 Gemini 2.5 Proを触ったことがな

    LLMの使い分けは大体Geminiでいい(2025年4月時点)|erukiti
    sh2
    sh2 2025/04/14
    月額いくらの契約は避けてOpenAI/Anthropic/DeepSeek/GrokのAPI契約をしている。Gemini APIは無料枠で利用。オートチャージOFFにしておけば使いすぎは防げるし、その都度一番賢いモデルを選べるのでおすすめ
  • LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti

    もしあなたがLLMを使ったプロダクトを何かしら開発している、もしくは興味があるのなら、メモリを大量に積んだMac Studioの購入を検討すべきです。 対象読者NVIDIAが絶対にいいという人はこの記事の対象読者ではありません。また、用途によって、ローカルマシンによるローカルLLMが向いてる・向いてないは明確にあるので、向いてない用途にしか使わない人も対象読者ではありません。あしからず。 また、この記事は別にNVIDIAをdisる意図はありません。みんな違っていい。NVIDIAもいい選択肢ですが、Mac Studioも悪くないですよ、と言いたい。 結論LLMプロダクト開発において、今年はもはやローカルLLMを無視できない、してはいけない状況です。 LLMプロダクト開発をする会社の視点でいえば、是非とも80GB以上の十分なGPUメモリを積んだマシンを用意できるようなアジリティを持つのが望まし

    LLMプロダクト開発者がMac Studioを買ってローカルLLMを触るべき理由|erukiti
    sh2
    sh2 2024/04/24
    2024年はMac Studio有力、会社でもL40Sの予算を少し削ってMac Studioを増やそうと画策している。一方2025年になればAMD Zen 5 APUのStrix HaloがLPDDR5X 8533MT/s 8 Channelで546GB/sとの噂、Ryzen AIも搭載しているので対抗馬になるかなと思っている
  • 1