2024年6月8日のブックマーク (2件)

  • 金持ちイジメに見えて金持ちに有利になる世論誘導|shinshinohara

    もう二十年ほど前から「東大に進学するのは裕福な家庭」という報道が繰り返されている。そしてそのことを知っている人は非常に多く、今や常識。そのためか、街角インタビューでも「どうせ東大生は金持ち出身なんでしょ、だったら学費上げても構わないでしょ」という意見が。 これは恐らく「金持ちからはふんだくったらいい、ざまあみろ」という報復感情も多少手伝っているのだろう。 しかし実態は逆になる。金持ちには150万円の学費なんか痛くもかゆくもない。しかし貧困家庭ではとても支払えない金額。単に貧困家庭を大学という学歴から締め出す効果しか起きない。 これと似たことが政治でも。日では「政治家はカネに汚い」というイメージがある。どうせ権力を利用してお金儲けしてるのだし、元々金持ちだろうから、政治家は無給にしてタダ働きさせればいい、という意見がしばしば出る。これを、金持ち政治家に一矢報いるアイディアくらいに思う人が少

    金持ちイジメに見えて金持ちに有利になる世論誘導|shinshinohara
    marton
    marton 2024/06/08
    大幅に学費上げて親の収入によっては無料にすればいいだけ
  • 【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】

    はじめに GMO NIKKOの吉岡です。 みなさん、生成AIは活用してますか? ChatGPTに始まり、Claude3やGeminiなど、実用的なAIがどんどん出てきてますね。 自分も使ってはきましたが、課金が気になってしまいます。 これではサービスに組み込むことは難しいですよね。 そのためローカルで動くLLMを追ってきましたが、今年に入って実用的な日語を返すことができるモデルがいくつか出てきているので、サーバー構成からインストール方法、LLMの起動まで紹介しようと思います。 ローカルLLMを動かす上で一番重要なのはGPUVRAMです。 LLMは7B、13B、70Bモデルが多いですが、量子化しない場合、必要なVRAM容量は動かすモデルの大体2倍なので、13Bモデルでは26GのVRAMが必要です。 NVIDIAのGPUを使ったCUDAが前提になっているのですが、一般向けでは24Gモデルが

    【Phi-3-Medium】GPU2台構成でローカルLLMを動かす【Ubuntu24】