2024年5月19日のブックマーク (2件)

  • 田舎のパパ活、野菜現物支給

    特に弁明の必要がないぐらい、タイトルの通りである。 家族もいなければ人付き合いもそんなにしていない農家のおじさんと、 たまに喫茶店で茶をシバくだけで野菜を箱いっぱいもらっている。 あんまりいっぱいもらうので、それで作った料理をお返しとして分けたりもしている。 彼女になってくれんかと言われたこともあるが、 年の差いくつあるねんそれなら二度と会わんと跳ね除け、 かれこれ三年ぐらい茶をシバくだけの関係を続けている。 こういうおじさんが数人いる。 私の周りだけで数人いるのだから、 実際はもっと大勢いると思われる。高齢化社会だしな。 これは私の趣味みたいなもんであり、 孤独な老人に一時の癒しを与えることで、 慈善事業をしているという偽善と自己満足、あと野菜をもらって悦に入っているわけである。 一時金を出そうとしてきたおじさんもいたが、 それをもらうと完全に仕事になってしまうなと思って、断った。 家族

    田舎のパパ活、野菜現物支給
    redundancy
    redundancy 2024/05/19
    茶飯イチゴでほんとに苺もらえるのちょっと微笑ましい
  • M1MacでOllamaを試したら爆速で驚いた

    はじめに いつもNVIDIAが載っているWindowsで楽しくLLMを動かしたり生成AIライフを楽しんでいますが、今回はMacOSでOllamaを入れてLlama3を動かしてみました。 スペック: Apple M1 Pro(16 GB) 少し前だとCUDAのないMacでは推論は難しい感じだったと思いますが、今ではOllamaのおかげでMacでもLLMが動くと口コミを見かけるようになりました。 ずっと気になっていたのでついに私のM1 Macでも動くかどうかやってみました! 結論、爆速で推論できていたのでとても驚きました。OSS開発に感謝です! Ollamaとは OllamaとはローカルでLLMを動かすことができるアプリケーションです。 以下からダウンロードできます。 MacOSLinuxで使うことができます。Windowsもプレビュー版があるみたいです。 #いざ推論 ダウロードができたらシ

    M1MacでOllamaを試したら爆速で驚いた