2024年3月3日のブックマーク (2件)

  • 【追記あり】教養って文化資本に恵まれた奴がマウントを取るための道具だろ

    文化ガチ勢がガチ勢同士でつるむためのチケットでしかないだろ。くだらねえよ。意味ねえじゃん。 教養なんてあっても幸せになんてなれないし、むしろ邪魔まであるだろ。 自分で言うのもなんだが、俺にはかなりの教養がある。つまりお前に意見をするチケットがある。こんな話は反吐が出るから詳しくは言わないが、文系、理系、文化、芸術などなど、どの点をとっても俺の教養パワーにはほとんど隙がない。なぜ隙が無いのか?文化に恵まれているからだ。 どうして俺が反吐を出しつつも、こうして自分に教養があることを声高に主張するのかというと、教養のあるみなさん(笑)は教養の無い人の意見を聞いてくれないからだ。 教養のある皆さんにもよく考えてほしいんだが、教養のある奴が、教養のある故に幸福になっているところを見たことがあるか? 無いよな。 教養があって幸福なやつは、持ち前の向学心によって身についた職業に関する専門的な知識

    【追記あり】教養って文化資本に恵まれた奴がマウントを取るための道具だろ
    ntstn
    ntstn 2024/03/03
    相手が自分に合うかどうかのフィルターだと思ってる。分からない人からするとマウントだろうな。
  • 速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)

    2024-02-27にarXiv公開され,昨日(2024-02-28)あたりから日AI・LLM界隈でも大きな話題になっている、マイクロソフトの研究チームが発表した 1ビットLLMであるが、これは、かつてB-DCGAN(https://link.springer.com/chapter/10.1007/978-3-030-36708-4_5; arXiv:https://arxiv.org/abs/1803.10930 )という「1ビットGANのFPGA実装」を研究していた私としては非常に興味をそそられる内容なので、論文を読んでみた。今回は速報として、その内容のポイントを概説したい。 論文情報 Ma, S. et al. (2024) ‘The Era of 1-bit LLMs: All Large Language Models are in 1.58 Bits’, arXiv [c

    速報:話題の 1ビットLLMとは何か?|寺田英雄(㈱オープンストリームCTO)
    ntstn
    ntstn 2024/03/03
    学習はGPUで推論は専用加算機とかそんな感じに棲み分けるのかしら?