タグ

2024年4月11日のブックマーク (5件)

  • 時間停止したモノに衝撃が蓄積されるやつ あれの歴史を調べたい あの概念は..

    時間停止したモノに衝撃が蓄積されるやつ あれの歴史を調べたい あの概念は凄い発明だと思う ジョジョの奇妙な冒険第5部黄金の風のクラフトワーク ゼルダの伝説ブレスオブザワイルドのビタロック あと時間停止モノのエロ漫画で快感が蓄積されるやつ SFにおける時間停止モノの歴史はH・G・ウェルズ「新加速剤」が元祖だろう…… SFにおける「時間停止」ギミックの歴史としては先行研究として以下の私家翻訳を見つけた #ライマン・フランク・ボーム #翻訳 捕まった《時の翁》 - カスガの小説 - pixiv ▼『オズの魔法使い』シリーズの作者として知られるライマン・フランク・ボーム(1856年~1919年)の童話集“American Fairy Tales”(1901年10月)に収録された“The Capture of Father Time”の拙訳。私が知る限りでは、世界で最初の「時間を止めてイタズラをする

    時間停止したモノに衝撃が蓄積されるやつ あれの歴史を調べたい あの概念は..
    knok
    knok 2024/04/11
    桃色サバスで似たような話があった記憶。正確には「停止中に移動した結果、空気がものすごい勢いで撹拌されたことになって強風になった」という感じだったけど。1995発売の7巻に収録らしい
  • 「これ以上の名古屋飯ガイドはないのでは」名大消化器外科が学会のために作成した飲食店案内のクオリティが高すぎる - Togetter

    オルト @oooooooorrt 友人から教えて貰った名大消化器外科作成の名古屋飯ガイドのクオリティが高過ぎて笑った。外科学会に合わせて1回限りになるのもなんなので、勝手ながら有効活用しよう jp.jssoc.or.jp/jss124/kodelin… 2024-04-10 16:48:48

    「これ以上の名古屋飯ガイドはないのでは」名大消化器外科が学会のために作成した飲食店案内のクオリティが高すぎる - Togetter
    knok
    knok 2024/04/11
    マウンテンは現役学生が安価にたくさん食べるための店なので味はまあ…
  • 東芝、dynabookの父からの宿題 危機の時こそ破壊を 東芝再出発④デジタル敗戦の向こうへ - 日本経済新聞

    「市場を壊していったということ。それが大事なことなんですよ」かつて東芝に栄光をもたらした白髪の老紳士に、その足跡を聞いた。元専務の溝口哲也。85歳になる。コンピューター部門のエンジニアで、「ダイナブックの父」として知られる。50歳だった1989年に世に送り出した世界初のノート型パソコン「ダイナブック」は、東芝を世界シェア最大手へと押し上げた。「仕事がなくなってしまう」米著名研究者であるアラ

    東芝、dynabookの父からの宿題 危機の時こそ破壊を 東芝再出発④デジタル敗戦の向こうへ - 日本経済新聞
    knok
    knok 2024/04/11
    そもそも別にアランケイの理念実現したようなノートPCじゃなかったしただの名前のパクリなだけでは…
  • 本屋大賞ホント糞。早く終われ

    出版界隈の端っこにいる人間だけどさ。 もともと売れているが、さらに売れるだけの糞賞。書店員なんか一部を除いてベストセラーしか読んでないので、ベストセラーにさらにブーストがかかって他のとの格差がえらいことになるだけの糞賞。売れていないけど良作を書いている作家の、モチベーションと売上を低下させている糞賞。屋大賞のノミネーション10作品が長期間屋のいい場所を占拠し続けるので、選に漏れた良作が埋もれるだけの糞賞。書店員の多数決という糞システムを採用しているので、同じような作家ばかりがノミネートされる糞賞。屋大賞が影響力を持ちすぎたせいで、出版社も書店相手にゲラを読ませて帯コメントを取るなどの糞行為をはじめ、書評家・評論家の立場が低下し業界の批評機能を麻痺させている糞賞。 早く終われこんなもの。出版界の癌やろ。 参考: https://anond.hatelabo.jp/201404131

    本屋大賞ホント糞。早く終われ
    knok
    knok 2024/04/11
    レコード大賞なんかもこういう経緯をたどったりしたのだろうか
  • 日本語LLM 9種を量子化して回答内容を比較調査してみた - Qiita

    TL;DR 量子化しても成績が下がりにくいモデルと、大きく下がるモデルがある 一部のモデルは量子化すると回答が極端に短くなる 量子化によって回答が短くなる度合いは、量子化前モデルの回答の長さと相関がある可能性がある はじめに 皆さんは量子化したLLMを使っていますか? 深層学習における量子化(quantization) とは、モデルのパラメータを少ないビット数で表現することです。 通常のモデルは float32 などの高精度なデータ型を使ってパラメータを表現しますが、この精度を float16 や int8 に下げることを量子化といいます。 量子化による最大のメリットは、モデルのメモリ使用量を削減できることです。メモリの大きなモデルを動かすためには、大容量のメモリを搭載したGPUが必要ですが、量子化によってモデルのメモリ使用量を削減することで、より多くのGPUでモデルを動かすことができます

    日本語LLM 9種を量子化して回答内容を比較調査してみた - Qiita
    knok
    knok 2024/04/11