タグ

2024年6月27日のブックマーク (3件)

  • 世の中には「隣人に手を貸さない(相手が利する行為はしない)」層が一定数いるが、これに対しある作家が言った「ロウソクの火」のたとえが秀逸だった

    岸野雄一 @KishinoYUICHI 勉強家(スタディスト)・公界往来人 東京藝術大学大学院映像研究科アニメーション専攻 、京都精華大学メディア表現学部・非常勤講師。美学校音楽学科・主任。第19回文化庁メディア芸術祭エンターテインメント部門大賞受賞。ヒゲの未亡人、ワッツタワーズ、スペースポンチ、流浪のDJ。実際に会って話をした人のみフォローしてます。 outonedisc.com 岸野雄一 @KishinoYUICHI 小学校の時に、班グループに分かれて自由研究をしていて、隣の班に辞書を貸そうとしたら、「貸しちゃダメ!隣の班の方が良くなっちゃうよ!」と、同じ班の子にキツく止められたことがあった。クラス全体の研究レベルが上がるのは良いことだと思うのだが。近しい事がその後の人生でも度々起こった。続↓ pic.twitter.com/M98aWT1gEL

    世の中には「隣人に手を貸さない(相手が利する行為はしない)」層が一定数いるが、これに対しある作家が言った「ロウソクの火」のたとえが秀逸だった
    kazuya030
    kazuya030 2024/06/27
    この手の話を聞く度にぼくが思い出すのは、大学の教養時代、テスト前にノートを見せた見返りにラーメンを奢ってくれた友人。大学時代に恩を周りに振りまく戦略の価値に気づいてたと思ってる。ラーメンうまかった
  • 超重要な基盤技術「Attention」、Transformerがなぜ画期的なのかを知る

    対話型AIサービス「ChatGPT」で使われている自然言語モデルの核になっている技術が「Transformer」だ。自然言語処理を例に、Transformerの仕組みを解説する。 実は、エンコーダーとデコーダーに用いられている「RNN」(Recurrent Neural Network)には、欠点があります。それは、長い文章が苦手だということです。 なぜ苦手かというと、以下の2つのポイントからそのように言えます。 (1)RNNでは、翻訳元文章全体の特徴を記憶できるサイズが固定されている。そのため、文章が長くなり単語の数が増えるほど、エンコーダーにおいて、文章の前の方で出現した単語の意味が薄まってしまう。 (2)RNNでは、単語を1つずつニューラルネットワークで処理する。そのため、単語の数が多くなればなるほど処理時間がかかってしまう。 ですので、RNNが持つこうした欠点を解消するための仕組み

    超重要な基盤技術「Attention」、Transformerがなぜ画期的なのかを知る
    kazuya030
    kazuya030 2024/06/27
  • エナドリを「1日1リットル」飲んだ私に起きた異変

    コンテンツブロックが有効であることを検知しました。 このサイトを利用するには、コンテンツブロック機能(広告ブロック機能を持つ拡張機能等)を無効にしてページを再読み込みしてください。 ✕

    エナドリを「1日1リットル」飲んだ私に起きた異変
    kazuya030
    kazuya030 2024/06/27