タグ

2020年1月24日のブックマーク (3件)

  • https://www.jstage.jst.go.jp/article/sjpr/60/4/60_379/_pdf

    abrahamcow
    abrahamcow 2020/01/24
    豊田秀樹
  • 評伝 『ECDEAD あるラッパーの生と死』第1回 「あるリスナーの回想(前書きにかえて)」 磯部 涼|本がひらく

    2018年1月に57歳で他界したラッパー、ECD。私小説家でもあり社会運動家でもあった彼の生涯を、『ルポ 川崎』が注目を集めたライター・磯部涼が描く。2000年代初頭からECDと親交を深め、併走してきた著者にしか描けない画期的評伝! その夜、ダンスフロアで ECDについて考えると思い出す光景がある。 高速道路の高架に空を覆われた通りの、雑居ビルの地下にある小さなクラブ。薄暗い店内はふたつのスペースに仕切られていて、左半分がバー、右半分がダンスフロアになっている。平日の深夜。イベントはお世辞にも盛り上がっているとは言い難い。バーでは出番を終えたDJたちが談笑している。フロアにいるのは僕だけで、DJブースにはトリを務めるECDの顔がライトに照らされてぼうっと浮かび上がっている。耳をつんざくような音量でストゥージズの「アイ・ワナ・ビー・ユア・ドッグ」がかかる。明け方近くなっていい加減疲れていたが

    評伝 『ECDEAD あるラッパーの生と死』第1回 「あるリスナーの回想(前書きにかえて)」 磯部 涼|本がひらく
  • AdaGradのすすめ - Qiita

    学習率の調整アルゴリズムについて、いろいろ試した結果AdaGradが一番使いやすいという結論に至ったのでまとめ。 前提 線形モデルの学習に限った話。(特に、コンピュータ将棋の評価関数、進行度、実現確率とかでの経験に基づく話。) 非線形モデル(というかNN)の場合は挙動がそれほど素直じゃないので、指数移動平均を使うアルゴリズム(AdamとかRMSPropとか)の方が合っていると思う。 AdaGradとは オンライン学習で学習率を自動調整する手法の一つ。 g:勾配、w:特徴の重みの配列に対して、 こんなような感じで更新する。g2:配列(最初は0)、eta:定数。 実装するときのポイント その1 g2にg * gを足すのは先にやる必要がある。 正しく実装すると、初回の学習率がeta * g / sqrt(g * g) == etaになっていて、2回目以降はちょっとずつ小さくなっていくという、とて

    AdaGradのすすめ - Qiita