2018年1月に57歳で他界したラッパー、ECD。私小説家でもあり社会運動家でもあった彼の生涯を、『ルポ 川崎』が注目を集めたライター・磯部涼が描く。2000年代初頭からECDと親交を深め、併走してきた著者にしか描けない画期的評伝! その夜、ダンスフロアで ECDについて考えると思い出す光景がある。 高速道路の高架に空を覆われた通りの、雑居ビルの地下にある小さなクラブ。薄暗い店内はふたつのスペースに仕切られていて、左半分がバー、右半分がダンスフロアになっている。平日の深夜。イベントはお世辞にも盛り上がっているとは言い難い。バーでは出番を終えたDJたちが談笑している。フロアにいるのは僕だけで、DJブースにはトリを務めるECDの顔がライトに照らされてぼうっと浮かび上がっている。耳をつんざくような音量でストゥージズの「アイ・ワナ・ビー・ユア・ドッグ」がかかる。明け方近くなっていい加減疲れていたが
学習率の調整アルゴリズムについて、いろいろ試した結果AdaGradが一番使いやすいという結論に至ったのでまとめ。 前提 線形モデルの学習に限った話。(特に、コンピュータ将棋の評価関数、進行度、実現確率とかでの経験に基づく話。) 非線形モデル(というかNN)の場合は挙動がそれほど素直じゃないので、指数移動平均を使うアルゴリズム(AdamとかRMSPropとか)の方が合っていると思う。 AdaGradとは オンライン学習で学習率を自動調整する手法の一つ。 g:勾配、w:特徴の重みの配列に対して、 こんなような感じで更新する。g2:配列(最初は0)、eta:定数。 実装するときのポイント その1 g2にg * gを足すのは先にやる必要がある。 正しく実装すると、初回の学習率がeta * g / sqrt(g * g) == etaになっていて、2回目以降はちょっとずつ小さくなっていくという、とて
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く