タグ

2017年11月28日のブックマーク (3件)

  • 自動チューニング研究会_公開

    ディープラーニングフレームワークChainer の紹介と⾃動チューニングへの期待 株式会社 Preferred Networks ⼤野健太 oono@preferred.jp 2015/12/25 ⾃動チューニング研究会 @⼭上会館 ⾃⼰紹介 • ⼤野健太(@delta2323_) • 経歴:数理科学研究科・修⼠課程(共形幾何) • → 2012.3 PFI → 2014.10 PFN • 所属:研究班(理論解析・ライフサイエンス・Chainer開発メンバー) • ブログ:http://delta2323.github.io • 最近の活動 • NIPS2014勉強会・ICML2015勉強会主催 • ⽇経ビッグデータ短期連載・雑誌寄稿など • NIPS2015読み会1⽉下旬に開催(予定) 2 株式会社Preferred Networks Preferred Infrastructure(P

    hsato2011
    hsato2011 2017/11/28
    ニューラルネット紹介記事
  • クラシックな機械学習の入門 4. 学習データと予測性能

    1. 4. 学習データと予測性能 Bias2 - Variance - Noise 分解 過学習 損失関数と Bias,Variance, Noise K-Nearest Neighbor法への応用 bias2とvarianceの間のトレードオフの 線形回帰への応用 クラシックな機械学習の入門 by 中川裕志(東京大学) 3.  xが与えられたときの結果:tの推定値=y(x)  損失関数: L(t,y(x)) ex. (y(x)-t)2  損失の期待値:E[L]を最小化する t の推定値=E[t|x] この導出は次の次のページを参考にしてください  E[L]を計算してみると(次のページ参照) 第1項は予測値と学習データからの期待値の差の2乗、第2項 は雑音(noise) xxxxxxx dtd),()]|[(d)(])|[)((][ 22 tpttEptEyLE  

    クラシックな機械学習の入門 4. 学習データと予測性能
    hsato2011
    hsato2011 2017/11/28
    バイアス 分散項 導出
  • バイアス-バリアンス分解:機械学習の性能評価 - HELLO CYBERNETICS

    はじめに この記事で理解できること バイアス-バリアンス分解とは 予測性能 未学習とは 過学習とは 多項式フィッティングにおける未学習と過学習の例 正則化の効力 評価をするために 損失関数の期待値とその分解 損失関数 損失の期待値の最小化 損失の期待値の分解 まとめ バイアス-バリアンス分解 訓練データというパラメータ 完全なるノイズ項 バイアス-バリアンス分解 バリアンス バイアス バイアスとバリアンスのトレードオフ 全体のまとめ 参考となる書籍 はじめに この記事で理解できること ・学習によってモデルをフィッティングさせる概念を理解できる。 ・機械学習で回帰問題を解決する際に、未学習や過学習を評価できる。 ・特に,正則化などが及ぼす影響を理解できる。 バイアス-バリアンス分解とは 実データを用いてモデルをフィッティングした場合には、真のモデルとの間に「バイアス、バリアンス、ノイズ」の3

    バイアス-バリアンス分解:機械学習の性能評価 - HELLO CYBERNETICS
    hsato2011
    hsato2011 2017/11/28
    バイアス 分散項 導出