自分は機械学習も勉強している統計屋さんです、と立場表明した上で。 パターン認識と機械学習 上 - ベイズ理論による統計的予測 カーネル多変量解析―非線形データ解析の新しい展開 (シリーズ確率と情報の科学) などの機械学習の本を読んでいて感じた違和感というかよく分かっていないことを書いてみます。たぶん、統計と機械学習を一緒に勉強しているからわけわかんなくなっているんだと思う。 機械学習とかを勉強していると正則化最小二乗法とかのところで誤差関数を と定義してあるものをよく見かける(は正則化パラメータ)。正則化項を入れておかないと過学習しちゃうからっていう理由は分かる。こういうのもやったし。だけど、正則化項を入れて正則化最小二乗法とかをしようとした瞬間に、例えば(適当な仮定を置いた上での)統計の回帰分析におけるパラメータの検定とか不偏推定量になっているとかBLUE*1とかそういうよさそうな性質も
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く