Experiments with a New Boosting Algorithm - Freund, Schapire Experiments with a New Boosting Algorithm - Freund, Schapire (ResearchIndex) http://citeseer.ist.psu.edu/freund96experiments.html 1996年現在の実験を中心にまとめた論文。Weak learner(FindAttrTest, FindDecRule, C4.5)と、アンサンブル学習アルゴリズム(Adaboost.M1, Adaboost.M2, Bagging)の組み合わせをUCI ML Repositoryのデータと手書き数字認識へ適用し、評価・比較を行っているのが主要なContribution。 Adaboost.M1とAdaboost
AdaBoost は Freund と Schapier によって提案された. 学習データが外れ値などのノイズをあまり含まなければ,高い判別能力を示す. 変種として Discrite AdaBoost, Gentle AdaBoost, Real AdaBoost, Logit AdaBoost, Modest adaBoost などがある. 損失関数 上記の AdaBoost, Logit Boost, MadaBoost は損失関数によって異なるのみ(?) (http://www.msi.co.jp/vmstudio/materials/files/misc/boosting.ppt を見よ) ブースティングの案内ページ http://ibisforest.org/index.php?%E3%83%96%E3%83%BC%E3%82%B9%E3%83%86%E3%82%A3%E3%83
ブースティング (boosting) / AdaBoost† バギングとならぶ代表的なアンサンブル学習の手法で,クラス分類問題を扱う. 弱学習器は,各事例を重み付けして学習できるものでなくてはならない. アルゴリズム AdaBoost \(D_t(\mathbf{x}_i)\) を均一に初期化. 以下の手続きを \(t=1,2,\ldots,T\) について反復 現在の誤分類率分布 \(D_t(\mathbf{x}_i)\) の重み付けを用いて,弱学習器に分類器 \(C_t(x)\) を生成させる. 誤分類率分布 \(D_t(\mathbf{x}_i)\) で重み付けした,データ集合 \(\{\mathbf{x}_i\}\) に対する誤分類率を \(\epsilon_t\) とする. \(\beta_t=\epsilon_t/(1-\epsilon_t)\) 誤分類分布を更新:事例 \(\
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く