AdaBoost は Freund と Schapier によって提案された. 学習データが外れ値などのノイズをあまり含まなければ,高い判別能力を示す. 変種として Discrite AdaBoost, Gentle AdaBoost, Real AdaBoost, Logit AdaBoost, Modest adaBoost などがある. 損失関数 上記の AdaBoost, Logit Boost, MadaBoost は損失関数によって異なるのみ(?) (http://www.msi.co.jp/vmstudio/materials/files/misc/boosting.ppt を見よ) ブースティングの案内ページ http://ibisforest.org/index.php?%E3%83%96%E3%83%BC%E3%82%B9%E3%83%86%E3%82%A3%E3%83