タグ

ブックマーク / drilldripper.hatenablog.com (2)

  • ランダムフォレストの理論と重要な特徴量の選定 - drilldripper’s blog

    ランダムフォレストと決定木学習 ランダムフォレストを理解するためには、決定木学習の手法について理解する必要があります。まず最初に決定木学習の理論について説明します。 決定木学習 決定木は親から順に条件分岐を辿っていくことで、結果を得る手法です。下は決定木のイメージです。 決定木学習とはデータの応じて上の図のような決定木を構成し、分類を行う機械学習の手法のことを指します。 決定木学習は、データの種類に応じて決定木を成長させていきます。 決定木の分類条件は、データを分類したときの情報利得IG(Infomation Gain)が最大になるようにすることです。情報利得は式(1)で表されます。 は親のデータ、はノード、は注目しているデータを表します。 は木を分割するノード数です。一般的に決定木は二分木として実装されるので、ほとんどの場合はとなります。 は不純度という指標で、含まれるデータに偏りがある

    ランダムフォレストの理論と重要な特徴量の選定 - drilldripper’s blog
  • SVMとランダムフォレストのどちらの手法を使えばよいか? - drilldripper’s blog

    分類や回帰の問題を扱う場合、選択する手法としてサポートベクターマシン(SVM)とランダムフォレストが候補に上がってくると思います。 しかし、どちらの手法を使うべきなのでしょうか?どのような問題に対しても、一方の手法を使い続ければ良いのでしょうか?それとも問題によって使い分ける必要があるのでしょうか? 手法の手軽さ Python機械学習プログラミングの著者であるSebastian Raschka氏は次のように述べています。 I would say that random forests are probably THE “worry-free” approach - if such a thing exists in ML: There are no real hyperparameters to tune (maybe except for the number of trees; typ

    SVMとランダムフォレストのどちらの手法を使えばよいか? - drilldripper’s blog
  • 1