エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
Probability calibration - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
Probability calibration - Qiita
はじめに クラス分類問題において、学習したモデルを使って、未知データのクラスを予測したいときに、予... はじめに クラス分類問題において、学習したモデルを使って、未知データのクラスを予測したいときに、予測されたクラスだけでなく、各クラスに所属する確率も推定したいことが多い ロジスティック回帰等の識別モデルでは、クラスに所属する確率は必然と求まるのだが、異常検知では、異常スコアが大きいほど、異常クラスの確率が高いとみなせるときに、異常スコアを適切な確率値にスケールしたいときがある。特に、アンサンブルモデルで複数の異常検知モデルの評価値を同じ基準で評価するときに使ったりする Probability calibration とは上記のような、スコアを適切にスケーリングして確率値に落とし込むテクニック(というのが私の解釈ですが誤ってたらご指摘ください) どの程度効果があるのかなーと感じたので、scikit-learnを使って試してみた 手法 scikit-learnの[sklearn.calibra