タグ

ブックマーク / www.haya-programming.com (2)

  • cross_val_scoreはもうやめよう!一発で交差検証するにはcross_validateを使う - 静かなる名辞

    はじめに scikit-learnで交差検証を行い、評価指標を算出する方法としては、cross_val_scoreがよくオススメされています。実際、「sklearn 交差検証」みたいな検索キーワードでググるとこの関数がよく出てきます。しかし、この関数は複数の評価指標を算出することができず、一つのスコアしか出力してくれません。 これでどういうとき困るかというと、Accuracy, Precision, Recall, F1をすべて出したい・・・というとき、困ります。基的にこれらはぜんぶ出して評価するものという考え方のもと検証しようとすると、うまくいかないのです。その辺りを柔軟に制御するために、これまで私は自分で交差検証のコードを書いてきました。 しかし、そんな必要はありませんでした。cross_validateという関数を使えばいいのです。 ・・・と、大げさに書いてみましたが、実はこの関数

    cross_val_scoreはもうやめよう!一発で交差検証するにはcross_validateを使う - 静かなる名辞
  • 【python】クラスタリング結果をエントロピーで評価する - 静かなる名辞

    はじめに クラスタリング結果の良し悪しを評価したいことがあります。 正解ラベルがないデータに対してクラスタリングを行った場合(つまり当に教師なし学習でやる場合)、基的にクラスタ内距離二乗和やクラスタ中心間の距離などを使ってやる以外の方法はありません*1。 しかし、正解ラベルがあるデータに対してクラスタリングをかける、というシチュエーションもあります。たとえばクラスタリング手法の性能評価だとか、相手にするデータセットが教師なしでやってどれくらいまとまる性質があるか調べるとか、そんな感じのときです。 こういうとき、評価指標がないと困ります。そこで、評価指標を考えます。何通りかあるようですが、簡単に計算できるのはエントロピーです。 説明 エントロピー(厳密にはシャノン情報量)は次式で定義されます。 は対象とする事象を表します。 厳密な理論や定義などはwikipediaでも読んでいただくとして

  • 1