タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

Pythonとsklearnに関するincepのブックマーク (2)

  • scikit-learn 0.20からクロスバリデーションの使い方が変更される模様 - verilog書く人

    機械学習をやるときに結構良く使うところだなと思っていた、クロスバリデーションのスプリッター系モジュールのインターフェースが変わることに気づいたのでメモ。 scikit-learnの従来のクロスバリデーション関係のモジュール(sklearn.cross_vlidation)は、scikit-learn 0.18で既にDeprecationWarningが表示されるようになっており、ver0.20で完全に廃止されると宣言されています。 詳しくはこちら↓ Release history — scikit-learn 0.18 documentation まず、import元がsklearn.cross_varidationからsklearn.model_selectionに変わります。 これによって、例えば従来は from sklearn.cross_varidation import Stra

    scikit-learn 0.20からクロスバリデーションの使い方が変更される模様 - verilog書く人
    incep
    incep 2018/12/19
    cross_validationモジュールはなくなりmodel_selectionへと移行
  • ラプラス正則化 (Laplacian Regularization) を使った半教師付き分類

    教師ありデータと教師なしデータを 用いて学習する枠組みを半教師付き学習と呼ぶ. 少量の教師ありデータと大量の教師なしデータを持っているという設定は非常に現実的で, 半教師付き学習は実用的な枠組みだと思う. ラプラス正則化の基的なアイデアは,「似ているものは同じラベルを持つ」というもの. 具体的には,類似度行列を受け取り, 類似度が高いものは予測値も近くなるような正則化を行う. 今回はラプラス正則化のリッジ回帰への適用例を考えてみる. 目的関数は以下で与えられる. 最後の項がラプラス正則化項. この項は結局ラプラス行列というもので表されるのでラプラス正則化と呼ばれている. ここで,非線形な決定境界を表現するために,には以下で定義するRBFカーネルモデルを用いることにする. コードは以下のようになった. This file contains bidirectional Unicode tex

    ラプラス正則化 (Laplacian Regularization) を使った半教師付き分類
    incep
    incep 2016/05/27
    半教師あり学習での分類.2クラスのクラスタのそれぞれに,教師データがたったの1点ずつ.そこから非線形な決定境界を正しく引けている例.
  • 1