タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

LIBSVMとliblinearに関するtaro62のブックマーク (2)

  • 機械学習のOverfitting対策 - Y's note

    Overfitting対策 How can I avoid overfitting? - Quora 機械学習で偏った学習データに適合したモデルを評価データに対して利用した場合、精度が悪い結果が得られることがあります。単純にモデルにInputする訓練データが少なかったり、局所領域に存在するデータ扱っていたり、モデルの自由度が高く複雑である事など幾つか原因が考えられ、上のQuoraで解決策について意見が書かれています。ここでは結論として書かれた内容について簡単に紹介します。 K-Fold Cross Validation 単純な解決方法としては学習時に偏ったデータに適合しすぎないように学習データをK個のまとまりに分割して、K-1個のデータを用いて学習、残りの1個を用いて評価する作業を組みわせパターン全てで行うというK-Fold Cross Validationという手法が用いられます。こうす

    機械学習のOverfitting対策 - Y's note
  • LIBLINEARの重みの見方 - 唯物是真 @Scaled_Wurm

    前にLIBSVMの重みの見方を書いた。 LIBSVMのモデルファイルにはサポートベクターの重み(双対問題の重み)が書いてあるだけで各特徴量の重み(主問題の重み)を求めるためには計算をする必要があった。 LIBLINEARの方はより簡単でモデルファイルに各特徴量の重みそのものが書いてある 以下の記事がわかりやすい liblinearモデルファイルのフォーマットを確認 - Negative/Positive Thinking また以前Python機械学習ライブラリであるscikit-learn(sklearn)の紹介をしたが、sklearnにもLIBLINEARやLIBSVMを使ったSVMが実装されている。 それらでは学習したモデルのcoef_属性値とintercept_属性値を参照するだけで重みと切片がわかる 1.2. Support Vector Machines — scikit-le

    LIBLINEARの重みの見方 - 唯物是真 @Scaled_Wurm
  • 1