
エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
scikit-learnのロジスティック回帰の正則化項ハマった話 - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
scikit-learnのロジスティック回帰の正則化項ハマった話 - Qiita
完全に2値分類できる問題があったとする。scikit-learn のロジスティック回帰を使って分類する場合、sci... 完全に2値分類できる問題があったとする。scikit-learn のロジスティック回帰を使って分類する場合、scikit-learn のロジスティック回帰ではデフォルトでL2ノルムが加えられている。この正則化項により、うまく分類できない場合があった。 解決策 そういうときは以下のようにpenalty=noneを追加して正則化項を削除するとうまくいった。 lr = LogisticRegression(penalty = "none") 理論的には完全分類できる問題で正則化項を入れないと、係数が発散するのでL2やL1の罰則項を追加しておくべき。 私が試した問題ではなぜか正則化項を削除したらうまくいったという話。 参考