Machine Learning with Scikit Learn (Part II)(2015/8/26)のつづき。今回は、Part IIの動画の5.1節の内容を簡単にまとめた。書いてたら長くなったので5.1節だけ。 5.1 In Depth - Linear Models 回帰のための線形モデルの詳細が取り上げられている。線形回帰は過学習(Overfitting)に弱い。過学習を回避するために正則化を導入したリッジ回帰、Lasso、ElasticNetの使い方が事例をもとに説明されている。また、線形分類器の正則化の例としてSVMとロジスティック回帰のパラメータCが説明されている。 線形回帰 まずは、単純な線形回帰から。線形回帰は、特徴量の線形結合で表されるモデル。 ここで、が係数(coef_)でが切片(intercept_)と呼ばれる。線形回帰では、教師データ から係数と切片を学習す
![Machine Learning with Scikit Learn (Part III) - 人工知能に関する断創録](https://cdn-ak-scissors.b.st-hatena.com/image/square/205dfa190282c5c1d74b0752655a0a47ea168b00/height=288;version=1;width=512/http%3A%2F%2Fcdn-ak.f.st-hatena.com%2Fimages%2Ffotolife%2Fa%2Faidiary%2F20150907%2F20150907214446.png)