エントリーの編集
![loading...](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/common/loading@2x.gif)
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
機械学習の予測モデルを一般化線形モデルで考える概要+ロジスティック回帰 - HELLO CYBERNETICS
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
![アプリのスクリーンショット](https://b.st-hatena.com/bdefb8944296a0957e54cebcfefc25c4dcff9f5f/images/v4/public/entry/app-screenshot.png)
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
機械学習の予測モデルを一般化線形モデルで考える概要+ロジスティック回帰 - HELLO CYBERNETICS
はじめに 一般線形モデル 最小二乗法 最小二乗法の背後に潜む仮定 まとめ ちょっとした例題 一般化線形... はじめに 一般線形モデル 最小二乗法 最小二乗法の背後に潜む仮定 まとめ ちょっとした例題 一般化線形モデル 出力を加工する ノイズについて考えなおす ロジスティック回帰モデル 線形モデルをいじったロジスティック回帰モデルの考え方 最後に はじめに 前回の記事 s0sem0y.hatenablog.com の続きってほど滑らかに繋がってはいませんが、少し突っ込んだ話に行きます。 ここでは前回、データ$x$から$y$を予測する場合のモデルが $$ y = f(x) $$ と表せるようなケースを想定して話を進めました。その際のポイントとして、 $$ y = f(x) = w\cdot \phi(x) $$ と、(非線形)変換$phi(x)$を噛ませた後に$w$を重みとした線型結合を考えるという手順を踏みました。 $\phi(x)$の選び方や$w$の求め方に特に具体的な制限を設けずに前回は話しま