タグ

2020年12月31日のブックマーク (3件)

  • ロジスティック回帰を理解する(1)_オッズとロジット変換について - Qiita

    はじめに ロジスティック回帰を理解するに当たっての前提知識となる、オッズとロジット変換について勉強したことをまとめました。 参考 オッズとロジット変換について理解するに当たって下記を参考にさせていただきました。 ロジスティック回帰分析(5)─ロジスティック変換の逆変換 統計分析を理解しよう-ロジスティック回帰分析の概要- StatQuest: Logistic Regression StatQuest: Odds and Log(Odds), Clearly Explained!!! ロジスティック回帰概要 ロジスティック回帰はあるデータが特定のクラスに属する確率などを推計する際によく用いられるアリゴリズムです。 目的変数が量的変数のもの(ある月の店の売り上げなど)を予測する時には普通の線形回帰モデルが使用されますが、目的変数が質的変数のもの(このメールはスパムであるか否か、や血液型がA型

    ロジスティック回帰を理解する(1)_オッズとロジット変換について - Qiita
  • はじパタ全力解説: 第6章 線形識別関数(前半) - Qiita

    「はじめてのパターン認識」の第6章「線形識別関数」の前半解説です。 私レベルが後から見返して理解できるレベルで数式を書いていたら長くなったので第6章を前後半に分けました。第5章までも難しく感じていたのですが、第6章はより難しく理解と整理に時間がかかりました。多分、第7章以降はもっと難しいのでしょうね。 ベクトル微分が躓きポイントでした。深く勉強まではしていませんが、「ベクトル解析」を買って読みました。 ※数式はほとんど「はじパタ6章前半(SlideShare)」を写経していているだけなのですが・・・ ※はじパタ勉強系は記事「文系社会人がはじパタで機械学習を数式含めて理解した奮闘記」にまとめました。 内容 線形識別関数は以下の式で表すことができ、入力データの次元が$d$とすれば、$d-1$次元の超平面となります。 f({\bf x}) = \textbf{$\omega$}^T {\bf x

    はじパタ全力解説: 第6章 線形識別関数(前半) - Qiita
  • はじパタ6章前半

    はじパタ6章前半1. 9/17/2013 6th #はじパタ #ピンクの薄い 1 はじめてのパターン認識 6章 線形識別関数 前半(pp.71-82) @tanimocchi 2. 9/17/2013 6th #はじパタ #ピンクの薄い 2 自己紹介  Twitter ID: @tanimocchi (もっちぃ)  修士(数学)、博士(情報科学)  所属: タヒにかけ半導体  仕事: マーケティングなのか ブランディングなのか?  統計解析とパターン認識・機械学習は必要! だと信じてる。  統数研公開講座に結構参加してますので、ご一緒の際は宜しくお願いします。  アンケート設計・分析に従事しつつ、新規市場開拓も  画像認識・センサ応用技術開発にも袖触れ合う程度に関係 3. 9/17/2013 6th #はじパタ #ピンクの薄い 3 4.2.2項のおさらい  ベイズ誤

    はじパタ6章前半