並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 22 件 / 22件

新着順 人気順

ロジスティック回帰の検索結果1 - 22 件 / 22件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

ロジスティック回帰に関するエントリは22件あります。 統計機械学習数学 などが関連タグです。 人気エントリには 『ロジスティック回帰とElo Ratingの関係 - ブログのとさか』などがあります。
  • ロジスティック回帰とElo Ratingの関係 - ブログのとさか

    はじめに 対戦ゲームのレーティングシステムとして多く採用されているElo Ratingですが, その計算式を見ると内部で行っていることはロジスティック回帰とほとんど一致することがわかります. この記事ではロジスティック回帰とElo Ratingについて簡単に説明し,それらの関係について見ていきます. また,ついでにこの事実を応用した格闘ゲームのキャラ相性解析のアイデアについて紹介したいと思います. ロジスティック回帰 ロジスティック回帰は2値分類問題の推論や分析に利用される一般化線形モデルの一つです. ロジスティック回帰ではロジット(対数オッズ)を線形モデルで予測します.*1 このことは予測確率を,線形モデルの出力を,ロジスティック回帰の重みベクトルを,バイアスを,入力ベクトルをとした時以下の式で表されます. 予測確率の計算 予測確率は以下の式で求まります.*2 更新式 ロジスティック回帰

      ロジスティック回帰とElo Ratingの関係 - ブログのとさか
    • ロジスティック回帰の最尤推定量にはバイアスがある - ほくそ笑む

      ロジスティック回帰について調べている。 ロジスティック回帰モデルのパラメータの最尤推定量は、不偏推定量ではなく、バイアスがある。 例として、サンプルサイズ 、入力変数の数 のときを考える。 パラメータ 300個の真の値を、最初の 100個は 、次の 100個は 、残りの 100個は に設定して推定してみよう。 n <- 1500 p <- 300 # データの生成 set.seed(314) x <- rnorm(n * p, mean = 0, sd = sqrt(1/n)) X <- matrix(x, nrow = n, ncol = p) beta <- matrix(c(rep(10, p/3), rep(-10, p/3), rep(0, p/3))) logistic <- function(t) 1 / (1 + exp(-t)) prob <- logistic(X %*

        ロジスティック回帰の最尤推定量にはバイアスがある - ほくそ笑む
      • ロジスティック回帰をscikit-learnを使わずゼロから実装する(Python)|es

        機械学習を理解するにはアルゴリズムをから実装するのが一番です。そして問いデータを使って遊んでみましょう。 ロジスティック回帰とは、二項分類(2値分類)を行うための方法です。二項分類とは、ある物体がAかBのどちらかに分類することを指します。例えば、試験の点数が60点以上かどうかで分類することができます。 ロジスティック回帰では、試験の点数だけでなく、その他の情報も考慮に入れることができます。例えば、試験の点数だけでなく、勉強時間や家庭環境なども考慮に入れることができます。これらの情報を使って、試験の点数が60点以上かどうかを推定することができます。 import numpy as np class LogisticRegression: def __init__(self): self.w = None self.b = None def fit(self, X, y, learning_r

          ロジスティック回帰をscikit-learnを使わずゼロから実装する(Python)|es
        • ロジスティック回帰を導出から実装までみっちり途中式解説 - Qiita

          問1:ロジスティック回帰を行うためにデータを書き換えよ ロジスティック回帰では目的の分類クラスを1,0に変換することで、クラスを確率として扱う。 1=100%として考えることで、0~1までの数値の回帰によってクラス分類を達成する。 そのため以下のように書き換えた。 また、切片項を使用しないので、事前に得られている平均値から各データを引いておく。 sex height 問2:1から0までの値で出力するための変換関数(シグモイド関数)を書け ロジスティック回帰ではシグモイド関数によって1から0の間に値を変換する。 数式に苦手感を感じる人はexp(x)という記号が2.718のx乗だと考えてくれればいい。 関数として描画すると以下のような形になる。 問3:ロジスティック回帰の尤度関数から負の対数尤度関数までの流れを記述せよ まずロジスティック回帰ではシグモイド関数に 男の時(sex = 1)のデー

            ロジスティック回帰を導出から実装までみっちり途中式解説 - Qiita
          • ロジスティック回帰分析とは?用途、計算方法をわかりやすく解説!-GMOリサーチ

            ロジスティック回帰分析は、いくつかの要因(説明変数)から「2値の結果(目的変数)」が起こる確率を説明・予測することができる統計手法で、多変量解析の手法の1つです。 マーケティングでもよく使われています。 ◆ロジスティック回帰分析の利用シーン 顧客がどのような理由で商品を購入するのか可能性を分析する ある病気になるリスクを、生活習慣などの複数の要因から予測する どのチャネルの広告配信が最も効果的かを調べる この記事では、ロジスティック回帰分析の意味、他の回帰分析との違い、用途、計算方法、オッズの用い方などを分かりやすく解説していきたいと思います。 ロジスティック回帰分析は、いくつかの要因(説明変数)から「2値の結果(目的変数)」が起こる確率を説明・予測することができる統計手法です。 2値とは、試験の合格/不合格のように答えが2つしかない値のことを言います。 具体例を見ていきましょう。 たとえ

              ロジスティック回帰分析とは?用途、計算方法をわかりやすく解説!-GMOリサーチ
            • [Python]ロジスティック回帰の理論と実装を徹底解説してみた - Qiita

              はじめに 今回の記事では、tensorflowとsckit-learnを用いてロジスティック回帰を実装していきます。 前回の記事で線形回帰についてまとめたので、よろしければ以下の記事もご覧ください。 Pythonでscikit-learnとtensorflowとkeras用いて重回帰分析をしてみる 今回用いるのはirisデータセットです。 iris(アヤメ)データセットについて irisデータは、アヤメという花の品種のデータです。 アヤメの品種であるSetosa、Virginica、Virginicaの3品種に関するデータが50個ずつ、全部で150個のデータです。 実際に中身を見ていきましょう。 from sklearn.datasets import load_iris import pandas as pd iris = load_iris() iris_df = pd.DataFra

                [Python]ロジスティック回帰の理論と実装を徹底解説してみた - Qiita
              • 【機械学習】ロジスティック回帰をscikit-learnと数学の両方から理解する - Qiita

                1.目的 機械学習をやってみたいと思った場合、scikit-learn等を使えば誰でも比較的手軽に実装できるようになってきています。 但し、仕事で成果を出そうとしたり、より自分のレベルを上げていくためには 「背景はよくわからないけど何かこの結果になりました」の説明では明らかに弱いことが分かると思います。 この記事では、2~3で「理論はいいからまずはscikit-learn使ってみる」こと、4以降で「その背景を数学から理解する」2つを目的としています。 ※私は文系私立出身なので、数学に長けていません。可能な範囲で数学が苦手な方にもわかりやすいように説明するよう心がけました。 ※線形単回帰Verでも同様の記事を投稿していますので、併せてお読みいただけますと幸いです。 【機械学習】線形単回帰をscikit-learnと数学の両方から理解する ※2020.7.26 4.ロジスティック回帰を数学から

                  【機械学習】ロジスティック回帰をscikit-learnと数学の両方から理解する - Qiita
                • ロジスティック回帰分析を簡単解説 |AVILEN

                  ロジスティック回帰分析とはロジスティック回帰分析は、商品の購入確率、病気の発症確率といった二値判別問題に対して回帰分析を考えたいときに有用な手法です。 二値判別問題とは、0か1であるダミー変数を予想、分析するような問題です。 ロジスティック回帰分析を以下の式で表します。 p= 11+ exp⁡(−(a1x1  +  a2x2  +  ⋯  +  anxn  +  b))  p = \frac{ 1 }{ 1 + \exp ( -(a_1x_1   +   a_2x_2   +   \cdots   +   a_nx_n   +   b) ) }  p= 1+ exp(−(a1​x1​  +  a2​x2​  +  ⋯  +  an​xn​  +  b))1​ ... ① 目的変数は確率であるため p p pと置きました。 この式を見ると、xix_ixi​がどんな値をとっても目的変数pppが

                  • ピタゴラス勝率の根拠をロジスティック回帰で求める

                    セイバーメトリクスの世界ではピタゴラス勝率と呼ばれる指標が存在する。ピタゴラス勝率=得点2/(得点2+失点2)。得点と失点のみを使ったシンプルな数式でチームの妥当な勝率を求めることができる優れた指標だ。このようにシンプルなかたちで勝利と得失点の関係を示せたことは、 WAR(Wins Above Replacement)などの選手評価を行ううえで、また野球の構造を理解するうえで極めて重要な発見だった。ただこのシンプルな数式の根拠、つまりなぜ得点や失点を2乗するのかについて、数学的な背景が説明された例はそれほど多くない。「よくわからないがそういうものだ」と認識している方も多いのではないだろうか。今回はロジスティック回帰という手法を使い、ピタゴラス勝率の数学的根拠を探っていく。 ピタゴラス勝率とは何か まず、あらためてピタゴラス勝率と実際の勝率の関係を確認しておきたい。図1は1950-2019年

                      ピタゴラス勝率の根拠をロジスティック回帰で求める
                    • Scikit-learn でロジスティック回帰(クラス分類編) - Qiita

                      はじめに ロジスティック回帰は、説明変数の情報にもとづいて データがどのクラスに属するかを予測・分類する(例:ある顧客が商品を買うか買わないかを識別する) 注目している出来事が発生する確率を予測する(例:ある顧客が何%の確率で商品を買うか予測する) ために利用されるモデルです。 この記事では、Scikit-learnライブラリを使い、ロジスティック回帰によりクラス分類を行う方法を備忘録として書いておきます。 Scikit-learn について Scikit-learnは、Pythonの機械学習ライブラリの一つです。 公式ドキュメント:http://scikit-learn.org/stable/index.html ロジスティック回帰について ロジスティック回帰は、分類のためのアルゴリズムです(例:電子機器を故障するクラス or 故障しないクラスに分ける)。単純なアルゴリズムなので実装しや

                        Scikit-learn でロジスティック回帰(クラス分類編) - Qiita
                      • PyStanで実装するベイズ推定(単回帰・ロジスティック回帰) - Qiita

                        Stan, PyStanとは Stanとは、C++をベースに実装された確率的プログラミング言語です。NUTSアルゴリズム (HMCを発展させたもの) を用いて、様々なベイズ推定を行うことができます。特徴として以下のようなものが挙げられます。 統計モデルの記述が簡単 HMCなのでサンプリングが高速 さまざまな確率分布を利用可能 PyStanはStanをPythonから扱うためのインターフェースを提供するパッケージです。Stanの文法に従ってモデルを記述し、コード実行時にモデルをコンパイルします。 PyStan: The Python Interface to Stan PySTanのインストール pipでインストール可能です。トレースプロットの描画のために arviz もインストールしておくと良いです。

                          PyStanで実装するベイズ推定(単回帰・ロジスティック回帰) - Qiita
                        • ロジスティック回帰入門

                          社内勉強会での発表資料です。ロジスティック回帰について、できるだけ数式を使わず、アルゴリズムを自分で実装できるようなイメージを掴めることを目的として説明しました。 具体的な実装例として、発表資料の内容に対応する Jupyter Notebook ファイルを Gist で公開しています。 https://gist.github.com/y-uti/445cb172ab61d5358864111ee6676e9fRead less

                            ロジスティック回帰入門
                          • 統計学の主要な手法をさっと一望、ロジスティック回帰分析やギブスサンプリングを紹介

                            機械学習やデータ分析には不可欠となる統計学。CodeZineを運営する翔泳社では、「どんな手法があったっけ」と必要な手法を知りたいときに役立つ『統計学大百科事典』を発売中です。本書では基本的な手法から発展的な手法までを一覧できますが、今回はその中から「ロジスティック回帰分析・プロビット回帰分析」「分散分析」「ギブスサンプリング」「共分散構造分析」を紹介します。 本記事は『統計学大百科事典 仕事で使う公式・定理・ルール113』から一部を抜粋したものです。掲載にあたり編集しています。 ロジスティック回帰分析・プロビット回帰分析 年収と持ち家の関係性を回帰分析する 年収と持ち家の関係を調べるアンケートを取りました。年収をx、持ち家の人をy=1、持ち家でない人をy=0としてデータを取ったところ、上左図のような散布図になりました。xとyで単回帰分析をすると、回帰直線では負の値や1以上の値が出てきてう

                              統計学の主要な手法をさっと一望、ロジスティック回帰分析やギブスサンプリングを紹介
                            • ロジスティック回帰の基本的なことをわかりやすくまとめてみた|Coding Memorandum

                              今日はロジスティック回帰に関してまとめていきます。 ロジスティック回帰とは? 最初に今まで学んだ回帰方法を振り返ると、次のような単回帰や重回帰といった回帰分析でした。 このような回帰モデルを作成することで、未知の説明変数(経験)からでも目的変数(給料)の数値を見積もることができるようになりました。 次にロジスティック回帰ですが、縦軸が定量データではなく、ゼロかイチを判定する二値分類の問題を解く場合に用いられています。 ここでは例としてある商品のプロモーションにより購入されたか否か(Yes = 1 or No = 0)を年齢ごとに集めたデータがある場合を考えます。 このようなゼロイチのデータに対して回帰分析を行うと… 予測モデル(赤い線)を書くことはできますが、図のように1と0の範囲から外れてしまう部分が発生します。 そこで、出力値を0より大きく1より小さい値に変換する処理を加えます。変換時

                                ロジスティック回帰の基本的なことをわかりやすくまとめてみた|Coding Memorandum
                              • 【自然言語処理】Kaggle1位タイ語極性分析を日本語でやってみる【TFIDFロジスティック回帰】 - Qiita

                                この記事はKaggle1位の解法を解説しているだけで、筆者が1位を取ったわけではありません。 実際に1を取ったCSTORM3000氏を崇めましょう。 前置き 自然言語処理処理職人の皆様こんにちは、いかが処理処理されていますでしょうか。 筆者はインターン先でタイ語の自然言語処理で遊んでいますが、タイ語自然言語処理界の金字塔pythainlpのチュートリアルに面白い極性分類の方式があったので紹介し、日本語で試したいと思います。 その名も、 TFIDFロジスティック回帰 です。 極性分析とは テキストが与えられて、それが喜んでいる「ポジティブ」か、憎悪に満ち溢れた「ネガティブ」のどちらかに区分けすることです。 「俺の彼女はアスナに似てるw」というテキストにはpositiveを、 「オレンジ今日も食べてみたけどまだ酸っぱくて泣いた」というテキストにはnegativeを 返すような、モデルを作りたい

                                  【自然言語処理】Kaggle1位タイ語極性分析を日本語でやってみる【TFIDFロジスティック回帰】 - Qiita
                                • ノート: Rでロジスティック回帰

                                  Table of Contents はじめに 前回自民党の感情温度という一定の範囲内の値を取る数値を応答変数に持つ分析を行いました。 しかし、世の中のデータのすべてがこのように数値で表現できるとは限りません。 例えば「投票に行く(行かない)」や「投票した政党」のように数値化されていないデータをカテゴリカルデータ(変数)と呼びます。 このような場合を応答変数にする分析の場合は、「投票に行く確率」や「ある政党に投票する確率」を求めることで対処します。 以下では、応答変数の種類が2種類の場合と3以上の場合に分けて、カテゴリカルデータの分析をRで行う方法を紹介します。 必要なパッケージの読み込み library(tidyverse) Registered S3 methods overwritten by 'ggplot2': method from [.quosures rlang c.quos

                                    ノート: Rでロジスティック回帰
                                  • Kentaro Matsuura on Twitter: "Gelman先生らの『Regression and Other Stories』が個人利用で無料ダウンロードOKに。7章単回帰、13章ロジスティック回帰、締め(21章)の階層モデルはもちろん、5章シミュレーション、12章変換、16… https://t.co/EMw5iRM8H7"

                                    Gelman先生らの『Regression and Other Stories』が個人利用で無料ダウンロードOKに。7章単回帰、13章ロジスティック回帰、締め(21章)の階層モデルはもちろん、5章シミュレーション、12章変換、16… https://t.co/EMw5iRM8H7

                                      Kentaro Matsuura on Twitter: "Gelman先生らの『Regression and Other Stories』が個人利用で無料ダウンロードOKに。7章単回帰、13章ロジスティック回帰、締め(21章)の階層モデルはもちろん、5章シミュレーション、12章変換、16… https://t.co/EMw5iRM8H7"
                                    • ロジスティック回帰分析

                                      Rを使った分析の準備 ・ここで使うRのパッケージは次のとおり。 library(tidyverse) library(stargazer) library(patchwork) library(ROCR) library(margins) library(corrplot) library(jtools) 0.1 線形回帰とロジスティック回帰の違い ・応答変数がバイナリ (binary) のとき、線形回帰 (linear regression) は確率を予測できない →線形回帰を使って応答変数にバイナリ変数 (binary) を使うと、予測値は 0 と 1 の間に収まらない(下図の左)

                                      • 【ロジスティック回帰の思わぬ罠!】学習結果の発散とその回避方法 - 若葉の技術メモ

                                        ロジスティック回帰 気軽に使えるクラス分類の基本的なツール。 しかし、油断しているとうっかりはまってしまう落とし穴があります。 うまく学習率を調整しても、学習結果が発散する場合があるという罠です。 今回の記事ではこの罠とその回避方法についてご紹介します! Logistic回帰とは Logistic回帰の罠 原因の解説 線形分離可能性 係数が発散する場合のロス関数 回避方法 まとめ Logistic回帰とは Logistic回帰については前回の記事 wakaba-mafin.hatenablog.com にて紹介いたしました。 簡単に言ってしまうと、Logistic回帰とはモデル に基づいて、特徴からクラスを識別する手法です。 特にこの識別では特徴空間に超平面を張ることによって線形にクラスを識別します。 計算の方法も容易で多数のパッケージが提供されています! Logistic回帰の罠 Log

                                          【ロジスティック回帰の思わぬ罠!】学習結果の発散とその回避方法 - 若葉の技術メモ
                                        • ロジスティック回帰:標準誤差が異常に大きい場合の対処

                                          手元のデータでRのglm関数を使ってロジスティック回帰分析をしていたところ、以下のようなエラーが出た。 Warning message: glm.fit: 数値的に 0 か 1 である確率が生じました summary関数で結果を表示することはできるのだが、切片やいくつかの変数の標準誤差が異常に大きい。数千もの値になっている。これは何か問題があると思って調べたところ、完全分離(complete separation)が起きている場合にこのような計算結果が表示されることが分かった。完全分離とは、「独立変数と従属変数のクロス表において度数がゼロのセルが存在する」(林他 2017, p.225)ことを指す。このような場合、「対数オッズがプラスまたはマイナス無限大になってしまい、反復計算の過程で最終的な解に収束していかない」(林他 2017, p.225)ことが知られている。林他(2017)によると

                                            ロジスティック回帰:標準誤差が異常に大きい場合の対処
                                          • ロジスティック回帰を理解する(1)_オッズとロジット変換について - Qiita

                                            はじめに ロジスティック回帰を理解するに当たっての前提知識となる、オッズとロジット変換について勉強したことをまとめました。 参考 オッズとロジット変換について理解するに当たって下記を参考にさせていただきました。 ロジスティック回帰分析(5)─ロジスティック変換の逆変換 統計分析を理解しよう-ロジスティック回帰分析の概要- StatQuest: Logistic Regression StatQuest: Odds and Log(Odds), Clearly Explained!!! ロジスティック回帰概要 ロジスティック回帰はあるデータが特定のクラスに属する確率などを推計する際によく用いられるアリゴリズムです。 目的変数が量的変数のもの(ある月の店の売り上げなど)を予測する時には普通の線形回帰モデルが使用されますが、目的変数が質的変数のもの(このメールはスパムであるか否か、や血液型がA型

                                              ロジスティック回帰を理解する(1)_オッズとロジット変換について - Qiita
                                            • [Stan]ロジスティック回帰の階層ベイズモデルとk-foldsクロスバリデーション – かものはしの分析ブログ

                                              都内の事業会社で分析やWebマーケティングの仕事をしています。大学・大学院では経済学を通じて統計解析を行うなどしておりました。企業に勤めてからは、機械学習やテキストマイニング、クローリング技術などに関心を持っています。 Twitterアカウント Mr_Sakaue( SKUE ) GitHub 読書メーター ほしいものリスト はじめに stanは意思決定のための分析などでのパラメータ推定に使うことが多く、機械学習のために扱うことはありませんでした。ただ、過去にリク面などでお話したデータサイエンティストの方はstanで機械学習していて、クロスバリデーションもしているとの発言をされていました。 先日、記事を漁っていたらstanでクロスバリデーションを行うためのコードを書いている方を見つけたので、その方のコードをもとに大人のirisであるwineデータを用いて、質の高いワインかどうかを分類するた

                                                [Stan]ロジスティック回帰の階層ベイズモデルとk-foldsクロスバリデーション – かものはしの分析ブログ
                                              1

                                              新着記事