並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 34 件 / 34件

新着順 人気順

ROC曲線の検索結果1 - 34 件 / 34件

  • ROC曲線を直感的に理解する

    1. この記事について この記事は、機械学習で出てくるROC曲線を、直感的に理解することを目的とするものです。ROC曲線の一般的な定義や説明自体はインターネット上に溢れているので、ここではそれとは少し違った説明をします。 2. ROC曲線とAUC ROC曲線は、機械学習における二値分類タスクのモデル性能の評価に用いられるものです。モデル出力(予測値)が連続的である場合に用います。 ROC曲線は、予測値と真のターゲットの対応から描くことができ、例えば下図のようなイメージです。 ROC曲線が何者かを述べる前に、これをどのように評価に用いるかを簡単に説明します。 ROC曲線の下側の面積 (AUC: Area Under the Curve) は、予測値の大きい順にデータを並べ変えたとき、1が上に固まっている(0が下に固まっている)ほど大きくなるという性質があります。下図の2つのケースを比較すると

      ROC曲線を直感的に理解する
    • 【評価指標】ROC 曲線と AUC についてわかりやすく解説してみた

      真陽性率 (TPR) と偽陽性率 (FPR) ROC 曲線の概要の前提知識として真陽性率 (TPR : True Positive Rate) と偽陽性率 (FPR : False Positive Rate) についてお伝えします。 TPR とは全ての Positive のうち、実際に Positive だったものを正しく Positive と判定できた割合です。そして FPR は全ての Negative のうち、実際には Negative だったが間違えて Positive と判定した割合です。ここで Positive と Negative の定義を行っていないため何を伝えたいのかわからないと思います。 そこでねじを生産する工場の具体例を用いて、TPR と FPR について理解を深めていきましょう。生産したねじが異常品か正常品かを分類する機械学習モデルを作成したとします。 このモデルを

      • ROC 曲線とAUC を用いて2値分類機械学習モデルの性能を計測・チューニングする - Qiita

        これを2 値分類で推測すると以下のような結果が出力されました。 以下の図は猫である/猫ではないの2 値だけでなく機械学習の内部で出されている推測値(0.0 〜 1.0) も含めてあらわしています。 大部分は正しく推測できていできていますが、一部機械学習の推測値が閾値より低いため実際には猫であるのに猫ではないと結果(FN)が出されていたり、一方で機械学習の推測値が閾値より高いため実際には猫ではないのに猫であると結果(FP)が出されていたりします。 これらのデータをROC 曲線に落とし込むためにTrue Positive Rate(再現率: Recall) とFalse Positive Rate の値を計算してみましょう。 再現率(Recall, True Positive Rate) $Recall, True Positive Rate=\dfrac{TP}{TP + FN} = \df

          ROC 曲線とAUC を用いて2値分類機械学習モデルの性能を計測・チューニングする - Qiita
        • 白黒はっきりしない判定の評価のしかた 〜ROC曲線と AUC〜 | Tech Blog | CRESCO Tech Blog

          技研の (あ) です。 最近すっかり医療系の話に関わることが多くなってます。疾患の有無の判定などを行う際の性能指標について、これまで「感度とか特異度とか」「F値と平均的でない平均の話 〜あるいは調和平均の使いどころ」といった記事を書きました。 今回はその続きで、ROC曲線 (ROC Curve) と AUC について説明したいと思います。ROC曲線の話に行く前に、まずは判定の結果出てくる値に関しての話からです。

          • 機械学習の評価指標 分類編:適合率や再現率、AUC(ROC曲線、PR曲線)を解説

            学校での成績評価や会社での人事評価といったように、評価というのは、社会で生きる人々にとって常について回るものですね。しかし、評価するというのは、身近でありながら案外難しいことではないでしょうか? 重要なひとつの点で優れていればいいのか、あるいは全体的にバランスよく優れていることに対して高い評価をつける方がいいのか。客観的で一貫性のある評価をするには評価の基準、評価指標が必要です。 そしてそれは、機械学習のモデルも同様です。機械学習のモデルを作成した際に、そのモデルがどれくらい「良い」モデルなのかを判断するためには、評価指標を決めて判断しなければなりません。ということで、本稿では、機械学習の評価指標(分類編)と題し、分類問題に対する機械学習モデルの評価指標について、解説していきます。 評価指標とは 本節では、評価指標を用いる目的と、評価指標を理解するための重要な前提知識として、混同行列(Co

              機械学習の評価指標 分類編:適合率や再現率、AUC(ROC曲線、PR曲線)を解説
            • ROC曲線とPR曲線を直観的に把握するウェブアプリをつくった - でーたさいえんすって何それ食えるの?

              機械学習で二値分類タスクのモデル評価時によく使うROC曲線と、特に不均衡データの評価時に使うPR曲線、そして混同行列 これらは元をたどれば予測とその結果の正誤について別々な表現方法で見ているので、相互に関係しあった評価方法です しかし、これらを横串に理解でいるリソースが見当たらないので、自分でつくってみたので調節部分の補足説明を残しておきます。 ウェブアプリのURLはこちら https://masato.shinyapps.io/ROC_exp/ 補足説明の画像はこちら 補足:最適閾値の計算方法 ROC曲線を用いた分析については次の論文をとりあえず読んでおくと良い。 [PDF] Basic principles of ROC analysis. | Semantic Scholar もしTP, TN, FP, FNそれぞれのコストがわかっているのであれば、The foundations o

                ROC曲線とPR曲線を直観的に把握するウェブアプリをつくった - でーたさいえんすって何それ食えるの?
              • [評価指標]AUC(Area Under the ROC Curve:ROC曲線の下の面積)とは?

                [評価指標]AUC(Area Under the ROC Curve:ROC曲線の下の面積)とは?:AI・機械学習の用語辞典 用語「AUC」について説明。二値分類タスク(問題)に対する評価指標の一つで、「ROC曲線の下の面積」を意味し、AUC値が1.0に近いほど分類を予測する機械学習モデルの性能が高い。 連載目次 用語解説 統計学/機械学習におけるAUC(Area Under the ROC Curve、AUROC、ROC-AUC)とは、主に二値分類タスク(問題)に対する評価指標の一つで、「ROC曲線(後述)の下の面積」を意味する。この指標は、0.0(=0%)~1.0(=100%)の範囲の値を取り、1.0に近いほどモデルの予測性能が高いことを示す。 例えば機械学習モデルによる予測が全て正解(=図1のideal curve:理想の曲線)であった場合、AUC値は1.0となり、予測性能が高いこと

                  [評価指標]AUC(Area Under the ROC Curve:ROC曲線の下の面積)とは?
                • 機械学習の評価に便利なROC曲線の描画ライブラリを作ってみた - Qiita

                  はじめに 機械学習において性能評価は欠かせない手順のひとつですが、 分類タスクにおける性能評価によく使われるのが、ROC曲線です。 PythonでROC曲線を描画するには、Scikit-Learnのplot_roc_curve(←Scikit-Learn1.2で削除されました)RocCurveDisplay.from_estimatorというメソッドを使用するのが一般的ですが、このメソッド、多クラス分類やクロスバリデーションでの描画が出来ない等、制約が多いです。 そこで今回、これらの制約をクリアすべく、 ・多クラス分類のROC曲線描画 ・クロスバリデーションのROC曲線描画 を実現するライブラリを作成しました。 本機能はこちらの記事で紹介したseaborn-analyzerライブラリに、plot_roc_curve_multiclass()メソッドおよびroc_plot()メソッドとして追

                    機械学習の評価に便利なROC曲線の描画ライブラリを作ってみた - Qiita
                  • ゼロから理解する機械学習の評価~ ROC 曲線と PR 曲線の使い分けまで~

                    こんにちは。データサイエンスチームの小松﨑です。 本記事では機械学習のモデルを作るときに非常に重要になるモデルの評価について書いてみたいと思います。昨今は AI という文字を見ない日はないほど AI の取り組みが広がっていますが、近年 AI と呼ばれるものの中身は機械学習のモデルであることが多いです。 AI と機械学習の違いなどについてはこの記事では述べませんが、機械学習のモデルを作るプロセスにおいて評価は最も重要と言っても過言ではないと思います。私自身、機械学習プロジェクトでは真っ先に評価方法を明確にし、評価用データセットを整備するようにしています。何故なら自分ではどんなに素晴らしいものを作ったと思っていても、それをお客様にしっかりと理解し納得してもらう必要があるからです。 評価といっても課題やアルゴリズムの種類によって様々なものがありますが、本記事では基本的なケースとして、例えば出来上

                      ゼロから理解する機械学習の評価~ ROC 曲線と PR 曲線の使い分けまで~
                    • ROC曲線 - 統計WEB

                      ROC曲線 ROC (Receiver Operating Characteristic) curve 検査や診断薬の性能を2次元のグラフに表したもの。当該検査で異常と正常を区別するカットオフポイントごとに真陽性率(=TPF)と偽陽性率(=FPF)を計算し、縦軸にTPF、横軸にFPFをとった平面にプロットして線で結んで表す。 ROC曲線を作成した時に、グラフの下の部分の面積をAUC(Area Under the Curve)とよぶ。AUCは0から1までの値をとり、値が1に近いほど判別能が高いことを示す。

                        ROC曲線 - 統計WEB
                      • 不均衡データにおけるROC曲線とPR曲線について - BASEプロダクトチームブログ

                        はじめに こんにちは。BASEのDataStrategyチームで機械学習を触っている竹内です。 機械学習といえばLLMやDiffusionモデルなど生成モデルの発展が目覚ましい昨今ですが、その一方で構造化データに対して特徴量エンジニアリングを行い、CVを切って、LightGBMなどの便利な決定木ベースのフレームワークに投げて、できたモデルの出力を吟味し、時には致命的なリークに気付き頭を抱えるといった王道のアプローチは相変わらず現役で、実務に関していえば当分お世話になる機会が減ることはないかなという気がしています。 今回はそういったクラス分類モデルにおける性能の評価指標の1つである、ROC曲線やAUC、PR曲線といった概念について振り返りつつ、実務上しばしば見られる不均衡データに適用する際の注意点などについて、軽いシミュレーションも交えつつ掘り下げてみようと思います。 ROC曲線 2クラス分

                          不均衡データにおけるROC曲線とPR曲線について - BASEプロダクトチームブログ
                        • 多クラス分類の ROC 曲線 - Qiita

                          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

                            多クラス分類の ROC 曲線 - Qiita
                          • ROC 曲線 - Qiita

                            ROC曲線のテンプレート 自分用に作成している勉強用・備忘録のノートです。 専門的な内容は有りません。 間違いなどが有りましたらコメントよろしくおねがいします。 目的: コードのテンプレート化 とりあえず実装(statsmodels) ここでは、statsmodelsのライブラリを用いて実装。 まず必要なライブラリの読み込み import numpy as np import matplotlib.pyplot as plt # ROC 曲線を描くためのライブラリ from sklearn.metrics import roc_curve # AUC を求めるためのライブラリ from sklearn import metrics

                              ROC 曲線 - Qiita
                            • ROC曲線の書き方を整理する。 - 学習する天然ニューラルネット

                              はじめに 前提知識 一瞬でわかりたい人向け ROC曲線を手で書くには? メインアイデア 具体例 別の具体例1 別の具体例2 注意すべき例 まとめ 追記 はじめに 理解の整理のためにROC曲線についてまとめます。今やエクセルでもポチッとすれば自動で描いてくれますが、実際どんな手順で書かれるのか追っていくことにします。ネットで調べると勘違いして書いている記事がgoogle上位にヒットして驚きました。(TPRを (そこまでカウントしたTP)/(全体のTP)としてたり、Thresholdの概念がなかったり…) 前提知識 まず確率分布からROC曲線のアイデアを理解することが必要となります。こちらの記事が非常にわかりやすいかと思います。 【統計学】ROC曲線とは何か、アニメーションで理解する。 (以下"ROC曲線の記事"と呼称します) qiita.com また、Confusion Matrixについて

                                ROC曲線の書き方を整理する。 - 学習する天然ニューラルネット
                              • ROC曲線の理解 - Qiita

                                はじめに 分類モデルの評価方法であるROC曲線について、整理してみます。 ROC曲線とは ROC曲線の英語表記は、Receiver Operating Characteristicと言います。なんでReceiver?と思う人も多いと思います。これは、受信アンテナのReceiverを意味しています。この分類モデルの諸知見は、軍用レーダーの識別性能を評価する過程で生まれたからです。 Receiver Operating Cheracteristicとは、飛行機からの反射する電磁波を受信し、敵機と友軍機をどこまでちゃんと分類できるかの特性を表すパラメータです。 時代が過ぎて、医学、マシンビジョンなどでも同じ指標として使えるようになりました。 実際にやってみよう。 下記のグラフで青と赤を分類する問題を考えます。青の分布の右側で、赤の分布が重なっています。ここで閾値を変えながら、諸特性がどう変わるか

                                  ROC曲線の理解 - Qiita
                                • 読了:Janssens & Martens (2020) ROC曲線下面積に対するご批判にお応えしよう | 読書日記

                                  Janssens, A.C.J.W, Martens, F.K (2020) Reflection on modern methods: Revising the area under the ROC curve. International Journal of Epidemiology, 1-7. ちょっと都合で読んだ奴。今年出た記事で、タイトルの通り、ROC曲線下面積(AUC)についての解説。 題名に添えて Education Corner と書いてあるから、この雑誌にはそういう啓蒙コーナーがあるのだろう。American StatisticianのTeacher’s Cornerみたいなもんかな。 いわく。 医学分野にROCを導入したのはLusted(1971), 診断の正確性の指標としてROC曲線下面積(AUC)を導入したのはHanley &McNeil(1982)。[←まじか…

                                  • ROC曲線とは?なぜ不均衡データ時には使うべきでない? 分かりやすく説明 - Qiita

                                    目次 ROC曲線とは 用語理解 (改めて)ROC曲線とは ROC-AUCとは ROC-AUCと不均衡データ 前提知識 1.混合行列とは何かについて理解していること 2.ロジスティック回帰について知っていること。 1. ROC曲線とは Wikipediaによれば 「受信者操作特性(じゅしんしゃそうさとくせい、英 Receiver Operating Characteristic, ROC)は、信号処理の概念で、観測された信号からあるものの存在を判定する際の基準となる特性である。 図の上はある疾患について、特定の検査の結果の分布を、陰性者、陽性者別に表示するものである。この例では陰性者の方が全体的に結果が小さい値を示す。そこにクリテリオン(基準、カットオフポイント)を導入し、その値以上の場合陽性、そうでなければ陰性だとする。今、カットオフポイントとしてBを採用すると.....」 (゚∀゚) フ

                                      ROC曲線とは?なぜ不均衡データ時には使うべきでない? 分かりやすく説明 - Qiita
                                    • ROC曲線とAUCを超丁寧に解説 - Qiita

                                      Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 自分がROC曲線とAUCを理解できておらず、なかなか分かりやすい記事がなかったので自分で書きました。 先にまとめ 今回の話の要点をまとめると、以下のようになります。 ROC曲線・AUCは分類問題に使用されるモデル評価指標である。 ROC曲線・AUCは「正しく陽性と判断(=陽性率)できている」かつ「誤って陽性と判断(=偽陽性率)していない」モデルを良いモデルとして考えている。 ROC曲線・AUCは不均衡データには特に不向きである。 ROC曲線の概要 ROC曲線とは、分類問題(「陽性/陰性」の判定、「犬/犬でない」の判定、など)で

                                        ROC曲線とAUCを超丁寧に解説 - Qiita
                                      • PR曲線とROC曲線および不均衡データ - Qiita

                                        曲線比較 PR曲線とROC曲線を比較します。下図の例ではPR曲線を反時計回りに90度回転すればROC似た曲線です。これは、PR曲線の縦軸(Y軸)とROC曲線の横軸(X軸)が同じ指標であることと、Precisionと1-FPRの値が似た値になっているためです(後者は偶然)。1-FPR=$\frac{TN}{TN+FP}$となり、この値は均衡データにおいては$\frac{TP}{TP+FP}$と似た値になりやすいからです。 具体例 ここからは具体例を使って両曲線など以下の情報を出力してみます。ベータ分布でデータ生成しています。 列(左から) 正負例確率分布ヒストグラム 混合行列 PR曲線 ROC曲線 行(上から) 分類精度: 高 分類精度: 中 ランダム(50%の分類精度) 分類精度: 低 分類精度: 最低 均衡データ 下に行くほど精度が低減。 不均衡データ 正負の比率を100:3でデータ生成

                                          PR曲線とROC曲線および不均衡データ - Qiita
                                        • 【図解】ROC曲線の意味と描画方法についてイメージをつかむ - Qiita

                                          1. はじめに 分類モデルの性能を評価する際、どの指標を用いるかが重要になります。 シンプルに正解率を使う際もありますが、それだけでは正確にモデルの性能を評価することができないときもあります。 今回はその指標をいくつかまとめつつ、特にイメージしづらかったROC曲線について整理します。 2. 基礎情報 2-1. 混同行列 混同行列とは、分類器の真陽性(True Positive)、真陰性(True Negative)、偽陽性(False Positive)、偽陰性(False Negative)の4つのそれぞれの数を列挙した正方行列になります。 2-2. 真陽性率/偽陽性率 次に上記のそれぞれの数を利用した指標を列挙する。 正解率(ACC:ACCuracy) 全データのうち、正しく判定されたデータの割合

                                            【図解】ROC曲線の意味と描画方法についてイメージをつかむ - Qiita
                                          • ROC曲線とは?わかりやすくカットオフ値の決め方やAUCの意味まで解説! | いちばんやさしい、医療統計

                                            上の表の記号を使って真陽性率を算式であらわすと、真陽性率=A/(A+C)となり、これを感度と呼びます。 また、真陰性率=D/(B+D)となりこれを特異度と呼びます。 このとき、1-特異度=B/(B+D)となり、これを偽陽性率と呼びます。 つまり真陽性率(True Positive Rate:TPR)は、実際に疾患ありに属する人数のうち、正しく疾患ありと予測された人数の割合のことです。 偽陽性率(False Positive Rate:FPR) は、実際には疾患なしに属する人数のうち、誤って疾患ありと予測されたサンプルの割合のことです。 1から特異性を引いた値に等しく、検査が疾患なしをどれだけ誤って疾患ありと判断するかを示します。 上のグラフのように横軸(0から1まで)に1-特異度、縦軸(0から1まで)に感度をプロットし、カットオフ値(検査の基準値)を連続的に変化させた際に描かれる曲線(上の

                                            • ROC曲線とAUCを理解しよう - Python実装入門 - Qiita

                                              はじめに ROC曲線とAUCは、機械学習の分類問題を評価するための重要なツールです。しかし、これらの概念を理解するのは少し難しく感じるかもしれません。この記事では、これらの概念を分かりやすく説明し、Pythonを使って実装する方法を示します。 ROC曲線とは? ROC曲線(Receiver Operating Characteristic curve)は、分類器のパフォーマンスを視覚的に示すためのグラフです。ROC曲線を作成するためには、偽陽性率(FPF)を横軸に、真陽性率(TPF)を縦軸にプロットします。 真陽性率(TPF): 実際に陽性であるサンプルを陽性と正しく予測した割合(敏感度または再現率とも呼ばれます)。 偽陽性率(FPF): 実際には陰性であるサンプルを陽性と誤って予測した割合(1から引いたものが特異度です)。 AUCとは? AUC(Area Under the Curve)

                                                ROC曲線とAUCを理解しよう - Python実装入門 - Qiita
                                              • Kaggle|American Express - Default Prediction の評価指標を理解したい(ROC曲線/AUC/正規化ジニ係数)|hanaori

                                                Kaggle|American Express - Default Prediction の評価指標を理解したい(ROC曲線/AUC/正規化ジニ係数) 最近Kaggleに入門しまして、知らないことも多くて日々わくわくしています。最近は『American Express - Default Prediction』というクレジットカードのデフォルト(貸し倒れ)率を予測するコンペティションに参加していました。クレジットカードの支払いが極度に滞ったような状態になりそうかどうかを予測しましょうという内容です。 コンペティションごとにうまく予測ができているかを測るための評価指標が与えられているのですが、自分にとってわかりづらい箇所が何点かあったので備忘のためにもここにまとめておこうと思います( こちらのDiscussion の原文です)。各要素はよく見るものだと思うのでコンペティションに参加されてない

                                                  Kaggle|American Express - Default Prediction の評価指標を理解したい(ROC曲線/AUC/正規化ジニ係数)|hanaori
                                                • EZR でロジスティック回帰の多変量 ROC 曲線を比較するには? - 統計ER

                                                  ロジスティック回帰の回帰診断の一つにROC曲線を活用する方法がある。 ロジスティック回帰モデルを多変量で行えば多変量ROC曲線となる。 モデルごとに算出されるROC曲線を比較するにはどのようにすればよいか? >>もう統計で悩むのを終わりにしませんか? ↑1万人以上の医療従事者が購読中 ROC曲線とは? ロジスティック回帰の多変量 ROC 曲線とは? EZRで多変量ROC曲線を描くには? 2つの多変量ROC曲線を比較するには? まとめ 参考書籍 ROC曲線とは? まずROC曲線とは何か? ROC曲線とは、あり・なし、高い・低い、正解・間違いなど2値を判別するための連続量の切れ目(閾値[しきいち]、カットオフポイント)を検討する方法だ。 ROCとはReceiver Operating Characteristicsという言葉の頭文字だが、もともとのレーダー技術からの派生で、主に臨床検査の感度・

                                                    EZR でロジスティック回帰の多変量 ROC 曲線を比較するには? - 統計ER
                                                  • 不均衡データ - ROC曲線欠点の実装例 - sammi@DataScience

                                                    目次: はじめに 不均衡データ:Positiveは少数クラスの場合 不均衡データ:Negativeは少数クラスの場合 はじめに 前回はROC AUCの欠点に関して少し言及しましたが、 sammi-baba.hatenablog.com 今回は実装例に基づいて、ROC曲線が不均衡データ(imbalanced data)に対して簡単に0.90+上がってしまうという欠点に関して説明していきたいと思います。 必要なライブラリ: import numpy as np import matplotlib.pyplot as plt from sklearn.datasets import make_classification from sklearn.linear_model import LogisticRegression from sklearn.model_selection import

                                                      不均衡データ - ROC曲線欠点の実装例 - sammi@DataScience
                                                    • ROC曲線と正診率[R] - 井出草平の研究ノート

                                                      ROC(Receiver Operating Characteristic)曲線は、X軸に偽陽性率、Y軸に真陽性率をとって描かれる。 ROCは、すべての陽性を識別するために、どれだけの間違いを犯しているかがわかる。 今回は正診率について。 ROC曲線下の面積およびブートストラップによる95%信頼区間についてはこちら。 https://ides.hatenablog.com/entry/2019/10/08/152927 ROC曲線のサンプルサイズの推定についてはこちら。 https://ides.hatenablog.com/entry/2019/10/09/102040 データ作成 cls = c('P', 'P', 'N', 'P', 'P', 'P', 'N', 'N', 'P', 'N', 'P', 'N', 'P', 'N', 'N', 'N', 'P', 'N', 'P', '

                                                        ROC曲線と正診率[R] - 井出草平の研究ノート
                                                      • 【図解】ROC曲線・PR曲線の書き方と使い分け基準を解説

                                                        ROC曲線とPR曲線は、検査や機械学習の分類に対する性能を判定する方法です。 この手法を用いることで、検査の感度や陽性的中率のトレードオフを考慮しながら、性能を判定・比較することができます。 この記事では、具体例を用いてROC曲線・PR曲線の書き方を説明し、それぞれを状況別に使い分ける方法について解説します。 「すべての閾値」で検査性能を評価する 評価指標にはトレードオフがある 通常、検査は何かを測定したり計算したりした値に対し、閾値を基準に陽性/陰性を分類することで設計されます。 検査の性能を評価するための指標は色々ありますが、閾値を操作することで、指標がとる値を調整できます。 ただし、これらの指標の多くは互いにトレードオフの関係にあるため、ある指標では性能が良くても、別の指標ではボロボロということが起こり得ます。 具体例 タンパク質 \(A\) の値から、病気を判定する検査を考えます。

                                                          【図解】ROC曲線・PR曲線の書き方と使い分け基準を解説
                                                        • ROC曲線とAUCを単純な例で理解する - Qiita

                                                          Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? この記事の目的 機械学習モデルなど統計モデルの性能の良さを表すROC曲線とAUCについて、思い切り単純化した数値例を用いて理解します。 作成に当たっては下記サイトの設例を参考にさせて頂きました。 途中過程を飛ばさず、より詳しく(しつこく)書き出しながら理解していきます。 具体例で学ぶ数学 AUCとROC曲線の意味と性質を分かりやすく解説 また精度が良い予測、ランダムな予測の時にROC曲線とAUCがどのようになるか、上記の数値例と比べてみます。 最後にPythonのScikit-learnを使ってROC曲線とAUCを簡単に算出できることを

                                                            ROC曲線とAUCを単純な例で理解する - Qiita
                                                          • 【ROC曲線のAUC】95%信頼区間の求め方と実装方法

                                                            ROC-AUCの信頼区間 信頼区間とは 信頼区間(Confidence Interval; CI)は、厳密にいうと以下のように定義されます。 正規分布にしたがう母集団から繰り返しサンプリングを行い、そのたびに一定の方法で区間を計算する。 このとき得られた複数の区間のうち、x%の区間が母平均を区間内に含んでいるとき、 この方法によって求めららた区間をx%信頼区間という。 ただし、統計学の論文を書くような場面以外では、もう少し簡単に考えて良いでしょう。 今回扱う「ROC-AUCの95%信頼区間」については、「ROC-AUCは大体このあたりの値になる」を意味する指標として活用してください。 ROC-AUCの信頼区間の式 得られたデータから計算したROC-AUCの値を \(A\) とします。 また、 \(A\) の標準誤差を \(SE(A)\) と書きます(計算方法は後に示します)。 このとき、R

                                                              【ROC曲線のAUC】95%信頼区間の求め方と実装方法
                                                            • 分類モデルの評価-ROC曲線とAUC - Qiita

                                                              ROC(Receiver Operating Characteristic)曲線とは ROC曲線は、縦軸に真陽性率(tpr: true positive rate)、横軸に偽陽性率(fpr: false positive rate)の値をプロットした曲線です。 真陽性率は、実際の正例のうちどれだけ正例を予測できたかの割合です。(=再現率) 偽陽性率は、実際の負例のうち正例と予測されてしまった割合です。 予測確率を予測ラベルに変換する際の閾値を1.0と0.0の間で徐々に変化させ、真陽性率と偽陽性率の関係をプロットします。 閾値(Threshold)とは ロジスティック回帰は予測確率を出力します。予測確率を予測ラベルに変換する際に使用する値が閾値です。 例えばスパムメールの分類で、閾値を0.5と設定した場合、 予測確率が0.5より大きい場合スパムであると判定します。 予測確率が0.5未満の場合

                                                                分類モデルの評価-ROC曲線とAUC - Qiita
                                                              • ROC曲線とAUC - Qiita

                                                                はじめに 千葉大学・株式会社Nospareの川久保です.今回は,二値分類モデルのパフォーマンス評価に用いられる,ROC曲線とAUCと呼ばれる指標を説明します. 感度と特異度 ROC(receiver operating characteristic)曲線とは,ロジスティック回帰モデルなどの二値分類モデルの異なる閾値ごとのパフォーマンスを,二次元平面に図示したものです.より具体的には,横軸に偽陽性率(false positive rate, FPR),縦軸に真陽性率(true positive rage, TPR)をとり,モデルで推定された陽性の確率($y=1$が実現する確率)がいくつ以上であれば陽性と予測するかの閾値を変化させ,偽陽性率と真陽性率の組のプロットを結んだ曲線です. 陰性と分類($B$) 陽性と分類($B^c$)

                                                                  ROC曲線とAUC - Qiita
                                                                • ROC 曲線とは (自分用メモ) - Qiita

                                                                  例えば、真の値 [1, 1, 0, 0] があるとする。(0: 陰, 1: 陽) ある予測器にかけたスコアが [0.9, 0.4, 0.6, 0.1] だとする。値が大きいほど 1 の可能性が高い。 この場合 0.6 と 0.4 の部分の予測は自信が無く、実際間違っている。 これを sklearn でプロットしてみる。ここで FPR: 偽陽性率。0 に近いほど間違って偽と判定してしまった割合が減って良い。分母は実際に偽だった数。 TPR: 真陽性率。1 に近いほど正しく真と判定した割合が増えて良い。分母は実際に真だった物。 import numpy as np import matplotlib.pyplot as plt import pandas as pd from sklearn.metrics import roc_curve y = np.array([1, 1, 0, 0])

                                                                    ROC 曲線とは (自分用メモ) - Qiita
                                                                  • EZRでROC曲線とAUCを出力!Youden indexでカットオフ値も計算 | いちばんやさしい、医療統計

                                                                    この記事ではEZRでROC曲線を出力する方法についてお伝えします。 具体的には、以下の3つが分かるようになります! そもそもROC曲線とはなんだっけ? ROC曲線とAUCを出力する方法 ROC曲線からカットオフ値を決める方法 ROC曲線とAUCに関する詳細はこちらの記事にありますので、併せてご確認くださいませ。 ROC曲線とAUCとはそもそも何だったっけ? ROC曲線はReceiver Operatorating Characteristic Curveの略で、日本語では受信者動作特性曲線と言います。 医薬研究では、ROC曲線は検査や診断薬の性能を表すときや、新しい検査との比較をするときに用いられることが多いですね。 一般的に、高い感度で判断しようとすると偽陽性がでやすく、逆に偽陽性を低くすると、感度も低くなってしまいます。 ROC曲線を理解するには、陽性的中率や陰性的中率に関する知識も不

                                                                      EZRでROC曲線とAUCを出力!Youden indexでカットオフ値も計算 | いちばんやさしい、医療統計
                                                                    • 【超初心者向け】ROC曲線とAUCについてわかりやすく解説 | StudyAIblog

                                                                      機械学習で分類モデルを作成した際、モデルの精度をどのように評価すべきかは非常に重要です。 モデルを評価するための評価指標として、分類モデルの場合は正解率 (Accuracy) や再現率 (Recall) 等、様々な評価指標があります。 今回は、分類問題でよく使用される評価指標であるROC曲線とAUCについてわかりやすく解説します。 真陽性率 (TPR) と偽陽性率 (FPR) ROC曲線を学ぶ前に基礎知識として、真陽性率 (TPR : True Positive Rate)と偽陽性率 (FPR : False Positive Rate)について学ぶ必要があります。 定義は上記の通りですが、より具体的な例を見ながら分かりやすく説明していきたいと思います。 今回は、乳癌の画像分類の具体例を用いて、TPR と FPR について理解を深めていきましょう。 入力した画像が、正常か乳癌かを分類するモ

                                                                        【超初心者向け】ROC曲線とAUCについてわかりやすく解説 | StudyAIblog
                                                                      1