タグ

統計に関するSWIMATH2のブックマーク (11)

  • よくわかる測度論とルベーグ積分。 - べっく日記

    今日はとても寒く、秋らしい天気だ。一般に秋になると、「〇〇の秋」という言葉を聞くけれども、〇〇に好きな言葉を入れれば秋らしくなるので不思議である。 さて、趣味Twitterを眺めていると、測度論がわからないというツイートを見た。私は一応測度論のTAをやっているので、今回は測度論をざっくりわかりやすくまとめることにした。測度論は解析系や統計系では必須の道具である。私は解析系の人間なので、今回はルベーグ積分の基であるFubiniの定理や単調収束定理、ルベーグの収束定理、積分記号下での微分をゴールに解説をすることにした。 以下、この記事のメニューである。 0.測度論の心 1.測度の定義 1-1.完全加法族 1-2.測度 1-3.測度空間 1-4.測度の性質 2.ルベーグ積分の定義 2-1.特性関数 2-2.階段関数 2-3.ルベーグ積分の定義 2-4.リーマン積分とルベーグ積分との関係 2-

    SWIMATH2
    SWIMATH2 2018/07/15
    なるほどわからん
  • 170120 牧田翠「30分でわかる現代エロマンガ」.pptx - Google スライド

    30分でわかる! 現代エロマンガ エロマンガ統計研究者 牧田翠(@MiDrill) 1 全年齢版

    170120 牧田翠「30分でわかる現代エロマンガ」.pptx - Google スライド
    SWIMATH2
    SWIMATH2 2018/02/28
    良い話
  • Pandasによる実践データ分析入門 - Gunosyデータ分析ブログ

    こんにちは。データ分析部のオギワラです。最近は「NANIMONO (feat.米津玄師)」をよく聞いています。 今回はPythonデータ分析ライブラリであるPandasについて、実践的なテクニックを「データ処理」「データ集計(Group By)」「時系列処理」の3カテゴリに分けてご紹介していきます。 Pandasに関する基的な内容については、前エントリーで既に紹介されているので、是非こちらもご一読して頂けると幸いです。 data.gunosy.io データ処理 データの取り出し(query) 条件文に基づくデータ処理の適用(where) 各行への関数の適用(apply) データ集計(Group By) カラム毎に異なる集計を適用する(agg) 最大・最小値である行を取り出す(first) 標準化や正規化処理を適用する(transform) 時系列処理 時間の丸め処理(round) 時系

    Pandasによる実践データ分析入門 - Gunosyデータ分析ブログ
  • ROC曲線とは何か、アニメーションで理解する。 - Qiita

    統計学、パターン認識等で、ROC(Receiver Operating Characteristic;受信者動作特性)曲線という概念が出てきます。また、データ分析・予測のコンペティションサイトKaggleでも、提出されたアルゴリズムの識別性能評価にこのROC曲線に基づくAUC(Area Under the Curve)というものを使っています。(例えばココ) このROC曲線、ちょっとわかりにくいので、まとめてみました。また、アニメーションでグラフを動かしてイメージを付けるということもやってみます。 1. ROC曲線に至る前説 まず、例として健康に関するとある検査数値データがあったとします。 この検査数値は健康な人は平均25, 標準偏差2の正規分布に従い分布しています。(下記図の緑の曲線) 病気の人は平均30、標準偏差4の正規分布に従い分布しています。(下記の図の青の曲線) グラフにすると下

    ROC曲線とは何か、アニメーションで理解する。 - Qiita
    SWIMATH2
    SWIMATH2 2017/03/07
    わかりやすい
  • Evaluating Logistic Regression Models | R-bloggers

  • ロジスティック回帰

    目次 1)ロジスティック回帰分析概説 2)ロジスティック回帰分析はどんな時に使用するか 3)ロジスティックモデルとは 4)ロジスティック回帰分析で得られるのは 5)オッズ比とは 6)オッズ比の95%信頼限界とは 7)ダミー変数について 8)変数選択上の注意点 9)ロジスティック回帰分析が可能な統計ソフト 10)ロジスティック回帰分析に関する参考書 1)ロジスティック回帰分析概説 近年の外国の論文にロジスティック回帰分析が非常に増えており、これが理解できないと論文を読めないことが多い。このことは、単変量解析では十分な解析ができないことが多いことを示唆しており、今後日の論文でも、ロジスティック回帰分析が確実に増加していくものと思われる。しかし、ロジスティック回帰分析を理解しようと思っても、やさしい教科書は非常に少ない。ロジスティック回帰分析は、疫学調査などの大規模なスタディには必須で

  • ノーフリーランチ定理 - Wikipedia

    ノーフリーランチ定理(ノーフリーランチていり、no-free-lunch theorem、NFL)は、物理学者 David H. Wolpert と William G. Macready が生み出した組合せ最適化の領域の定理である。その定義は以下のようになる。 ……コスト関数の極値を探索するあらゆるアルゴリズムは、全ての可能なコスト関数に適用した結果を平均すると同じ性能となる — Wolpert and Macready、1995年 解説[編集] この定理の名称は、ハインラインのSF小説『月は無慈悲な夜の女王』(1966年)で有名になった格言の"There ain't no such thing as a free lunch."に由来する。かつて酒場で「飲みに来た客には昼を無料で振る舞う」という宣伝が行われたが、「無料の昼」の代金は酒代に含まれていて実際には「無料の昼」なんてもの

    ノーフリーランチ定理 - Wikipedia
  • Rで線形単回帰分析 - matsuou1の日記

    次回のTokyo.Rの開催が近づいてきたので、前回の復習を兼ねてRで回帰分析をやってみます。 今回は最も単純な線形単回帰分析を行います。 回帰分析の流れ 回帰式を求める意義があるか検討する(説明変数と目的変数のグラフを作成する等) 回帰式を求める 回帰式の精度を確認する 回帰係数の検定を行う 信頼区間と予測区間を求める 回帰式を求める意義があるか検討 無相関なデータに対しても、数学的には回帰式が求められるため、検討しておくことは重要です。 データはマンガでわかる統計学 回帰分析編のデータを使用してみます。 ある喫茶店のアイスティーの売り上げとその日の最高気温についてのデータです。 > norns temperture icetea 8/22 29 77 8/23 28 62 8/24 34 93 8/25 31 84 8/26 25 59 8/27 29 64 8/28 32 80 8/2

    Rで線形単回帰分析 - matsuou1の日記
  • ダメな統計学を防ぐための書籍11冊|Colorless Green Ideas

    科学における統計の誤用を扱った『ダメな統計学――悲惨なほど完全なる手引書』を読んだ後に、実際に統計の誤用を防ぐために読むと良いについて紹介する。 はじめに この記事では、科学研究における統計の誤用を扱った『ダメな統計学――悲惨なほど完全なる手引書』を読んだ後に、実際に統計の誤用を防ぐ方法を学ぶために役立つと思われる書籍を紹介する。主に、統計的仮説検定で間違いを犯さないようにする場合に役立つ書籍を紹介するが、それ以外の分野の書籍についても紹介する。 なお、『ダメな統計学――悲惨なほど完全なる手引書』は、科学の世界での統計の誤用について説明したで、私が日語訳に当たった。2017年1月27日から販売された。このの詳しい紹介は、「『ダメな統計学――悲惨なほど完全なる手引書』の翻訳出版」という記事に書いたので、そちらもご参照願いたい。 アレックス・ラインハート〔著〕・西原史暁〔訳〕.(201

    ダメな統計学を防ぐための書籍11冊|Colorless Green Ideas
    SWIMATH2
    SWIMATH2 2017/01/28
    ダメな統計学と心理学のやつと数学ガールが気になる
  • スミルノフ・グラブス検定

    検定手順: 前提 帰無仮説 $H_0$:「全てのデータは同じ母集団からのものである」。 対立仮説 $H_1$:「データのうち,最大のものは外れ値である」。 有意水準 $\alpha$ で片側検定を行う(両側検定も定義できる)。 標の大きさを $n$,標データを,$X_1, X_2, \dots, X_n$ とする。 標平均を $\bar{x}$,不偏分散を $U$ とする。 最大の測定値 $X_i$ について次式による $T_i$ を求める(平均値より小さい方の外れ値の場合には,最小の測定値について計算する)。 $\displaystyle T_i = \frac{\left |\ X_i - \bar{X} \ \right |}{\sqrt{U}}$ 例題では, $\displaystyle T_{20} = \frac{\left |\ 164 - 141.7 \ \right

  • ピタゴラス勝率 - Wikipedia

    ピタゴラス勝率(ピタゴラスしょうりつ、Pythagorean expectation)は、得点と失点からチームの勝率を予測するセイバーメトリクスの計算式である。チームの実際の勝率とピタゴラス勝率を比較する事で、どのくらい幸運であったかの検証も出来る。この名称はピタゴラスの定理と数式が類似しているところから来ている。PECOTAシステムやWARでもこの式を元に勝率を予測している。 概要[編集] ビル・ジェームズによって考え出された。ピタゴラスの定理に似た簡単な数式を利用してチームの勝敗記録を予測することは比較的容易である事が判明した。 算出方法は(総得点の2乗)÷(総得点の2乗+総失点の2乗)である。 Runs Scored = 得点 Runs Allowed = 失点 式は実証結果に一致するように指数を変更したり、頻繁に改良されている[1]。 ピタゴラス勝率を改良したPythagenpat

  • 1