タグ

statisticsに関するnorisuke3のブックマーク (10)

  • 最尤法(最尤推定)と最小二乗法は何が違う?なぜ対数尤度を使うかなどわかりやすく解説|いちばんやさしい、医療統計

    重回帰分析やロジスティック回帰分析には”最尤法”や”最小二乗法”といった手法があります。 これらは一体どんな手法で何が違うのか、疑問に思っている方も多いのではないでしょうか。 記事は最尤法や最小二乗法について、なるべくわかりやすく解説します。 初心者の方でも大丈夫なように、難しい計算式は極力使わずに説明しますので安心して下さいね。 回帰分析を実施する上で最尤法などは避けて通れない概念ですので、意味だけでも是非覚えていってくださいね! 最尤法(最尤推定)と最小二乗法とは? まずは、最尤法と最小二乗法の違いから確認していきましょう! 最尤法と最小二乗法の違い あるサンプルデータの平均値をそれぞれの手法で計算するとしましょう。 この時、以下の方法でそれぞれ平均値を求めようとします。 最尤法:サンプルデータが得られる確率(尤度)が最大になる平均値を探す 最小二乗法:サンプルデータとの誤差が最小に

    最尤法(最尤推定)と最小二乗法は何が違う?なぜ対数尤度を使うかなどわかりやすく解説|いちばんやさしい、医療統計
  • Buy Till you Die - Wikipedia

  • DataArts

    E[l′(θ, X)]=E[ddθlog⁡f(x, θ)]=∫{ddθlog⁡f(x, θ)}f(x, θ)dx=∫{1f(x, θ)ddθf(x, θ)}f(x, θ)dx=∫ddθf(x, θ)dx=ddθ∫f(x, θ)dx=0

  • 統計的学習理論(1): フィッシャー情報量とクラメールラオ下限と最尤法 - アドファイブ日記(ミラー版)

    勉強したことメモ。数式を使わずに書く。 また、行間をスキップせずに、多少くどいかもしれないくらいにきっちり順を追って説明を書いたので長いけどわかりやすくなっているはず。 第一回はベイズの手前まで、最尤法のあたりまでの話をする。 推定量 データを表す確率変数があってその密度関数は何らかのパラメータであらわされているとする。観測したデータから合理的にパラメータを決定するタスクのことを推定という。 推定を世界で最初にガッチリ研究したのはフィッシャーという人で、彼は推定方法の良しあしを判断する基準として、(A)不偏性、(B)有効性、(C)一致性、(D)漸近正規性、(E)十分性、などを考えた。 データからパラメータを推定する手続きは、データの関数として表せる。そういう関数を推定関数、そうやって計算した値を推定量と呼ぶ。 観測されうるデータは確率変数なので、推定量も確率変数となる。 推定量が確率変数だ

    統計的学習理論(1): フィッシャー情報量とクラメールラオ下限と最尤法 - アドファイブ日記(ミラー版)
  • 「頻度論」の学者と「ベイズ論」の学者が対談したら

    東京大学医学部卒(生物統計学専攻)。東京大学大学院医学系研究科医療コミュニケーション学分野助教、大学病院医療情報ネットワーク研究センター副センター長、ダナファーバー/ハーバードがん研究センター客員研究員を経て、現在はデータを活用する様々なプロジェクトにおいて調査、分析、システム開発および人材育成に従事する。著書に『統計学が最強の学問である』(ダイヤモンド社)、『1億人のための統計解析』(日経BP社)などがある。 『統計学が最強の学問である[実践編]』発刊記念対談 35万部を突破したベストセラー『統計学が最強の学問である』の続編、『統計学が最強の学問である[実践編]』の出版を記念し、著者・西内啓氏をホストに統計学をめぐるシリーズ対談の連載がスタートします。 ゲストは前統計学会会長、気鋭の経済学者、統計学者など。普段は知ることのできない統計学者の斬新な視点と意見をお楽しみください。 バックナン

  • 不偏標本分散の意味とn-1で割ることの証明 | 高校数学の美しい物語

    平均 μ\muμ,分散 σ2\sigma^2σ2 の分布(母集団)からランダムに抽出したサンプルの値を x1,x2,⋯ ,xnx_1,x_2,\cdots, x_nx1​,x2​,⋯,xn​ とする。 このとき,u2=1n−1∑i=1n(xi−x‾)2u^2=\dfrac{1}{n-1}\displaystyle\sum_{i=1}^n(x_i-\overline{x})^2u2=n−11​i=1∑n​(xi​−x)2 とおくと,E[u2]=σ2E[u^2]=\sigma^2E[u2]=σ2 となる。 u2u^2u2 を不偏標分散と言う。 ただし,x‾=x1+x2+⋯+xnn\overline{x}=\dfrac{x_1+x_2+\cdots +x_n}{n}x=nx1​+x2​+⋯+xn​​ は標平均です。 不偏標分散(不偏分散)の意味と,n−1n-1n−1 が登場することのきちん

    不偏標本分散の意味とn-1で割ることの証明 | 高校数学の美しい物語
  • シンクタンクならニッセイ基礎研究所

    ■要旨 統計的分析方法の中で最も使われている一つが回帰分析である。回帰分析を簡単に言うと、ある変数の値で、他の変数の値を予測し、両者の関連性を確認する分析方法だと言える。 回帰分析が世の中に登場するまでには、ルジャンドル、ガウス、ゴルトン、ピアソンという4人の学者の貢献があった。 最近は、StataやSPSS、そしてRなどのような統計パッケージを使い、半自動的に(?)実証分析を行うケースが多いので、実証分析の初心者の中には回帰分析の詳細を理解せず、p値とt値、そして回帰係数という分析結果だけを確認・利用するケースも少なくないだろう。 パソコンの普及に伴って軽視されがちであった回帰分析に至るまでの過程を理解しようと努めることが分析結果をより明確に解釈できる近道であると信じている。 文の内容がこれから回帰分析の過程を学人たちにとって、少しでも参考になることを願うところである。 ■目次 1――

    シンクタンクならニッセイ基礎研究所
  • 統計分析を理解しよう-ロジスティック回帰分析の概要-

    最近、回帰分析の中でよく使われているのがロジスティック回帰分析(Logistic Regression Analysis)(以下、ロジスティック分析)である1。被説明変数が量的データである一般的な回帰分析は、説明変数と被説明変数の間の線形関係を仮定しており、一般線形モデル(Ordinary Linear Model)と呼ばれている。しかしながら社会のすべての現象が線形的な関係ではないので、非線形的な関係に対する分析も必要である。また、現実的には被説明変数が量的(Quantitative)データではなく質的(Qualitative)データであるケースも多い。例えば、所得がいくらぐらいである時、家を所有するか、給料がどのぐらいある時、車を買うか、年収がどのぐらいである時、結婚するかなど説明変数は量的データあるものの、被説明変数は「家を所有している、家を所有していない」のような質的データになって

    統計分析を理解しよう-ロジスティック回帰分析の概要-
  • BASIC STUDY | AVILEN AI Trend

    全人類がわかるデータサイエンス 基礎

  • 【入門】ベイズ統計学をベイズの定理の基本から解説!|スタビジ

    記事では、伝統的な統計学とは対立した立場を取るベイズ統計学についてまとめていきます。今注目されているベイズ統計学の基的な部分をしっかりおさえておくことが重要です。 ベイズ統計学は最近になって脚光を浴びるようになってきた新たな手法。 伝統的な統計学とは一線を画す考え方だったのですが、現在は切っても切り離せない存在となってきています。 この記事では、統計学を勉強する上で非常に重要な分野であるベイズ統計学について説明していきます。 ベイズは高校生の確率の教科書などにも載っている、ベイズの定理を基の原則として、様々な方面へ応用できます。 ここでは大きな枠組みを捉えるということで、

    【入門】ベイズ統計学をベイズの定理の基本から解説!|スタビジ
  • 1