2015-09-05 第53回 フィッシャー情報量 推測統計学 確率分布 第53回はFisher情報量について書いていきます。辞書で調べてみると、「確率変数Xが母数θに対して持っている『情報』の量を表す」と書かれています。うーん・・・・わかるようでわからない。情報を持っているからどうなの?という疑問が生まれました(個人的には初めて見たときから)。ほんで、いろいろ調べるてみると、「スコア関数」「クラメールラオの不等式」などと関係してるみたいで、さらに??だったので、数年間から逃げてきたのですが、最近勉強し直してみると理解できたので、このメモブログに書いていきます。 ・スコア関数 Sc(θ) パラメタを推定するときに最尤法を用いる場合、確率密度関数f(x|θ)ではなく、尤度関数L(θ|x)を考えます。感覚的には、得られたデータxにどのくらいθがのってくるか、というような考え方です。 最尤法では
ウィキペディア 索引トップ 用語の索引 ランキング カテゴリー フィッシャー情報量 出典: フリー百科事典『ウィキペディア(Wikipedia)』 (2023/03/25 23:59 UTC 版) 具体例 ベルヌーイ分布 ベルヌーイ分布は、確率θ でもたらされる「成功」と、それ以外の場合に起きる「失敗」という2つの結果をもたらす確率変数が従う分布である(ベルヌーイ試行)。例えば、表が出る確率がθ、裏が出る確率が1 - θであるような、コインの投げ上げを考えれば良い。 n回の独立なベルヌーイ試行が含むフィッシャー情報量は、以下のようにして求められる。なお、以下の式中で、A は成功の回数、B は失敗の回数、n =A +B は試行の合計回数を示している。対数尤度関数の2階導関数は、 ∂ 2 ∂ θ 2 ln f ( A ; θ ) = ∂ 2 ∂ θ 2 ln [ θ A ( 1 − θ
基礎的すぎるから知らなかったのか confint(ModelName, level = 1-alpha) という関数があったらしい、プロファイル尤度に基づく信頼区間を計算できる (2012/6/19 記述を修正)。 d <- c( 1,1,1,1,0,0,0,0,0,0, 1,1,1,1,1,1,1,1,0,0, 1,0,0,0,0,0,0,0,0,0, 1,1,1,1,1,0,0,0,0,0 ) trt <- gl(2, 20, 40) foo <- gl(2, 10, 40) GLM.1 <- glm(d ~ trt + foo, family=binomial()) summary(GLM.1) ModelName <- GLM.1 alpha <- 0.05 x <- summary(ModelName) y <- confint(ModelName, level=1-alpha)
最近はstanでMCMCするのが楽しいわけですが,僕のごくごく近い範囲の人間から「そもそも尤度ってなんだ」という話があったので,今回は尤度や最尤推定法について書きます。 統計モデリングは確率分布を扱う 何を今更,と思うかもしれませんが,統計モデリングと確率分布は切っても切れない関係にあります。今回は二項分布について話をします。次回はたぶん正規分布について書きます。 さて,二項分布とは,成功と失敗といった2値で表現される結果がでる試行をN回繰り返したとき,成功する回数について表される確率分布です。詳しくはWikipediaを見てください。 二項分布は試行回数と成功確率が決まれば分布の形が決まります。ここで,Rを使って分布を直感的に理解してみましょう。 ここでは試行回数は10回で,成功率は0.5としましょう。バスケットボールのシュートが入るかどうかとか,バッティング練習でヒットになるかどうかと
これなら分かる最適化数学―基礎原理から計算手法までposted with カエレバ金谷 健一 共立出版 2005-09-01 Amazonで探す楽天市場で探すYahooショッピングで探す 目次 目次 はじめに 最尤推定法とベイズ推定の違い 尤度をグラフィカルに説明する資料 参考資料 MyEnigma Supporters はじめに 学生の時から, "それは最尤推定法を用いています" とか, "その行は,尤度計算の部分ですね” とか,まるで尤度というものを知っていて, 使いこなしているかのような発言をしてきました. しかし,そう言いながらも, 自分的には,尤度というものがかなり漠然としていました. そもそも,尤度は文字通り「尤もらしさ」を表す度合いなので, 「最尤推定法でモデルのパラメータを決定します.」 っていうのは, 「一番それっぽいものを選びます」 と言っているのとあまり変わりがない気
最尤推定 (さいゆうすいてい): 「最ももっともらしい」パラメーターの推定 「尤」の音読みは「ゆう」,訓読みは「もっともらしい (尤もらしい)」です. 尤度とは,ある確率論的モデルを仮定しているときに,その観測データが得られる確率 (あるいは確率密度) 簡単には,ある観測データに (あるパラメーターのもとで) 確率論的モデルが「どれぐらいあてはまっているか」を確率で表す尺度です 最尤推定とは,尤度を「手持ちの観測データのもとで,あるパラメーター値が得られる確率」とみなして (つまり尤度が未知パラメーターの関数とみなして),尤度を最大化するようなパラメーター値を探索する推定方法です 最尤推定法を使う手順は 尤度方程式を作る: 確率論的モデルを作り (データがどういう確率分布に従うか,確率分布のパラメーターの関数型はどうなってるか),それを数式として定義する……これが尤度方程式である 尤度最大
勉強したことメモ。数式を使わずに書く。 また、行間をスキップせずに、多少くどいかもしれないくらいにきっちり順を追って説明を書いたので長いけどわかりやすくなっているはず。 第一回はベイズの手前まで、最尤法のあたりまでの話をする。 推定量 データを表す確率変数があってその密度関数は何らかのパラメータであらわされているとする。観測したデータから合理的にパラメータを決定するタスクのことを推定という。 推定を世界で最初にガッチリ研究したのはフィッシャーという人で、彼は推定方法の良しあしを判断する基準として、(A)不偏性、(B)有効性、(C)一致性、(D)漸近正規性、(E)十分性、などを考えた。 データからパラメータを推定する手続きは、データの関数として表せる。そういう関数を推定関数、そうやって計算した値を推定量と呼ぶ。 観測されうるデータは確率変数なので、推定量も確率変数となる。 推定量が確率変数だ
ベイズ推定って、最近はやってきてますね。僕も流行りにおいて行かれないように勉強しています。 理論的な話や数学的な話はいろいろWebや本をあされば出てきますが、実用面とか解釈面について言及しているものは少ないですね。 今回は清水の個人的な意見として、ベイズがどういう風に使えそうか書いてみます。数学的な話はなしで。よくわからないので。 興味ある人は続きをどうぞ。 2016/2/1追記:ベイズ統計について,入門的な資料を作りました。心理学者のためのベイズ統計入門もあわせてどうぞ。 ベイズ推定法の前に、従来法の代表として最尤推定法について触れておきます。 その方法とベイズがどう違うのかについて、そのあと述べます。 最尤推定法 最尤法ともいわれますが、基本的な発想は、モデルとデータの関係を次のように考えます。 真のモデルというのがあって、我々はそのモデルから発生したデータを手に入れている。真値は一つ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く