タグ

関連タグで絞り込む (1)

タグの絞り込みを解除

確率論に関するyudukikun5120のブックマーク (4)

  • 最大エントロピー原理 - Wikipedia

    最大エントロピー原理(さいだいエントロピーげんり、英: principle of maximum entropy)は、認識確率分布を一意に定めるために利用可能な情報を分析する手法である。この原理を最初に提唱したのは Edwin Thompson Jaynes である。彼は1957年に統計力学のギブズ分布を持ち込んだ熱力学(最大エントロピー熱力学(英語版))を提唱した際に、この原理も提唱したものである。彼は、熱力学やエントロピーは、情報理論や推定の汎用ツールの応用例と見るべきだと示唆した。他のベイズ的手法と同様、最大エントロピー原理でも事前確率を明示的に利用する。これは古典的統計学における推定手法の代替である。 今確率変数 X について、X が条件 I を満たす事だけが分かっており、それ以外に X に関して何1つ知らなかったとする。このとき、X が従う分布はどのようなものであると仮定するのが

  • 条件付き独立 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。 出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "条件付き独立" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL (2022年3月) 条件付き独立(じょうけんつきどくりつ、英語: conditional independence)は、確率論において、ある仮説の確からしさを評価するときに、ある観測が無関係または冗長である場合をいう。 条件付き独立は通常、条件付き確率の観点から定式化される。情報のない観測が与えられた場合の仮説の確率が、情報のない場合の確率と等しいという特殊な場合である。仮説、観測 、観測 を用いて、条件付き独立性は として表現できる。ここで、 は観測 と観測 が与えられた下

  • 条件付き独立の意味と例 - 具体例で学ぶ数学

    $P(X,Y)=P(X)P(Y)$ が成立するとき、確率変数 $X$ と $Y$ は独立であると言います。 条件付き確率の定義より、 $P(X,Y)=P(X\mid Y)P(Y)$ は常に成り立つので、 $X$ と $Y$ が独立 $\iff$ $P(X)=P(X\mid Y)$ と考えることもできます。 上の式は、(何も与えられていないときの)$X$ の分布が、$Y$ が与えられたときの $X$ の分布と等しいことを示しています。つまり「$Y$ の値が分かっても、$X$ に関する情報は得られない」と解釈できます。 同様に、$X$ と $Y$ の役割を交換すると、 $X$ と $Y$ が独立 $\iff$ $P(Y)=P(Y\mid X)$ も分かります。 以上を日語でまとめると、 ・$X$ と $Y$ が独立 ・$Y$ の値が分かっても、$X$ に関する情報は得られない ・$X$ の値

  • 確率論理 - Wikipedia

    ^ Nilsson, N. J., 1986, "Probabilistic logic," Artificial Intelligence 28(1): 71-87. [1] ^ Kohlas, J., and Monney, P.A., 1995. A Mathematical Theory of Hints. An Approach to the Dempster-Shafer Theory of Evidence. Vol. 425 in Lecture Notes in Economics and Mathematical Systems. Springer Verlag. ^ Haenni, R, 2005, "Towards a Unifying Theory of Logical and Probabilistic Reasoning," ISIPTA'05, 4th In

  • 1