タグ

probability-theoryとstatisticsに関するnabinnoのブックマーク (23)

  • 確率質量関数 - Wikipedia

    離散確率分布は、確率質量がはたらく点に丸を付け、支柱を付けて表す。 確率質量関数(かくりつしつりょうかんすう、英: probability mass function, PMF)とは、確率論および統計学において、離散型確率変数にその値をとる確率を対応させる関数のことである[1](単に確率関数ということもある)。 確率質量関数の定義域は離散的であるスカラー変数や確率変数ベクトル(英語版)などの確率要素であることもある。 離散型確率変数の場合は連続型確率変数の場合と異なり、事象の確率は高々可算個の確率質量の和で表される[2]。 偏りのないサイコロの確率質量関数。等確率空間における確率分布は離散一様分布になる。 X : S → A (A ⊆ R) を標空間 S に定義される離散型確率変数とすると、X に対する確率質量関数 fX : A → [0, 1] は次の式で定義される[3][4]。 確率

    確率質量関数 - Wikipedia
  • マルコフ決定過程 - Wikipedia

    マルコフ決定過程(マルコフけっていかてい、英: Markov decision process; MDP)は、状態遷移が確率的に生じる動的システム(確率システム)の確率モデルであり、状態遷移がマルコフ性を満たすものをいう。 MDP は不確実性を伴う意思決定のモデリングにおける数学的枠組みとして、強化学習など動的計画法が適用される幅広い最適化問題の研究に活用されている。 MDP は少なくとも1950年代には知られていた[1]が、研究の中核は1960年に出版された Ronald A. Howard の "Dynamic Programming and Markov Processes" に起因する[2]。 MDP はロボット工学や自動制御、経済学、製造業を含む幅広い分野で用いられている。 概要[編集] 3つの状態と2つの行動をもつ簡単な MDP の例 マルコフ決定過程は離散時間における確率制御

    マルコフ決定過程 - Wikipedia
  • 夏目漱石の「坊ちゃん」を学習させてマルコフ連鎖で新作を自動生成させるレシピ

  • 累積分布関数 - Wikipedia

    英語版記事を日語へ機械翻訳したバージョン(Google翻訳)。 万が一翻訳の手がかりとして機械翻訳を用いた場合、翻訳者は必ず翻訳元原文を参照して機械翻訳の誤りを訂正し、正確な翻訳にしなければなりません。これが成されていない場合、記事は削除の方針G-3に基づき、削除される可能性があります。 信頼性が低いまたは低品質な文章を翻訳しないでください。もし可能ならば、文章を他言語版記事に示された文献で正しいかどうかを確認してください。 履歴継承を行うため、要約欄に翻訳元となった記事のページ名・版について記述する必要があります。記述方法については、Wikipedia:翻訳のガイドライン#要約欄への記入を参照ください。 翻訳後、{{翻訳告知|en|Cumulative distribution function|…}}をノートに追加することもできます。 Wikipedia:翻訳のガイドラインに、より詳

    累積分布関数 - Wikipedia
  • 確率密度関数 - Wikipedia

    標準正規分布の箱ひげ図および確率密度関数 N(0, σ2) 確率密度関数(かくりつみつどかんすう、(英: probability density function、PDF)とは、確率論において、連続型確率変数がある値をとるという事象の確率密度を記述する関数である。確率変数がある範囲の値をとる確率を、その範囲にわたって確率密度関数を積分することにより得ることができるよう定義される。確率密度関数の値域は非負の実数であり、定義域全体を積分すると1である。 例えば単変数の確率密度関数を平面上のグラフに表現して、x軸に確率変数の値を、y軸に確率密度を採った場合、求めたい範囲(x値)の下限値と上限値での垂直線と、変数グラフ曲線と y = 0 の直線とで囲まれる範囲の面積が確率になる。 「確率分布関数」 (probability distribution function)[1] あるいは「確率関数」

    確率密度関数 - Wikipedia
  • numpy.random.poisson — NumPy v1.26 Manual

  • ポアソン分布 - Wikipedia

    統計学および確率論で用いられるポアソン分布(英: Poisson distribution)とは、ある事象が一定の時間内に発生する回数を表す離散確率分布である。 数学者シメオン・ドニ・ポアソンが1838年に確率論とともに発表した。 ある離散的な事象について、ポアソン分布は所与の時間内での生起回数の確率を示し、指数分布は生起間隔の確率を示す[1]。 定義[編集] 定数 λ > 0 に対し、0 以上の整数を値にとる確率変数 X が を満たすとき、確率変数 X は母数 λ のポアソン分布に従うという。 ここで、e はネイピア数 (e = 2.71828…)であり、k! は k の階乗を表す。また、λ は所与の区間内で発生する事象の期待発生回数に等しい。 P(X = k) は、「所与の時間中に平均で λ 回発生する事象がちょうど k 回(k は非負の整数)発生する確率」に相当する。例えば、事象が平

    ポアソン分布 - Wikipedia
  • 単位根 - Wikipedia

    単位根(たんいこん、英: unit root)とは、時間を通じて変化する確率過程が持つ、統計的推論に問題をもたらし得る側面の一つである。 もし線形な確率過程の特性方程式の根の一つが1であるならば、その確率過程は単位根を持つ。このような確率過程は非定常である。もしこの確率過程の特性方程式の他の根がすべて単位円の内側にあるならば、つまり絶対値が1以下ならば、この確率過程の1階差分は定常である。 定義[編集] 離散確率過程 を考え、次のような p 次の自己回帰確率過程であると仮定する。 ここで、 は自己相関がなく、平均が0で定数の分散 を持つとする。簡単化のために とする。もし、特性方程式、 、 の根の一つが ならば、この確率過程は単位根を持つ、もしくは一次の和分(英語版)過程であると呼び、 と書く。もし、特定方程式の複数個(r 個)の根が ならば(解 の重複度が r ならば)、その確率過程は

    単位根 - Wikipedia
  • 定常過程 - Wikipedia

    定常過程(ていじょうかてい、英: stationary process)とは、時間や位置によって確率分布が変化しない確率過程を指す。このため、平均や分散も(もしあれば)時間や位置によって変化しない。 例えば、ホワイトノイズは定常的である。しかし、シンバルを鳴らしたときの音は定常的ではなく、時間と共に音が弱まっていく。 定常性(Stationarity)は時系列の解析でも重要であり、時系列データを定常的なものに変換することがよく行われる。例えば、経済的データは季節による変動があったり、価格レベルに依存する。ある定常過程と1つ以上の過程に傾向(トレンド)が認められるとき、これら過程を「傾向定常的; trend stationary」であるという。このようなデータから定常的成分だけを抜き出して分析することを「傾向除去; de-trending」と呼ぶ。 離散時間の定常過程で、標値も離散的(とり

  • ランダムウォーク - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。 出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "ランダムウォーク" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL (2011年5月) 2次元ランダムウォークの軌跡。 ランダムウォーク(英: random walk)は、次に現れる位置が確率的に無作為(ランダム)に決定される運動である。日語の別名は酔歩(すいほ)、乱歩(らんぽ)である。グラフなどで視覚的に測定することで観測可能な現象で、このとき運動の様子は一見して不規則なものになる。 ブラウン運動と共に、統計力学、量子力学、数理ファイナンス[1][2]等の具体的モデル化に盛んに応用される。 () を独立かつ同分布な 値確率変数族とする

    ランダムウォーク - Wikipedia
  • 対数正規分布 - Wikipedia

    確率論および統計学において、対数正規分布(たいすうせいきぶんぷ、英: log-normal distribution)は、連続確率分布の一種である。この分布に従う確率変数の対数をとったとき、対応する分布が正規分布に従うものとして定義される。そのため中心極限定理の乗法的な類似が成り立ち、独立同分布に従う確率変数の積は漸近的に対数正規分布に従う。 平均 μ と標準偏差 σ > 0 に対し、正の実数を値にとる確率変数 X の確率密度関数 f(x) が で与えられるとき、確率変数 X は対数正規分布に従うという。また、上記の確率密度分布に対応する対数正規分布を Λ(μ, σ2) と表記する[1]。 このとき、対応する分布関数 F(X) は である。ただし、erfc は相補誤差関数、Φ は標準正規分布の分布関数である。

    対数正規分布 - Wikipedia
  • 連続確率分布 - Wikipedia

    連続確率分布(れんぞくかくりつぶんぷ、英: continuous probability distribution)や連続型確率分布(れんぞくがたかくりつぶんぷ)は、確率論において、累積分布関数が連続な確率分布である。連続確率分布となるのは確率変数 X が連続型のときに限られる。絶対連続分布と区別する際は広義連続分布と呼ぶ。 広義連続分布では、確率変数 X の値 a に対して常に P(X = a) = 0 である。これは必要十分条件である。しかし、確率変数が連続型でも広義連続分布でない場合は、必ずしもそうではない。広義連続分布ではない例として退化分布がある。退化分布などでは P(X = a) > 0 となることもありうる。 広義連続分布では確率密度関数が存在しない場合があるが、絶対連続分布では必ず確率密度関数が存在する。 なお、連続確率分布は単に確率変数が実数などの連続値になる場合の確率分

  • 大数の法則 - Wikipedia

    サイコロ投げの試行回数を限りなく増やすと、出た目の標平均は平均に収束する。 大数の法則(たいすうのほうそく、英: Law of Large Numbers, LLN、仏: Loi des grands nombres[注釈 1])とは、確率論・統計学における基定理の一つ。確率の公理により構成される確率空間の体系は、統計学的確率と矛盾しないことを保証する定理である。 たとえばサイコロを振り、出た目を記録することを考える。この試行回数を限りなく増やせば、出た目の標平均が目の期待値である 3.5 の近傍から外れる確率はいくらでも小さくなる。これは大数の法則から導かれる帰結の典型例である。より一般に、大数の法則は「独立同分布に従う可積分系確率変数列の標平均は平均に収束する」と述べられる。 厳密には、大数の法則は収束をどのようにとらえるかに応じて、ヤコブ・ベルヌーイによる大数の弱法則 (WL

    大数の法則 - Wikipedia
  • Dependent and independent variables - Wikipedia

  • 大規模テキストにおけるN-gram統計 - Negative/Positive Thinking

    はじめに 大規模なテキストデータでのN-gram統計を取る場合、特にNが大きい場合(N>=3)は、組み合わせの数が多くなり出てくるN-gramをすべてメモリに保持しながら個数をカウントするのが難しい。効率的な方法があるのを知ったのでちょっと試してみた。 大規模テキストにおけるN-gram統計の取り方 岩波講座ソフトウェア科学15「自然言語処理」 論文: http://ci.nii.ac.jp/naid/110002934647 手順 ngramを取りたい文章を1つの文として扱う この文をメモリに読み込み、各文字の先頭アドレスを保持する配列を作成 その先頭アドレスの場所の文字から文最後までの部分文字列を1つの単語とみる この単語を辞書順に並び替える(アドレス配列だけ) ソートした単語の順番で、次の単語と「先頭から共通している文字数」を保持する配列を作成 Ngramをカウントするときは、単語の

    大規模テキストにおけるN-gram統計 - Negative/Positive Thinking
  • 超大規模テキストにおけるN-gram統計 - Negative/Positive Thinking

    はじめに 超大規模なテキストデータでのN-gram統計を取る場合、そもそもデータがメモリにのらなくてSuffixArrayを使ったカウントも無理だったりする。近似値でよい場合、効率的な方法があると知ったのでちょっとメモ&試してみた。 与えられるデータ 大量のデータがストリーム形式で与えられるとする 高速にどんどん与えられる 例えば、データパケット監視やtwitterなど カウントしたいデータの種類が膨大 種類をメモリに保持するのが無理 ストリームデータにおける頻度カウント法 正確なカウントは難しいが、近似的に頻度カウントを行うことができる Sticky Sampling Algorithmは解釈が間違っているかもしれない Sticky Sampling Algorithm カウントする要素をサンプリングで選ぶ方法 保持するのは以下の2つのペアの集合 e : 要素(例えばN-gram) f

    超大規模テキストにおけるN-gram統計 - Negative/Positive Thinking
  • Return period - Wikipedia

  • 確率分布 - Wikipedia

    この場合の確率を全て表すには、全ての連続区間での確率を求めることになる。次の電話が a - b 時間後になる確率は次の式で表せる: 累積分布関数 FX を で定めれば、 のように、一変数関数で分布を表現できるので便利である。さらに、FX の導関数 fX は確率密度関数と呼ばれ、確率は積分を用いて と書ける。 通常、連続値をとる確率変数の分布は確率密度関数を用いて記述される。なぜなら、確率密度関数は初等関数で書けるが、累積分布関数は書けない場合が多いからである。 公理主義的な確率論においては、d次元ベクトル値確率変数の確率分布とは、その確率変数の引き起こす像測度のことである。この測度は d次元ユークリッド空間上の確率測度であり、ユークリッド空間の部分集合に対して、確率変数の値がその集合に入る確率を与える関数となる。 単に確率分布というときは、d次元ユークリッド空間などのよく使われる可測空間上

  • 決定木 - Wikipedia

    決定木(けっていぎ、英: decision tree)は、(リスクマネジメントなどの)決定理論の分野において 決定を行うためのグラフであり、計画を立案して目標に到達するのに用いられる。 決定木は、意志決定を助けることを目的として作られる。 決定木は木構造の特別な形である。 概説[編集] 機械学習の分野において決定木は予測モデルであり、ある事項に対する観察結果から、その事項の目標値に関する結論を導く。内部の節点は変数に対応し、子である節点への枝はその変数の取り得る値を示す。 葉(端点)は、根(root)からの経路によって表される変数値に対して、目的変数の予測値を表す。 データから決定木を作る機械学習の手法のことを決定木学習 (英: decision tree learning)、または略して単に決定木と呼ぶ。 決定木による分類モデルはその分類にいたる過程が容易に解釈できるので、決定木はデータ

    決定木 - Wikipedia
  • 確率過程 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "確率過程" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2011年11月) 確率過程の例 確率論において、確率過程(かくりつかてい、英語: stochastic process)は、時間など,条件によって変化する確率変数の数理モデルである。株価や為替の変動、ブラウン運動などの粒子のランダムな運動を数学的に記述する模型(モデル)として利用している。不規則過程(英語: random process)とも言う[1]。 確率過程からのサンプリングで得られる系列(実現値)を見関数[2](見過程[3]、経路/パス[2])という。 数学的な定義[

    確率過程 - Wikipedia