タグ

wikipediaとstatisticsに関するInoHiroのブックマーク (16)

  • Correlation - Wikipedia

    This article is about correlation and dependence in statistical data. For other uses, see Correlation (disambiguation). Several sets of (x, y) points, with the Pearson correlation coefficient of x and y for each set. The correlation reflects the noisiness and direction of a linear relationship (top row), but not the slope of that relationship (middle), nor many aspects of nonlinear relationships (

    Correlation - Wikipedia
  • 季節調整 - Wikipedia

    傾向変動 一方向的な方向を持続する変化であり、周期が15年以上の長期的な波動(波状の上下変動)を含む。 循環変動 周期が通常3~15年であって周期の確定していない波動だが、もっと短期間の景気の好・不況も含む。傾向変動と循環変動とがひとまとめにされることもしばしばある。キチンの波やジュグラーの波などが有名。詳細は景気循環を参照。 季節変動 1年を周期とする定期的な波動。季節調整において取り除く対象となる波動である。 不規則変動 上記三つの変動の残差と考えられ、不規則、攪乱要素で起きる変動。典型例として、消費税率の更新前の駆け込み需要が挙げられる。 変動要因の合成[編集] 4つの変動要素を組み合わせて元の時系列データ(原系列)の動きを説明する。このとき、組み合わせる方式として、加法モデルと乗法モデルとが考えられている。 モデル名 概要 計算式 経済統計データの季節調整には、乗法モデルの方が適し

  • 独立 (確率論) - Wikipedia

    確率論における独立(どくりつ、英: independent)とは、2つの事象が何れも起こる確率がそれぞれの確率の積に等しいことをいう。一方の事象が起こったことが分かっても、他方の事象の確率が変化しないことを意味する。 この「独立」の概念は、2個以上の事象、2個以上の確率変数、2個以上の試行に対して定義される。 2つの確率変数が独立であるとは、「ある確率変数の値が一定範囲に入る事象」と「別の確率変数の値が別の一定範囲に入る事象」が、考えられるどのような「一定範囲」(「考えられる」とは通常ボレル集合族を指す)を定めても事象として独立であることをいう。2つの確率変数が独立である場合は、一方の変数が値をとっても、他方の変数の確率分布が変化しないことを意味する[1]。 確率論における独立は、他の分野における独立性の概念と区別する意味で、確率論的独立(かくりつろんてきどくりつ、英: stochasti

  • 移動平均 - Wikipedia

    移動平均(いどうへいきん)は、時系列データ(より一般的には時系列に限らず系列データ)を平滑化する手法である[1]。音声や画像等のデジタル信号処理に留まらず、金融(特にテクニカル分析)分野、気象、水象を含む計測分野等、広い技術分野で使われる。有限インパルス応答に対するローパスフィルタ(デジタルフィルタ)の一種であり、分野によっては移動積分とも呼ばれる。 主要なものは、単純移動平均と加重移動平均と指数移動平均の3種類である。普通、移動平均といえば、単純移動平均のことをいう。 単純移動平均[編集] 単純移動平均 (英: Simple Moving Average; SMA) は、直近の n 個のデータの重み付けのない単純な平均である。例えば、10日間の終値の単純移動平均とは、直近の10日間の終値の平均である。それら終値を , , ..., とすると、単純移動平均 SMA(p,10) を求める式は

    移動平均 - Wikipedia
  • ベイズ確率 - Wikipedia

    ベイズ確率(ベイズかくりつ、英: Bayesian probability)とは、確率の概念を解釈したもので、ある現象の頻度や傾向の代わりに、確率を知識の状態[1]を表す合理的な期待値[2]、あるいは個人的な信念の定量化と解釈したものである[3]。 ベイズ確率の解釈は、命題論理を拡張したものであり、真偽が不明な命題を用いた推論を可能にするものと考えられる[4]。ベイズの考え方では仮説に確率を付与するが、頻度論的な推論では確率を付与せずに仮説を検証するのが一般的である。 ベイズ確率は証拠能力のある確率のカテゴリーに属する。仮説の確率を評価するために、ベイズ確率論者は事前確率を指定する。仮説の確率を評価するために、ベイズの確率論者は事前確率を指定し、新しい関連データ(証拠)に照らし合わせて事後確率に更新する[5]。ベイジアン解釈では、この計算を行うための標準的な手順と式が用意されている。 ベイ

  • 有意 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "有意" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2013年5月) 統計学的有意(とうけいがくてきゆうい、英: statistical significance)は、確率論・統計学の用語で、「確率的に偶然とは考えにくく、意味があると考えられる」[1]ことを指す。科学分野での用語として、有意である(significant)とは「注目に値するほど大きい、ないしは重要である」という意味も持つ[2]。 P値[編集] 帰無仮説の下で実際にデータから計算された統計量よりも極端な(仮説に反する)統計量が観測される確率を、P値という。P値の利用に伴う

  • カルバック・ライブラー情報量 - Wikipedia

    カルバック・ライブラー情報量(カルバック・ライブラーじょうほうりょう、英: Kullback–Leibler divergence)は2つの確率分布の差異を計る尺度である。 確率論と情報理論で利用され様々な呼び名がある。以下はその一例である: カルバック・ライブラー・ダイバージェンス(KLダイバージェンス) 情報ダイバージェンス(英: information divergence) 情報利得(英: information gain) 相対エントロピー(英: relative entropy) カルバック・ライブラー距離 ただしこの計量は距離の公理を満たさないので、数学的な意味での距離ではない。 応用上は、「真の」確率分布 P とそれ以外の任意の確率分布 Q に対するカルバック・ライブラー情報量が計算される事が多い。たとえば P はデータ、観測値、正確に計算で求められた確率分布などを表し、Q

  • 多項分布 - Wikipedia

    多項分布(たこうぶんぷ、英: multinomial distribution)は、確率論において二項分布を一般化した確率分布である。 二項分布は、n 個の独立なベルヌーイ試行の「成功」の数の確率分布であり、各試行の「成功」確率は同じである。多項分布では、各試行の結果は固定の有限個(k 個)の値をとり、それぞれの値をとる確率は p1, …, pk(すなわち、i = 1, …, k について pi ≥ 0 であり、 が成り立つ)であり、n 回の独立した試行が行われる。確率変数 Xi は n 回の試行で i という数が出る回数を示す。X = (X1, …, Xk) は n と p をパラメータとする多項分布に従う。 確率質量関数[編集] 多項分布の確率質量関数は次の通りである。 ここで、x1, …, xk は負でない整数である。 属性[編集] 期待値は次の通り。 共分散行列は次の通りである。対

  • ロジスティック回帰 - Wikipedia

    ロジスティック回帰(ロジスティックかいき、英: Logistic regression)は、ベルヌーイ分布に従う変数の統計的回帰モデルの一種である。連結関数としてロジットを使用する一般化線形モデル (GLM) の一種でもある。1958年にデイヴィッド・コックス(英語版)が発表した[1]。確率の回帰であり、統計学の分類に主に使われる。医学や社会科学でもよく使われる[要出典]。 モデルは同じく1958年に発表された単純パーセプトロンと等価であるが、scikit-learnなどでは、パラメータを決める最適化問題で確率的勾配降下法を使用する物をパーセプトロンと呼び、座標降下法や準ニュートン法などを使用する物をロジスティック回帰と呼んでいる。 概要[編集] ロジスティック回帰モデルは以下のような形式である。x が入力で、pが確率(出力)、αとβがパラメータ。

    ロジスティック回帰 - Wikipedia
  • 最大エントロピー原理 - Wikipedia

    最大エントロピー原理(さいだいエントロピーげんり、英: principle of maximum entropy)は、認識確率分布を一意に定めるために利用可能な情報を分析する手法である。この原理を最初に提唱したのは Edwin Thompson Jaynes である。彼は1957年に統計力学のギブズ分布を持ち込んだ熱力学(最大エントロピー熱力学(英語版))を提唱した際に、この原理も提唱したものである。彼は、熱力学やエントロピーは、情報理論や推定の汎用ツールの応用例と見るべきだと示唆した。他のベイズ的手法と同様、最大エントロピー原理でも事前確率を明示的に利用する。これは古典的統計学における推定手法の代替である。 概要[編集] 今確率変数 X について、X が条件 I を満たす事だけが分かっており、それ以外に X に関して何1つ知らなかったとする。このとき、X が従う分布はどのようなものである

  • 最大事後確率 - Wikipedia

    最大事後確率(さいだいじごかくりつ、英: maximum a posteriori, MAP)推定は、統計学において、実測データに基づいて未知の量の点推定を行う手法である。ロナルド・フィッシャーの最尤推定 (MLE) に密接に関連するが、推定したい量の事前分布を利用して最適化問題を解き確率が最大の結果を得る。したがってMAP推定は、最尤推定に正則化をつけた物と見ることもできる。 概要[編集] の観測に基づいて、未知の母集団パラメータ を推定したいとする。 の標分布を とすると、母集団パラメータを としたときの の確率は となる。すると という関数は尤度関数であり、 は の最尤推定である。 ここで、 の事前分布を とする。すると、 をベイズ推定における確率変数として扱える。 の事後確率は次のようになる。 ここで は の密度関数、 は の定義域である。これはベイズの定理の直接的な応用である。

  • 分散共分散行列 - Wikipedia

    分散共分散行列(ぶんさんきょうぶんさんぎょうれつ、英: variance-covariance matrix)や共分散行列(きょうぶんさんぎょうれつ、英: covariance matrix)とは、統計学と確率論において、ベクトルの要素間の共分散の行列である。これは、スカラー値をとる確率変数における分散の概念を、多次元に拡張したものである。 定義[編集] 次のような列ベクトルを考える。 このベクトルの要素が各々分散が有限である確率変数であるとき、( i, j ) の要素が次のような行列 Σ を分散共分散行列という。 ただし、 は、ベクトル X の i 番目の要素の期待値である。すなわち、Σ は次のような行列である。 この行列の逆行列は は、逆共分散行列(英: inverse covariance matrix) または精度行列(英: precision matrix) と呼ばれる[1]。

  • シックス・シグマ - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "シックス・シグマ" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2009年10月) シックス・シグマ(Six Sigma, Lean Six Sigma)とは、1980年代に米モトローラが開発した品質マネジメント(英語版)手法、または経営手法である[1][2]。 その適用範囲は、主に製造業が中心であるが、製造業の製造部門に留まらず、営業部門、企画部門などの間接部門への適用、更にはサービス業などの非製造業への適用も多い。統計分析手法、品質管理手法を体系的に用いて製品製造工程などの各種プロセスの分析を行い、原因の特定やそれへの対策を行って、

    シックス・シグマ - Wikipedia
  • 相関係数 - Wikipedia

    散布図とその相関係数の一覧。相関は非線形性および直線関係の向きを反映するが(上段)、その関係の傾きや(中段)、非直線関係の多くの面も反映しない(下段)。中央の図の傾きは0であるが、この場合はYの分散が0であるため相関係数は定義されない。 相関係数(そうかんけいすう、英: correlation coefficient)とは、2つのデータまたは確率変数の間にある線形な関係の強弱を測る指標である[1][2]。相関係数は無次元量で、−1以上1以下の実数に値をとる。相関係数が正のとき確率変数には正の相関が、負のとき確率変数には負の相関があるという。また相関係数が0のとき確率変数は無相関であるという[3][4]。 たとえば、先進諸国の失業率と実質経済成長率は強い負の相関関係にあり、相関係数を求めれば−1に近い数字になる。 相関係数が ±1 に値をとることは、2つのデータ(確率変数)が線形の関係にある

    相関係数 - Wikipedia
  • 確率分布 - Wikipedia

    この場合の確率を全て表すには、全ての連続区間での確率を求めることになる。次の電話が a - b 時間後になる確率は次の式で表せる: 累積分布関数 FX を で定めれば、 のように、一変数関数で分布を表現できるので便利である。さらに、FX の導関数 fX は確率密度関数と呼ばれ、確率は積分を用いて と書ける。 通常、連続値をとる確率変数の分布は確率密度関数を用いて記述される。なぜなら、確率密度関数は初等関数で書けるが、累積分布関数は書けない場合が多いからである。 公理主義的な確率論においては、d次元ベクトル値確率変数の確率分布とは、その確率変数の引き起こす像測度のことである。この測度は d次元ユークリッド空間上の確率測度であり、ユークリッド空間の部分集合に対して、確率変数の値がその集合に入る確率を与える関数となる。 単に確率分布というときは、d次元ユークリッド空間などのよく使われる可測空間上

  • 最小二乗法 - Wikipedia

    最小二乗法(さいしょうにじょうほう、さいしょうじじょうほう;最小自乗法とも書く、英: least squares method)は、誤差を伴う測定値の処理において、その誤差の二乗の和を最小にするようにし、最も確からしい関係式を求める方法である。測定で得られた数値の組を、適当なモデルから想定される1次関数、対数曲線など特定の関数を用いて近似するときに、想定する関数が測定値に対してよい近似となるように、残差平方和を最小とするような係数を決定する方法[1][2][3]、あるいはそのような方法によって近似を行うことである[1][2][3]。 歴史[編集] 1805年にアドリアン=マリ・ルジャンドルが出版したのが初出である。しかし、1809年にカール・フリードリヒ・ガウスが出版した際に1795年には最小二乗法を考案済みだったと主張したことで、最小二乗法の発明者が誰であるかについては不明になっている。

    最小二乗法 - Wikipedia
  • 1