タグ

関連タグで絞り込む (1279)

タグの絞り込みを解除

statisticsに関するnabinnoのブックマーク (1,088)

  • 自己回帰モデル - Wikipedia

    自己回帰モデル(じこかいきモデル、英: autoregressive model)は時点 t におけるモデル出力が時点 t 以前のモデル出力に依存する確率過程である。ARモデルとも呼ばれる。 自己回帰モデルは、例えば自然科学や経済学において、時間について変動する過程を描写している。(古典的な)自己回帰モデルは実現値となる変数がその変数の過去の値と確率項(確率、つまりその値を完全には予測できない項)に線形に依存している。ゆえに自己回帰モデルは一種の確率差分方程式の形状を取る。 自己回帰モデルはより一般的な時系列の自己回帰移動平均モデル(ARMAモデル)の特別なケースである。また、一つ以上の確率差分方程式からなるベクトル自己回帰モデル(英語版)(VARモデル)の特別ケースでもある。推計統計学・機械学習における生成モデルとしても自己回帰モデルは表現でき、古典的な(線形)自己回帰生成モデルを拡張し

    自己回帰モデル - Wikipedia
  • 移動平均 - Wikipedia

    移動平均(いどうへいきん)は、時系列データ(より一般的には時系列に限らず系列データ)を平滑化する手法である[1]。音声や画像等のデジタル信号処理に留まらず、金融(特にテクニカル分析)分野、気象、水象を含む計測分野等、広い技術分野で使われる。有限インパルス応答に対するローパスフィルタ(デジタルフィルタ)の一種であり、分野によっては移動積分とも呼ばれる。 主要なものは、単純移動平均と加重移動平均と指数移動平均の3種類である。普通、移動平均といえば、単純移動平均のことをいう。 単純移動平均 (英: Simple Moving Average; SMA) は、直近の n 個のデータの重み付けのない単純な平均である。例えば、10日間の終値の単純移動平均とは、直近の10日間の終値の平均である。それら終値を , , ..., とすると、単純移動平均 SMA(p,10) を求める式は次のようになる: 翌日

    移動平均 - Wikipedia
  • 自己回帰移動平均モデル - Wikipedia

    自己回帰移動平均モデル(じこかいきいどうへいきんモデル、英: autoregressive moving average model、ARMAモデル)は自己回帰モデルによる線形フィードバックと移動平均モデルによる線形フィードフォワードによりシステムを表現するモデルである[1]。George Box と G. M. Jenkins の名をとって "ボックス・ジェンキンスモデル" とも呼ばれる。 ARMAモデルは時系列データの将来値を予測するツールとして機能する。 定義[編集] 次の自己回帰 (AR) および 次の移動平均 (MA) からなる自己回帰移動平均モデル は以下のように定義される[2]。 ここで は定数、 は自己回帰パラメータ、 は移動平均パラメータ ()、 は時刻 におけるホワイトノイズである。 すなわちARMAモデルでは、各時刻でサンプリングされたホワイトノイズが過去時刻 まで重

  • 季節調整 - Wikipedia

    傾向変動 一方向的な方向を持続する変化であり、周期が15年以上の長期的な波動(波状の上下変動)を含む。 循環変動 周期が通常3~15年であって周期の確定していない波動だが、もっと短期間の景気の好・不況も含む。傾向変動と循環変動とがひとまとめにされることもしばしばある。キチンの波やジュグラーの波などが有名。詳細は景気循環を参照。 季節変動 1年を周期とする定期的な波動。季節調整において取り除く対象となる波動である。 不規則変動 上記三つの変動の残差と考えられ、不規則、攪乱要素で起きる変動。典型例として、消費税率の更新前の駆け込み需要が挙げられる。 変動要因の合成[編集] 4つの変動要素を組み合わせて元の時系列データ(原系列)の動きを説明する。このとき、組み合わせる方式として、加法モデルと乗法モデルとが考えられている。 モデル名 概要 計算式 経済統計データの季節調整には、乗法モデルの方が適し

  • 定常過程 - Wikipedia

    定常過程(ていじょうかてい、英: stationary process)とは、時間や位置によって確率分布が変化しない確率過程を指す。このため、平均や分散も(もしあれば)時間や位置によって変化しない。 例えば、ホワイトノイズは定常的である。しかし、シンバルを鳴らしたときの音は定常的ではなく、時間と共に音が弱まっていく。 定常性(Stationarity)は時系列の解析でも重要であり、時系列データを定常的なものに変換することがよく行われる。例えば、経済的データは季節による変動があったり、価格レベルに依存する。ある定常過程と1つ以上の過程に傾向(トレンド)が認められるとき、これら過程を「傾向定常的; trend stationary」であるという。このようなデータから定常的成分だけを抜き出して分析することを「傾向除去; de-trending」と呼ぶ。 離散時間の定常過程で、標値も離散的(とり

  • statsmodels.tsa.stattools.adfuller - statsmodels 0.14.1

  • 拡張ディッキー–フラー検定 - Wikipedia

    拡張ディッキー–フラー検定(かくちょうディッキー–フラーけんてい、ADF検定、英: augmented Dickey–Fuller test, ADF test)とは、統計学と計量経済学において、時系列標が単位根を持つかどうかの仮説検定である。これは大きくより複雑な時系列モデルに対するディッキー–フラー検定の拡張版となっている。検定で用いられる拡張ディッキー–フラー検定統計量は負の値を取る。より大きな負の値を取れば取るほど、ある有意水準の下で単位根が存在するという仮説を棄却する可能性が強くなる[1]。 検定の手続き[編集] ADF検定の手続きはディッキー–フラー検定と同じだが、以下のようなモデルに適用される。 ここで は定数であり、 は時間トレンドの係数、 は自己回帰過程のラグ次数である。制約 と を課すことはランダムウォークモデルを仮定する事に対応し、制約 のみを課すことはドリフト付き

  • ランダムウォーク - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "ランダムウォーク" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2011年5月) 2次元ランダムウォークの軌跡。 ランダムウォーク(英: random walk)は、次に現れる位置が確率的に無作為(ランダム)に決定される運動である。日語の別名は酔歩(すいほ)、乱歩(らんぽ)である。グラフなどで視覚的に測定することで観測可能な現象で、このとき運動の様子は一見して不規則なものになる。 ブラウン運動と共に、統計力学、量子力学、数理ファイナンス[1][2]等の具体的モデル化に盛んに応用される。 数学的定義[編集] () を独立かつ同分布な 値

    ランダムウォーク - Wikipedia
  • 加算性白色ガウス雑音 - Wikipedia

    この項目「加算性白色ガウス雑音」は翻訳されたばかりのものです。不自然あるいは曖昧な表現などが含まれる可能性があり、このままでは読みづらいかもしれません。(原文:英語版 "Additive white Gaussian noise" 08:28, 17 Sep 2017 (UTC)) 修正、加筆に協力し、現在の表現をより自然な表現にして下さる方を求めています。ノートページや履歴も参照してください。(2017年12月) 加算性白色ガウス雑音 (かさんせいはくしょくがうすざつおん、Additive white Gaussian noise、AWGN) は自然界で発生する多数のランダム過程の効果を模倣する目的で、情報理論で用いられる基的ノイズモデル。その修飾語は固有の特性を表している。 加算性(additive) とは対象システムに質的に備わっているであろう雑音に加算されることを意味する。 白

  • ホワイトノイズ - Wikipedia

    ホワイトノイズに近似させ生成したノイズのパワースペクトラム ホワイトノイズの例 ホワイトノイズ (White noise)[注釈 1]とは、ノイズの分類で、パワースペクトルにおいて広い範囲[注釈 2]で同程度の強度となっているノイズを指す。「ホワイト」とは、可視領域の広い範囲をまんべんなく含んだ光が白色であることから来ている形容である[注釈 3]。派生語のようなものにピンクノイズがあり、周波数成分が右下がりの光がピンク色であることによる。よく聞くノイズの例で擬音語で表現するなら、「ザー」という音に聞こえる雑音がピンクノイズで、「シャー」と聞こえる音がホワイトノイズである。 特徴[編集] ホワイトノイズは全ての周波数で同じ強度となるノイズである。これはWiener-Khintchineの定理から、自己相関関数がデルタ関数となることと同じである。統計学の言葉で言うと、定常独立であることを意味し

    ホワイトノイズ - Wikipedia
  • 自己相関 - Wikipedia

    自己相関(じこそうかん、英: autocorrelation)とは、信号処理において時間領域信号等の関数または数列を解析するためにしばしば用いられる数学的道具である。大雑把に言うと、自己相関とは、信号がそれ自身を時間シフトした信号とどれくらい一致するかを測る尺度であり、時間シフトの大きさの関数として表される。より正確に述べると、自己相関とは、ある信号のそれ自身との相互相関である。自己相関は、信号に含まれる繰り返しパターンを探すのに有用であり、例えば、ノイズに埋もれた周期的信号の存在を判定したり、 信号中の失われた基周波数を倍音周波数による示唆に基づき同定するために用いられる。 定義[編集] 自己相関は、学問領域によって定義が異なる。分野によっては自己共分散 (autocovariance) と同じ意味に使われる。 統計学[編集] 統計学において、確率過程の自己相関関数 (autocorr

  • 対照実験 - Wikipedia

    この記事は検証可能な参考文献や出典が全く示されていないか、不十分です。出典を追加して記事の信頼性向上にご協力ください。(このテンプレートの使い方) 出典検索?: "対照実験" – ニュース · 書籍 · スカラー · CiNii · J-STAGE · NDL · dlib.jp · ジャパンサーチ · TWL(2021年12月) 対照実験(たいしょうじっけん、英: control experiment)とは、科学研究において、結果を検証するための比較対象を設定した実験。コントロール実験とも呼ばれる。条件の差による結果の差から、実験区の結果を推し量る基準となり、実験の基礎となる。1つの条件のみ変更し他条件は一致させるようにする。 方法[編集] 薬の臨床試験であれば、効果のない偽薬と、新たに開発した薬剤とを投与する2つの実験群をおくが、偽薬を与えられた方が対照実験となる。対照実験の対象となる

  • GitHub - osl-pocs/skdata: Python tools for data analysis

  • https://keras.io/losses/

  • Understanding Categorical Cross-Entropy Loss, Binary Cross-Entropy Loss, Softmax Loss, Logistic Loss, Focal Loss and all those confusing names

    Understanding Categorical Cross-Entropy Loss, Binary Cross-Entropy Loss, Softmax Loss, Logistic Loss, Focal Loss and all those confusing names May 23, 2018 People like to use cool names which are often confusing. When I started playing with CNN beyond single label classification, I got confused with the different names and formulations people write in their papers, and even with the loss layer nam

  • Loss Functions — ML Glossary documentation

    Basics Linear Regression Introduction Simple regression Making predictions Cost function Gradient descent Training Model evaluation Summary Multivariable regression Growing complexity Normalization Making predictions Initialize weights Cost function Gradient descent Simplifying with matrices Bias term Model evaluation Gradient Descent Introduction Learning rate Cost function Step-by-step Logistic

  • 交差エントロピー - Wikipedia

    情報理論において、交差エントロピー(こうさエントロピー)またはクロスエントロピー(英: cross entropy)は、2つの確率分布の間に定義される尺度である。符号化方式が、真の確率分布 ではなく、ある所定の確率分布 に基づいている場合に、とりうる複数の事象の中からひとつの事象を特定するために必要となるビット数の平均値を表す。 同じ確率空間における2つの分布 と において、 の に対する交差エントロピーは、次のように定義される。 ここで、 は のエントロピー、 は から のカルバック・ライブラー情報量(相対エントロピー)である。 と が離散確率変数なら、これは次のようになる。 連続確率変数なら、同様に次のようになる。 なお、 という記法は交差エントロピーだけでなく、結合エントロピーにも使われるので、注意が必要である。

  • Data binning - Wikipedia

    Data binning, also called data discrete binning or data bucketing, is a data pre-processing technique used to reduce the effects of minor observation errors. The original data values which fall into a given small interval, a bin, are replaced by a value representative of that interval, often a central value (mean or median).[citation needed] It is related to quantization: data binning operates on

  • P値 | 統計用語集 | 統計WEB

    P値 P-value 統計的仮説検定において、帰無仮説の元で検定統計量がその値となる確率のこと。P値が小さいほど、検定統計量がその値となることはあまり起こりえないことを意味する。 一般的にP値が5%または1%以下の場合に帰無仮説を偽として棄却し、対立仮説を採択する。 ア行カ行サ行タ行ナ行ハ行マ行ヤ行ラ行ワ行英字記号 Excel:このマークは、Excel に用意された関数により計算できることを示しています。 エクセル統計:このマークは、エクセル統計2012以降に解析手法が搭載されていることを示しています。括弧()内の数字は搭載した年を示しています。 秀吉:このマークは、秀吉Dplusに解析手法が搭載されていることを示しています。 ※「エクセル統計」、「秀吉Dplus」は株式会社会社情報サービスのソフトウェア製品です。

  • p-value - Wikipedia

    In null-hypothesis significance testing, the -value[note 1] is the probability of obtaining test results at least as extreme as the result actually observed, under the assumption that the null hypothesis is correct.[2][3] A very small p-value means that such an extreme observed outcome would be very unlikely under the null hypothesis. Even though reporting p-values of statistical tests is common p

    p-value - Wikipedia