まずは復習。 分散とは「各データが平均値からどれだけ離れているか」という、データの散らばり具合を表す。 具体的には、分散は「(各データの平均値からの距離)の2乗の平均」。 分散は2乗であることに注意。単位をそろえるために、分散の平方根を取ったものが標準偏差。 標準偏差をσで表すと、分散はσ^2で表される。 式で表すと次のようになる。 ここで、次のようなベクトルを導入する。(なぜ? あとで値を複数持つデータに拡張するのに便利だから) すると、さきほどの分散の式は、次のような縦ベクトルと横ベクトルの積の形で書くことができる。 (’は転置を表す) これまでの話で、たとえば、数学のテストの点数がどれくら散らばっているか、ということを知ることができる。 ここで、英語のテストも行った場合、数学と英語の点数の関係を知りたい、という場合には、複数のデータ群を扱う必要がある。 例えば、生徒の「数学の点数」と
Padma Vibhushan (1968) Fellow of the Royal Society Weldon Memorial Prize プラサンタ・チャンドラ・マハラノビス(ベンガル語: প্রশান্ত চন্দ্র মহলানবিস, ラテン文字転写: Prasanta Chandra Mahalanobis、1893年6月29日 - 1972年6月28日)はインドの数理統計学者。 マハラノビス距離に代表される統計学理論を開拓したほか、インドにおける統計学の社会的応用を推進し、インド統計研究所[5]を設立した。ソ連科学アカデミー会員。 生涯[編集] カルカッタ(現コルカタ)出身。管区大学で物理学を学び1912年卒業、ケンブリッジ大学キングス・カレッジに留学した後、コルカタに帰った。当時カール・ピアソンらによって発展しつつあった数理統計学から強い影響を受け、帰国後は主として統計
確率変数 X1,X2X_1,X_2X1,X2 に対して,分散共分散行列(単に共分散行列とも言う)Σ\SigmaΣ を以下のように定めます: Σ=(σ12σ12σ12σ22)\Sigma=\begin{pmatrix}\sigma_{1}^2&\sigma_{12}\\\sigma_{12}&\sigma_{2}^2\end{pmatrix}Σ=(σ12σ12σ12σ22) ただし,σ12\sigma_{1}^2σ12 は X1X_1X1 の分散,σ22\sigma_{2}^2σ22 は X2X_2X2 の分散,σ12\sigma_{12}σ12 は X1X_1X1 と X2X_2X2 の共分散です(この記事では Cov(X1,X2)\mathrm{Cov}(X_1,X_2)Cov(X1,X2) という記号は使いません)。 対角成分には分散が並び,非対角成分
単回帰分析に対し重回帰分析では複数の独立変数がそれぞれ線形的(一次的)に従属(結果)変数の値に関与しているとして測定値に対しフィット(fit;データに対して提案モデルのパラメータを線形回帰により調整させること)を行おうとするものである.その式は以下のように与えられる. 関与する独立変数の数.それにともなってパラメータ数(p)が増えてはいるが、 それ以外は単回帰分析とR上での技術的な差異はないとかんがえられる.しかし重回帰ならではの解析上の問題もあるのでそれらについても探っていこう.なおpをパラメータ(回帰変数の数)として以後m=p+1で空間次元数を意味させることにする.nはデータ数とする. ↑ 重回帰 † 従属(結果)変数と重回帰分析に参加させる独立(説明)変数からformulaをつくり、関数lmを呼び出す.通常結果も説明変数もすべて同じデータフレームに所属しているとする.そのほうが解析し
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く