タグ

ブックマーク / yattemiyou.net (2)

  • ICA(独立成分分析)が面白い。

    「詳解 独立成分分析」というが大変面白い。 学問の面白さのひとつは様々な分野を結びつけること、ある対象にまったく違った角度から光を当てるところにあると思うのだが、その点ICAは実に多様な分野と関係していて興味深い。 の構成も良い。「導入」の章で要点をがつんと述べているのがうまい。「数学的準備」が全体の半分くらいあるのだが、これも分かりやすくまとめられている。準備といってもICAとの関わりが所々述べられているので、読み応えがある。 このを読んだせいで、「相関がある」という表現を安易に使えなくなった。日常会話ではあまり深く考えず「相関がある」「相関がない」と言ってしまうが、実は統計学では「相関」は明確に定義されている。二つの確率変数の間の共分散をそれぞれの標準偏差の積で割った値σ_{xy}/σ_{x}σ_{y}である。 つまり相関はあくまで二次の統計量であって、確率変数の間にはそれより高

  • 最大エントロピー法、主観主義統計力学

    院生のK藤くんが実験データを得られなかった領域に確率をどのように割り当てたらいいのかと聞いてきたため、最大エントロピー法というのを使えばいいのだと考えていろいろ調べていたのだが、そこから統計力学と情報理論の間をつなぐ文献をいくつか見つけて興味深かった。 最大エントロピー法というのは拘束条件が少ないため確率を一意に決定できない場合、全体のエントロピーが最大になるように割り当てを行えばよいという考え方。たとえば事象A,B,Cがあり、Aの起きる確率が1/2ということは分かっているが、残りの二つの起きる確率は分からない場合、BとCに1/4ずつの確率を割り当てるのが直感的にもっともらしいように感じられるが、これは実際エントロピーを最大化する割り当てになる。エントロピーは不確かさの指標であるので、与えられた情報が少ない時は余計な仮説を立てず、もっとも曖昧な推測をしておこうということ。等確率の原理と似て

  • 1