タグ

PRMLに関するstick23rdのブックマーク (9)

  • 機械の代わりに人間が学習入門

    7. 年表で見る機械学習 1946 モンテカルロ法 PRML 1958 カルマン・フィルター PRML 1960s 隠れマルコフモデル PRML -1961 ニューラルネットワーク PRML 1977 EM アルゴリズム PRML 1982 SOM (自己組織マップ) PRML 1984 CART (決定木の一手法) PRML 1994 ICA (独立成分分析) PRML 1995 サポートベクトルマシン PRML Mahout 1995 粒子フィルタ PRML 2000 FP-Growth Mahout 2001 アイテムベース協調フィルタリング Mahout 2001 Random Forest Mahout 2003 LDA (Latent Dirichlet Allocation) Mahout • フルサイズの年表は http://d.hatena.ne.jp/n_shuyo/2

    機械の代わりに人間が学習入門
    stick23rd
    stick23rd 2011/01/18
    機械学習の勉強するときに最初に読む資料
  • Wekaで「ロジステッィク回帰分析」する - ウィリアムのいたずらの、まちあるき、たべあるき

    ウィリアムのいたずらが、街歩き、べ物、音楽等の個人的見解を主に書くブログです(たま~にコンピューター関係も) Wekaでロジスティック分析して、予測を行う際のメモ。 ロジスティック回帰をつかうと、たとえば、いくつかの変数があって、今日は、かさを持っていくべき?いかないべき?なんていう予測もできちゃう。「いくつかの変数」は名義尺度(晴れ、くもり、雨)もOK。 (めちゃおーざっぱな説明。統計やっている人に怒られそうだ) なお、これは、手法を書いているだけで、結果は、気にするな。 ■1.データを作成 今回は、できあいのデータを利用しましょう。以下のサイト データマイニングツールボックス "Weka" の使い方 http://web.sfc.keio.ac.jp/~soh/dm03/man_w_03.html の「2.2 入力ファイルを作る」の ------ ここから -------------

    Wekaで「ロジステッィク回帰分析」する - ウィリアムのいたずらの、まちあるき、たべあるき
    stick23rd
    stick23rd 2010/11/17
    ロジスティック回帰
  • 統計備忘録 | ブログ | 統計WEB

    ※コラム「統計備忘録」の記事一覧はこちら※ ジーニアス英和大辞典によると sample の語源は、中世にイングランドを征服したノルマン人が使っていたアングロノルマン語の assample (見 = example)。のちに、頭の as が消えて sample になったそうです。さらに遡ると、ラテン語の exemplum に行き着きます。example の原義は、「ex(外へ)+ample(広... ※コラム「統計備忘録」の記事一覧はこちら※ Excelのヘルプから標準偏差を計算する関数を調べると、6つもの関数が見つかります。 STDEV、DSTDEV、STDEVA、 STDEVP、DSTDEVP、STDEVPA 頭にDが付く2つの関数はデータベース関数、末尾にAが付くのは文字列や論理値を含むデータを計算するための関数です。したがって、この6つの関数はSTDEV系とSTDEVP... ※コ

    stick23rd
    stick23rd 2010/11/17
    ロジスティック回帰
  • 生態学データ解析 - ベイズ統計 & MCMC

    ここはベイズ推定と MCMC 法 (Markov Chain Monte Carlo method; マルコフ連鎖モンテカルロ法) 関連についてのペイジです 特に階層ベイズモデルについて [もくじ] ネット上の Bayes 推定・MCMC 計算の解説 「ベイズ推定を MCMC 計算で」なソフトウェアたち ベイズ推定と R ベイズファクターなど 書籍 べいじあんな生態学研究者 Ben Bolker Ottar N. Bjørnstad James S. Clark Kiona Ogle John Silader Christopher K. Wikle ネット上の Bayes 推定・MCMC 計算の解説 講義とか:統計学授業 や 出張統計学授業 解説記事: 岩波DS01 2016 階層ベイズモデルの解説記事 信学会誌ベイズ解説: 電子情報通信学会誌に書いた階層ベイズ解説 (2009 年 10

  • PRMLの1~5章をとても荒めに理解した

  • PRML輪講4章前半 - 丹治の日記

  • PRML読書会 #5 資料「線形識別モデル(1)」 - 木曜不足

    これは パターン認識と機械学習(PRML)読書会 #5 (4章 線形識別モデル) での発表用の資料「4.1 識別関数」〜「4.1.2 多クラス」です。 まとめメインで、細かい説明/計算やサンプルは板書する予定。 【更新】読書会での指摘を反映。 PRML 4章 線形識別モデル 2クラス分類 [4.1.1] 多クラス分類 [4.1.2] 最小二乗による学習 [4.1.3] フィッシャーの線形判別による学習 [4.1.4-6] パーセプトロン・アルゴリズムによる学習 [4.1.7] おまけ 分類問題 入力ベクトル を K 個の離散クラス の1つに割り当てる 入力空間は決定領域 ( decision region ) に分離される 決定面 ( decision surface ):決定領域の境界 線形識別モデル 決定面が superplane 線形モデル 入力ベクトル の線形関数(★*1線形方程式

    PRML読書会 #5 資料「線形識別モデル(1)」 - 木曜不足
  • 4.2 確率的生成モデル - yasuhisa's blog

    ゼミで発表したので、まとめておきます。自分用メモ。 まず、ベイズの定理を使って、クラスの事後分布を計算する。直接事後分布をモデル化しにいく識別モデルとは違い、内部では(クラスとデータの)同時分布を計算しているのが生成モデル。この計算をしていくと自然な形でロジステックシグモイド関数が出てくる。2クラス以上の場合を考えるとソフトマックス関数を導出することができる。 4.2.1 連続値入力 生成モデルでは、入力がどのように分布しているかをモデリングしていく。連続値入力の場合を考えて、それぞれのクラスの確率密度は多次元ガウス分布であると仮定してみる。ここで一つ重要な仮定をする。それは全てのクラスにおいて同じ分散共分散行列が共有されている、という仮定だ。ここが一般化線形モデルになるかどうかの鍵を握っているところになる。この仮定を置くと、クラスに対する事後確率がで書き表わされる。と書け、これはパラメー

  • サービス終了のお知らせ

    サービス終了のお知らせ いつもYahoo! JAPANのサービスをご利用いただき誠にありがとうございます。 お客様がアクセスされたサービスは日までにサービスを終了いたしました。 今後ともYahoo! JAPANのサービスをご愛顧くださいますよう、よろしくお願いいたします。

    stick23rd
    stick23rd 2008/04/11
    Classifierの特徴について
  • 1