タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

perceptronに関するrin1024のブックマーク (4)

  • Perceptron - [物理のかぎしっぽ]

    の学習モデル † 最近傍決定則やk-最近傍決定則 によりパターンを識別する事ができるようになりました. これらの方法は大変シンプルな考え方でありながら,サンプルが充実していれば かなりの精度で識別が可能だと考えられます.しかし問題点として, サンプル全てを保持しておかなければならない事,次元数が増え,サンプル数が増えると 計算量が膨大になる事が挙げられます. ここで最近傍決定則のように,パターンに最も距離の近いクラスタを選ぶという作業は 見方を変えると,異なるクラスタのサンプル間において, 垂直二等分線を考え,領域を分けるという事になります. ということは,この境界線を知ることができれば, サンプルのデータは不要と考えることができ,Perceptronはこの境界線を 学習によって得ることができます.ただし,Perceptronは上の図のような垂直二等分線を得る訳ではなく, 学習であたえ

  • 大規模データを基にした 自然言語

    大規模データを基にした 自然言語叀 2009/3/13 SIGFPAI @学習院大 自然言語叀 岡野原大輔 東京大学情報 工学 研 科 コンピュータ科学専攻 辻井研 hillbig@is.s.u-tokyo.ac.jp 背景 • 匏用可能な言語資源の急 な拡大 – ブログ, 掲示板, 商品情報, レビュー – Wikipedia, Google N-gram Corpus ( 1010 語) – 従来の言語資源 Penn treebank ( 106語)– 従来の言語資源 Penn treebank ( 10 語) • より多くのデータ⇒ も向上 – 統計的機械翻訳 [Brants+, EMNLP 07] • 言語資源の の対数で翻訳 は線形に上昇 – 博卝 有学習による ラベリング [Suzuki+, ACL 09] – 単語の類似 計算 [柴田+, NLP 09] 発表の概要 • 大

    rin1024
    rin1024 2009/06/24
    最適化問題について。FOLOSやPerceptronの解説。
  • AI::Perceptron

    rin1024
    rin1024 2009/06/05
    作ろうと思ったら既にあった罠
  • Perceptron を手で計算して理解してみる (nakatani @ cybozu labs)

    Perceptron の実装とか見ると、ものすごく簡単なので、当にこれで学習できちゃうの? と不安になってしまいました(苦笑)。 こういうときは、実際にパーセプトロンが計算しているとおりに、紙と鉛筆で計算してみて、期待する結果が出てくることを確認してみたくなります。 参照する教科書は「パターン認識と機械学習・上」(PRML) の「 4.1.7 パーセプトロンアルゴリズム」。 短い節です。必要最低限のことを一通り書いてある感じかな。 計算に用いるサンプルですが、手で計算できる規模でないといけないので、論理演算の AND を試してみることにします。 簡単に勉強 ちゃんとした説明は PRML などを見て欲しいですが、とても簡単にまとめます。 2値の線形識別モデルは、N 次元空間内を (N-1) 次元の超平面(決定面)で分割することで、入力ベクトル x から得られる特徴ベクトル φ(x) が2つ

  • 1