タグ

ニューラルネットに関するyuisekiのブックマーク (14)

  • ニューラルネットワーク

    トップページ→研究分野と周辺→ 基的構造 ニューラルネットワーク(Nueral Network:人工神経回路)は、生物の神経細胞ネットワークの挙動を模倣する工学モデル。図の円(ノード)は或る細胞、矢印は刺激の伝播を表す。或る細胞(A)は複数の細胞(X1~Xn)から刺激を受ける。ここでX1~Xnは細胞の名であると同時に其々の細胞が出力する刺激の程度も示す。Aと他の各細胞には結合の強さ(両方の細胞の親密度に該当。或る細胞の出力刺激の、別の或る細胞への伝わり易さ)を示すW1~Wnの結合係数が在る。Aに入力される刺激の総量はW1×X1+W2×X2+・・・Wn×Xnという総和になる。Wは負数の場合もあり、負数のWで結合している細胞が興奮(出力)すると、逆にAへの入力は減る事になる。 Aに入力された刺激の総量から或る値(θ)を引いたものが、Aの内部状態In(A)となり、これを或る関数(出力関数)に通

  • Rでニューラルネットワーク(1変数の関数近似) - 遥かへのスピードランナー

    機械学習・パターン認識方面の勉強初めてから4ヶ月ほど立ちました。最近はnaoya_tさん主催のPRML読書会に参加させて頂いています。 来週末8/29の第6回読書会ではニューラルネットワークの章の発表を担当することになったので、Rを使ってサンプルプログラムを組んでみました。参考にしたのはPRML5.1〜5.3の範囲で、sin関数からサンプリングした点データをニューラルネットワークを使って誤差逆伝播法で学習し、元のsin関数を近似します。 学習前の初期状態が以下の図。赤字が元の関数(線)およびサンプルデータ(点)で青字がニューラルネットワークの出力です。 で、学習後の状態が以下です。 いい感じに再現できています。 以下ソースコード。 library(animation) #number of training data N <- 50 #number of hidden unit s <-

    Rでニューラルネットワーク(1変数の関数近似) - 遥かへのスピードランナー
  • PyBrain - a modular Machine Learning Library for Python

    今、python界でPyBrainが熱い!…わけじゃないですけど、個人的にけっこう注目しているライブラリ。機械学習ライブラリにおける、期待の新人が出てきなような気持ちです。 0.PyBrainとは?PyBrainっていうのはPythonによって動く、モジュール式の機械学習ライブラリです。python界ではいままでにもニューラルネットワークとかSVMなどを扱うライブラリが存在していましたが、PyBrainではそれらをより包括的に扱う、一種の環境としての機械学習ライブラリを目指しているようです。 PyBrainが優れているのはその思想もさることながら、扱っているアルゴリズムの多さにもあります。例えばFeaturesの欄を見てみると、 BackpropRpropPolicy GradientsSupport Vector MachinesEvolution StrategiesCMA-ESCom

    PyBrain - a modular Machine Learning Library for Python
  • Amazon.co.jp: マッチ箱の脳(AI)―使える人工知能のお話: 森川幸人: 本

    Amazon.co.jp: マッチ箱の脳(AI)―使える人工知能のお話: 森川幸人: 本
  • Rubyで簡単なAI(人工知能)を実装してみた(ニューラルネットワーク) - このブログは証明できない。

    Rubyで簡単なAI人工知能)を実装してみた(遺伝的アルゴリズム)」では、「遺伝的アルゴリズム」を実装しました。今回は「ニューラルネットワーク」です。参考書は前回に引き続き「「マッチ箱の脳(AI)―使える人工知能のお話」」です。 プログラムの目的は、3つのお菓子の組み合わせが、決められた金額以下かどうかを判断します。下の方の破線以降がUI部分になります。ここを修正するとイイカンジだと思います。あと、Patternsが決め打ちなので、この辺を改造するとよりイイカンジだと思います。 注意。 使っている英単語おかしくて、アレかもしれません。 Rubyのコーディングルールに則っていなくて、アレかもしれません。 あまりスマートでないコードもあって、アレかもしれません。 class Unit def initialize(count=3) @cells = [] (count + 1).times

    Rubyで簡単なAI(人工知能)を実装してみた(ニューラルネットワーク) - このブログは証明できない。
  • SVMとニューラルネットワーク(BP) - モーグルとカバとパウダーの日記

    最近のスパム判定には、SVM(Support Vector Machine)というパターン識別手法が使われている物があります。 最初SVMのことを知らなくて、ぐぐってみた中で、自分にはここの説明が、一番特徴がわかりやすかったです。 SVMを使うとなにが嬉しいの? これを読んで、ニューラルネットワークとSVMを比較したとき、SVMは要素間の境界線距離を最大化するように学習する、というのがウリだと思いました。それだけ(たぶん)般化能力が高くなると。 自分が大学にいたとき、少しニューラルネットワークのこともやったことがあります。 そのとき、入力にノイズを混入させて学習させたほうが、学習の般化能力が高くなるようだ、というのがあり、実際に実験するときに試して良い結果が出ていました。 このSVMのモデルを見たとき、例えばニューラルネットワーク(バックプロパゲーション)で、正規分布したノイズを入力に混入

    SVMとニューラルネットワーク(BP) - モーグルとカバとパウダーの日記
  • バックプロパゲーション - Wikipedia

    バックプロパゲーション(英: Backpropagation)または誤差逆伝播法(ごさぎゃくでんぱほう)[1]はニューラルネットワークの学習アルゴリズムである[2]。 概要[編集] バックプロパゲーションは数理モデルであるニューラルネットワークの重みを層の数に関わらず更新できる(学習できる)アルゴリズムである。ディープラーニングの主な学習手法として利用される。 そのアルゴリズムは次の通りである: ニューラルネットワークに学習のためのサンプルを与える。 ネットワークの出力を求め、出力層における誤差を求める。その誤差を用い、各出力ニューロンについて誤差を計算する。 個々のニューロンの期待される出力値と倍率 (scaling factor)、要求された出力と実際の出力の差を計算する。これを局所誤差と言う。 各ニューロンの重みを局所誤差が小さくなるよう調整する。 より大きな重みで接続された前段のニ

    バックプロパゲーション - Wikipedia
  • ZARU NUERO

  • パターン認識とニューラルネットワーク

    次へ: パターン認識とは パターン認識とニューラルネットワーク 栗田多喜夫 脳神経情報研究部門 産業技術総合研究所 E-mail: takio-kurita@aist.go.jp パターン認識とは ベイズ決定理論 ベイズ決定方式 正規分布の場合 確率密度分布の推定 パラメトリックモデル 最尤法 ベイズ推定 ノンパラメトリックな方法 ノンパラメトリックな確率密度関数の推定 核関数に基づく方法 K-NN法 セミパラメトリックな手法 混合分布モデル(Mixture Model) 最尤法 EM アルゴリスム 階層型ニューラルネット 多層パーセプトロン 単純パーセプトロン 単純パーセプトロンの学習 多層パーセプトロン 誤差逆伝搬学習法 最尤推定としての定式化 多層パーセプトロンと非線形回帰 汎化性 情報量基準による汎化能力の評価 VC次元 Optimal Brain Surgeon Weight D

  • ニューラルネット入門

    次へ: はじめに ニューラルネット入門 栗田多喜夫 脳神経情報研究部門 産業技術総合研究所 E-mail: takio-kurita@aist.go.jp はじめに 最急降下法 最小2乗法 パーセプトロン ADALINE ロジスティック回帰モデル 最尤法 多層パーセプトロン 誤差逆伝搬学習法 この文書について... 平成14年7月19日

  • 自己組織化マップ

    SOMはニューラルネットワークの一種で 与えられた入力情報の類似度をマップ上での距離で表現するモデルです. 技術が発達した現代では複雑な情報が数多く存在します. しかしそのような高次元データを人間が瞬時に理解することは困難です. SOMは高次元データの中に存在する傾向や相関関係の発見などに応用することができ 人間が高次元データを視覚的に理解する手助けを行ってくれます. SOMの特徴を一言であげるとすれば 様々な高次元データを予備知識なし(教師なし)にクラスタリングできる点にあります. またこれが自己組織化といわれる所以です. SOMは主にデータマイニングの1手法として応用され, データの分類,視覚化,要約などを得意としています. 現在ではプロセス解析,制御,検索システム,さらには経営のための情報分析など 実社会において重要な分野へ応用されています. SOMは規則的

  • pybrainでニューラルネットワーク入門 - mizchi log

    勉強しつつ書いてみる。微妙な知識で書いてるので、おそらく間違ったことをたくさん書いてる。 まあせめて初学者らしく、初学者に通じるように平易な言葉で! やりたいこと 関数(モデル)に乱数を与えて生成した訓練データから、元の関数の振る舞いを模倣(近似)できるようにする。 pybrain Pythonで扱えるニューラルネットワークのライブラリ、だそうで。 ギッハブからインスコ $ git clone git://github.com/pybrain/pybrain.git $ cd pybrain $(sudo) python setup.py install参考: 映像奮闘記: PyBrain - a modular Machine Learning Library for Python 概要 バックプロパゲーション(誤差伝搬法) 入力層 - 隠れ層 - 出力層の三層からなり、入力層のノードは

    pybrainでニューラルネットワーク入門 - mizchi log
  • ニューラルネットワーク入門 〜目次〜

    ニューラルネットワーク入門 Copyright(c)1996 Akira Iwata & Toshiyuki Matubara (Iwata Laboratory Nagoya Institute of Technolgy) 0 はじめに 学習の進め方 1 神経細胞とニューラルネットワーク 神経細胞 ニューロンモデル ニューロンモデルの数式化 ネットワークモデル まとめ 2 階層型ネットワーク 2.1 パーセプトロン パーセプトロン パーセプトロンの動作と学習 パーセプトロン学習のシミュレーション パーセプトロンの限界 まとめ 2.2 バックプロパゲーション学習 最急降下法 前向き演算 後向き演算1(出力層から中間層) 後向き演算2(中間層から入力層) BPのシミュレーション BPシミュレータ まとめ 2.3 その他の階層型ネットワーク ネオ

  • ほぼ日刊イトイ新聞 -マッチ箱の脳(WEB)篇

    「マッチ箱の脳」という森川くんが書いたは、 その世界で、かなりの評判を呼んでいます。 まだ、売り出されてまもないこのを、 森川君、WEB用に再編集して、 「ほぼ日」に連載してくれることになりました。 なんとふとっぱらで、骨惜しみしない男なのでしょう?! ◆気前がいいだけじゃ生きられない。 ただのケチでは生きている資格がない。 謹んで、感謝の意をこめて、上記のことばを 森川くんにささげさせていただきます。

  • 1