タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

neural_networkとRに関するmroriiのブックマーク (7)

  • Tokyo R 2 Machine Learning

    Tokyo R 2 Machine Learning - Presentation Transcript Rで機械学習のパッケージを試す ニューラルネットワーク 2010/02/24 @nokuno #tokyoR 目次 2  はじめに  ニューラルネットワーク  SVM  まとめ 機械学習とは 3  機械学習(きかいがくしゅう、Machine learning)とは 、人工知能における研究課題の一つで、人間が自 然に行っている学習能力と同様の機能をコンピュー タで実現させるための技術・手法のことである。  機械学習は検索エンジン、医療診断、スパムメール の検出、金融市場の予測、DNA配列の分類、音声 認識や文字認識などのパターン認識、ゲーム戦略、 ロボット、など幅広い分野で用いられている。 Wikipediaより 基的な流れ 4  今回扱う教師あり学習の流れ 1. 学習デ

  • Rでニューラルネットワークをやってみる - yasuhisa's blog

    ニューラルネットワークについて プログラム データの準備 モデル式の作成 結果の表示 予測値を得たい ヘッセ行列の固有値を見る ニューラルネットワークを可視化する 追記 nnetとかをもうちょっと 最適化とかヘッセ行列がらみの話 ニューラルネットワークについて先週のPRMLでNNことニューラルネットワークについて勉強を始めました。PRMLは主に理論についてのなので、「ふーん」という感じなんですが、読書会後に「NNって(一定制約の元で)任意の関数に近似できることが証明されてるんだぜ?」とか言われると中二病患者の俺としては「?!NNってすごくね?てか、そんなすごいんだったらNNだけでいらなくね?他のモデルいらなくね?」とか思ってしまいます。しかし、直後に あくまで近似。どれくらいの精度かはものによる 近似できないものも存在する*1 と教えてもらったので、他のモデルもちゃんと勉強する価値がある

    Rでニューラルネットワークをやってみる - yasuhisa's blog
  • Rでニューラルネットワークのパッケージを試す@第2回R勉強会 - nokunoの日記

    第2回R勉強会に参加しました。第2回R勉強会@東京 : ATND私の方は、「Rでニューラルネットワークのパッケージを試す」というお題でLTをさせていただきました。Tokyo R 2 Machine LearningView more presentations from nokuno.発表に使ったコードを貼っておきます。 library(nnet) #training data x c(0.000000,0.111111,0.222222,0.333333,0.444444,0.555556,0.666667,0.777778,0.888889,1.000000) t c(0.349486,0.830839,1.007332,0.971507,0.133066,0.166823,-0.848307,-0.445686,-0.563567,0.261502) #learning phase

  • Rでニューラルネットワーク(2変数の関数近似) - 遥かへのスピードランナー

    で、1変数の関数近似がうまくいったので、調子にのって2変数の関数近似にもチャレンジしてみました。 2変数のsinc関数を、ニューラルネットワークの誤差伝播法を使って近似する(しようとする)ものです。 library(animation) #number of training data N <- 30 #number of hidden unit s <- 5 #learning rate parameter l <- 0.01 #standard deviation of training data sd <- 0.05 #count of loop LOOP <- 10000 #frame interval of animation movie INTERVAL <- 0.1 #total time of animation movie TOTAL <- 20 #initialize

    Rでニューラルネットワーク(2変数の関数近似) - 遥かへのスピードランナー
  • Rでニューラルネットワーク(1変数の関数近似) - 遥かへのスピードランナー

    機械学習・パターン認識方面の勉強初めてから4ヶ月ほど立ちました。最近はnaoya_tさん主催のPRML読書会に参加させて頂いています。 来週末8/29の第6回読書会ではニューラルネットワークの章の発表を担当することになったので、Rを使ってサンプルプログラムを組んでみました。参考にしたのはPRML5.1〜5.3の範囲で、sin関数からサンプリングした点データをニューラルネットワークを使って誤差逆伝播法で学習し、元のsin関数を近似します。 学習前の初期状態が以下の図。赤字が元の関数(線)およびサンプルデータ(点)で青字がニューラルネットワークの出力です。 で、学習後の状態が以下です。 いい感じに再現できています。 以下ソースコード。 library(animation) #number of training data N <- 50 #number of hidden unit s <-

    Rでニューラルネットワーク(1変数の関数近似) - 遥かへのスピードランナー
  • パーセプトロンの学習規則 - チョッキーの黒歴史

    フリーソフトでつくる音声認識システム パターン認識・機械学習の初歩から対話システムまで 作者: 荒木雅弘出版社/メーカー: 森北出版発売日: 2007/10/01メディア: 単行(ソフトカバー)購入: 45人 クリック: 519回この商品を含むブログ (39件) を見るこのに載っているパーセプトロンの学習規則(pp.40-47)をRで実装してみた。 詳しい説明(理屈)はめんどくさいので省略します。 データを2クラスに分類します。 入力ベクトルをx、重みベクトルをwとすると識別関数はy(x)=wx+biasとなります。 y(x)>0ならクラス1,y(x)<0ならクラス2とします。 学習率をrhoとすると、wの更新式を次のようになる。 w = w + rho * x ( クラス1のデータをクラス2と識別したとき) w = w - rho * x ( クラス2のデータをクラス1と識別したとき

    パーセプトロンの学習規則 - チョッキーの黒歴史
  • Widorow-Hoffの学習規則 - チョッキーの黒歴史

    フリーソフトでつくる音声認識システム パターン認識・機械学習の初歩から対話システムまで 作者: 荒木雅弘出版社/メーカー: 森北出版発売日: 2007/10/01メディア: 単行(ソフトカバー)購入: 45人 クリック: 519回この商品を含むブログ (39件) を見るこちらののpp53-60にあるWidorow-Hoffの学習規則をRで実装しました。 いつも通り面倒なので理屈はほとんど省略 漢ならコードで語れ(笑) 基的には前やったのとほぼ同じ。 パーセプトロンの学習規則は誤識別を許さないけど、今回のは誤識別を許す。 だから、線形分離不可能なデータでもある程度分類できる。 方法としては以下の式、つまり二乗和誤差関数の最小化を行う。 ただし、wをクラスの数だけ用意しないといけない。 2クラス分類(C=2)のときは2つ用意しないといけない。 wは下の更新式で求めていく。(最急降下法)

    Widorow-Hoffの学習規則 - チョッキーの黒歴史
  • 1