タグ

2015年7月7日のブックマーク (3件)

  • Deep LearningとConvolutional Neural Network - Stimulator

    - はじめに - 前回機械学習ライブラリであるCaffeの導入記事を書いた。今回はその中に入ってるDeep Learningの一種、Convolutional Neural Network(CNN:畳み込みニューラルネットワーク)の紹介。 CNNは今話題の多層ニューラルネット、Deep Learningの一種であり、画像認識等の分野に大きな成果をもたらしています。 まあCNNすごい。当、画像認識系だと一強といった感じ。 実装経験もあるのでよしなに書いてみようという記事。 追記:2018-10-24 この記事は2014年終盤、Deep Learningに関連するネット記事も数個しかなく、各論文でもCNNに関する理解が分かれていたような時期に、大学生であった筆者が書いた記事です。概念の理解の助けになるよう残していますが、正しくない箇所も後々多く出てくるかと思います。考慮の上、お読み頂ければと

    Deep LearningとConvolutional Neural Network - Stimulator
  • 節操の無いクソイナゴ野郎なのでdeep learningで使われるautoencoder実装した - 糞糞糞ネット弁慶

    身内でdeep learningの勉強会をやったらできそうだったので実装した. 読んだのは大体ここらへん. NEURAL NETS FOR VISION(CVPR2012 tutorial) CS294A Lecture notes Sparse autoencoder ImageNet Classification with Deep Convolutional Neural Networks autoencoder autoencoderはunsupervised feature learningの一種.Convolutional Neural Netとは違って,最後の判別器の予測誤差をback propagationさせる,という事はせずある種特徴抽出で完結させている. autoencoderを一言でまとめると,「次元削減を繰り返すNeural Netを多段に繋げて特徴抽出を行う手法

  • 男のための機械学習〜RBMでA◯女優さんの共通特徴量を得よう〜 - 新kensuke-miの日記

    いま、巷で話題(3年くらい前からだいぶ話題だけど)のDeep learningをア◯でも使えるpylearn2を使って見る。 Deep learningとは? 一言で言うと「教師なしのニューラルネットをいっぱいつなげて多層ネットワーク化したもの。」 いままでは 前処理職人の丹精を込めた特徴量作り → 分類器(SVMとか、ロジスティック回帰とか、なんでもいいので関数)の学習 だったのが、 黒魔術で特徴量作り → 分類器(SVMとか、ロジスティック回帰とか、なんでもいいので関数)の学習 にできる。 黒魔術をもうちょっと紐解く 「黒魔術」って言ってるところでやっていることは「ベストな写像関数の学習」 もう少し、言葉を厳密に表現すると、「入力/ノイズ付き出力の変換をうまく表現できる関数の学習」 この関数はできるだけ良い[1]条件で別の空間に写像する。 なので、この関数が学習できると、特徴量空間に射

    男のための機械学習〜RBMでA◯女優さんの共通特徴量を得よう〜 - 新kensuke-miの日記