タグ

Neural Networkに関するrydotのブックマーク (8)

  • カプセルネットワークはニューラルネットワークを超えるか。 - Qiita

    先日、こんな記事が上がっていました。 グーグルの天才AI研究者、ニューラルネットワークを超える「カプセルネットワーク」を発表 中々刺激的なタイトルですね。 ニューラルネットワークといえば、近年の機械学習分野を支える最も大きな技術の一つであると言えます。そんなニューラルネットワークを超えたカプセルネットワークとは一体何なのでしょうか。また、当にニューラルネットワークを超えたのでしょうか。 記事では、カプセルネットワークの仕組みを理解することで、従来のニューラルネットワークとの違いを比較していきます。 CNN カプセルネットワークに触れるにあたり、まず畳み込みニューラルネットワーク(Convolutional Neural Network; CNN)について理解しなければなりません。なぜなら、カプセルネットワークは、CNNをベースとして、CNNの欠点を克服するために生まれたモデルだからです

    カプセルネットワークはニューラルネットワークを超えるか。 - Qiita
  • GitHub - clab/dynet: DyNet: The Dynamic Neural Network Toolkit

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - clab/dynet: DyNet: The Dynamic Neural Network Toolkit
  • Deep LearningとConvolutional Neural Network - Stimulator

    - はじめに - 前回機械学習ライブラリであるCaffeの導入記事を書いた。今回はその中に入ってるDeep Learningの一種、Convolutional Neural Network(CNN:畳み込みニューラルネットワーク)の紹介。 CNNは今話題の多層ニューラルネット、Deep Learningの一種であり、画像認識等の分野に大きな成果をもたらしています。 まあCNNすごい。当、画像認識系だと一強といった感じ。 実装経験もあるのでよしなに書いてみようという記事。 追記:2018-10-24 この記事は2014年終盤、Deep Learningに関連するネット記事も数個しかなく、各論文でもCNNに関する理解が分かれていたような時期に、大学生であった筆者が書いた記事です。概念の理解の助けになるよう残していますが、正しくない箇所も後々多く出てくるかと思います。考慮の上、お読み頂ければと

    Deep LearningとConvolutional Neural Network - Stimulator
  • SOINN:Self-Organizing Incremental Neural Network : 東京工業大学 長谷川研究室 (Hasegawa Lab.)

    このページでは,当研究室で開発した教師なし追加学習手法であるSOINN(Self-Organizing Incremental Neural Networks,自己増殖型ニューラルネットワーク)についてご紹介します. SOINN とは? SOINNとはGrowing Neural GasとSOM(自己組織化マップ)を拡張した教師なし追加学習手法の1つです.主な特徴としてオンラインで入力されるサンプル集合に対し,ネットワークを自己組織的に形成し,サンプル集合の分布を近似することが挙げられます.このとき非定常な分布に従う入力も学習可能であり,分布が複雑な形状をしているクラスに対しても,ノイズの除去を行った上で適切なクラス数およびサンプル集合の分布を近似することができます. このような特徴から,実世界での利用に対して非常に有効な手法の1つであると考えられています. これまでの発表文献 SOIN

  • 柔らかな情報処理のための統計的手法の応用に関する研究 A STUDY ON APPLICATIONS OF STATISTICAL METHODS TO FLEXIBLE INFORMATION PROCESSING

    次へ: Synopsis 柔らかな情報処理のための統計的手法の応用に関する研究 A STUDY ON APPLICATIONS OF STATISTICAL METHODS TO FLEXIBLE INFORMATION PROCESSING 栗田 多喜夫 Takio KURITA visitors since Jul. 19, 2002. Synopsis 序論 多変量データ解析の理論 はじめに 記号と定義 数量化法の非線形への拡張 数量化1類とその非線形への拡張 数量化2類とその非線形への拡張 非線形の数量化2類と数量化3類の関係 交差係数行列の固有値問題 数量化4類との関係 距離について 多変量データ解析手法の非線形への拡張 非線形重回帰分析 非線形判別分析 非線形正準相関分析 線形近似としての線形データ解析手法 条件つき確率の線形近似 近似としての重回帰分析および数量化1類 近似

  • ニューラルガス

    ニューラルガス(NG)はベクトル量子化に用いられるネットワークで, SOMとよく似たアルゴリズムで動作します. ベクトル量子化とは多数の入力ベクトルの集合を 比較的少ないユニット(参照ベクトル)で近似することをいいます. NGはSOMと同様に教師なし学習によって 自己組織的にベクトル量子化をおこないます. SOMとの違いはネットワークの構造にあります. SOMではマップを作るユニット間の隣接関係が固定されていました. それに対してNGではユニット間の隣接関係に規制がありません. これによりNGの各ユニットは独立して動くことができ, ベクトル量子化として機能します. NGに入力ベクトルが与えられると 入力ベクトルに最も近い参照ベクトルを持つユニットが勝者ユニットとなります. SOMの場合には勝者ユニットからのマップ空間上での距離によって 各ユニットの学習率が決定し

  • パターン認識とニューラルネットワーク

    次へ: パターン認識とは パターン認識とニューラルネットワーク 栗田多喜夫 脳神経情報研究部門 産業技術総合研究所 E-mail: takio-kurita@aist.go.jp visitors since Feb. 14, 2001. パターン認識とは ベイズ決定理論 ベイズ決定方式 正規分布の場合 確率密度分布の推定 パラメトリックモデル 最尤法 ベイズ推定 ノンパラメトリックな方法 ノンパラメトリックな確率密度関数の推定 核関数に基づく方法 K-NN法 セミパラメトリックな手法 混合分布モデル(Mixture Model) 最尤法 EM アルゴリスム 階層型ニューラルネット 多層パーセプトロン 単純パーセプトロン 単純パーセプトロンの学習 多層パーセプトロン 誤差逆伝搬学習法 最尤推定としての定式化 多層パーセプトロンと非線形回帰 汎化性 情報量基準による汎化能力の評価 VC次元

  • A Neural Network on GPU

    This article describes the implementation of a neural network with CUDA. Download demo (release build requiring CUDA and 120 dpi) - 584.61 KBDownload GUI source code - 509.68 KB Download kernel (the Neural Network core) - 2.78 KB Introduction An Artificial Neural Network is an information processing method that was inspired by the way biological nervous systems function, such as the brain, to proc

    A Neural Network on GPU
  • 1