タグ

deeplearningに関するyoyamaのブックマーク (10)

  • Neural Network Libraries by Sony

    Neural Network Libraries by Sony ニューラルネットワークの研究・開発・実装を 効率化するオープンソースソフトウェア Get Started 特長 必要最小限の労力 Pythonを用いて、より少ないコード量で直観的に計算グラフ(ニューラルネットワーク)を定義することができます。 動的計算グラフのサポート 実行時に柔軟にニューラルネットワークを構築することができます。ニューラルネットワークの構築方法としては、静的計算グラフと動的計算グラフの両方が利用可能です。 どこでも実行 移植性を考慮した設計を採用しており、LinuxWindowsの両方で動作します。 デバイスを選ばない コードのほとんどがC++14で実装されているため、組み込み機器にもほぼそのままの形で導入することができます。 機能の追加が簡単 適度に抽象化された関数とコードテンプレート生成機能を備えてお

    Neural Network Libraries by Sony
  • Home

    Deep Reinforcement Learning, Decision Making, and ControlICML 2017 Tutorial Deep learning methods, which combine high-capacity neural network models with simple and scalable training algorithms, have made a tremendous impact across a range of supervised learning domains, including computer vision, speech recognition, and natural language processing. This success has been enabled by the ability of

    Home
    yoyama
    yoyama 2017/08/07
    Deep Reinforcement Learning, Decision Making, and Control ICML 2017 Tutorial
  • Neural networks and deep learning

    Neural Networks and Deep Learning What this book is about On the exercises and problems Using neural nets to recognize handwritten digits How the backpropagation algorithm works Improving the way neural networks learn A visual proof that neural nets can compute any function Why are deep neural networks hard to train? Deep learning Appendix: Is there a simple algorithm for intelligence? Acknowledge

    Neural networks and deep learning
  • ニューラルネットワークの順伝播,逆伝播,確率的勾配降下法を手計算する - Qiita

    この記事は何? ニューラルネットワークの理解が曖昧な部分があったので,実際にニューラルネットワークの動きを手計算して確かめた時のメモです. ニューラルネットワークの構造 下のような図で表される,小さめの構造のニューラルネットワークの動きを手計算で確かめてみようと思います. 入力層ユニット数は3,隠れ層ユニット数は2,出力層ユニット数は2とします. 隠れ層の活性化関数$h$はシグモイド関数$h(a)=\frac{1}{1+\exp(-a)}$を用います. 出力層の活性化関数$o$は恒等関数$o(a)=a$を用います. 重みの初期値は以下のように設定します. W^{(1)}=\begin{bmatrix} w_{11}^{(1)}&w_{12}^{(1)}&w_{13}^{(1)}\\ w_{21}^{(1)}&w_{22}^{(1)}&w_{23}^{(1)} \end{bmatrix} =

    ニューラルネットワークの順伝播,逆伝播,確率的勾配降下法を手計算する - Qiita
  • 誤差逆伝播法のノート - Qiita

    はじめに ※)「目標関数」をより一般的な名称である「損失関数(Loss Function)」表記に改めました.(2015Oct19) 誤差逆伝播法(以下,Backprop)は多層パーセプトロンを使う人にとってお馴染みのアルゴリズムですよね. いや,これだけ有名なアルゴリズムなのでちょっとネットで探してみれば沢山解説を見つけることが出来るのですが,Backpropを予測誤差の最小化に適用する場合の説明しかみつからないんです.(とはいえ,PRMLをちゃんと読めば全部載ってるんですが). Backpropでできることは何なのか? ということがあまり明らかではありませんでした. 大学の講義や教科書でのBackpropの説明はほとんど,「教師あり学習の文脈で多層パーセプトロンを識別器あるいは関数近似器として訓練する」という文脈でなされます.そのため,初学者はBackpropは教師あり学習のためのアル

    誤差逆伝播法のノート - Qiita
  • 高卒でもわかる機械学習 (4) 誤差逆伝播法の前置き

    前回からだいぶ時間が空いてしまいました。 誰も見てないものかと… 多層パーセプトロンの学習法として使われる誤差逆伝播法について書いていきますが、この記事シリーズのルール「長いけど平易」を守るとけっこうな長さになったので、分割して掲載します。 今回は一言で言えば誤差逆伝播法の理論で使う記号の定義をするだけです。 しかし僕のような数式に慣れていない人間にとっては、実はここが一番の難関かも知れないとすら思っているので、腰をすえてじっくりやろうと思います。 正念場です。 活性化関数 先にこの項のまとめを書いておくとこうです。 多層パーセプトロンの活性化関数は微分できることが重要 有効な活性化関数にはいろいろある ひとまずこの記事では活性化関数を 、その導関数を と一般化して記述する それだけなのですが、せっかくなのでそのあたりの現状に軽く触れておこうと思います。 活性化関数とは、ユニットの出力値を

    高卒でもわかる機械学習 (4) 誤差逆伝播法の前置き
  • 活性化関数 - Wikipedia

    活性化関数(かっせいかかんすう、英: activation function)もしくは伝達関数(でんたつかんすう、英: transfer function)とは、ニューラルネットワークのニューロンにおける、入力のなんらかの合計(しばしば、線形な重み付け総和)から、出力を決定するための関数で、非線形な関数とすることが多い。 概要[編集] よく使われているモデルでは、人工ニューロンは1つ以上の入力を受け取り(1つ以上の樹状突起に相当)、それらの重み付け総和から、活性化関数を通して、出力を生成する。 数式では、以下のが活性化関数。 古典的にはステップ関数が提案された。他にもいろいろと考えることはできる。1986年のバックプロパゲーションの発表以降はシグモイド関数が最も一般的だった。現在はReLU(ランプ関数)の方が良いと言われる[1]。活性化関数は単調増加関数が使われる事が多い。必ずしもそうしな

    活性化関数 - Wikipedia
  • Deeplearning 4 j のクイックスタートガイド - Deeplearning4j: Open-source, Distributed Deep Learning for the JVM

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    Deeplearning 4 j のクイックスタートガイド - Deeplearning4j: Open-source, Distributed Deep Learning for the JVM
    yoyama
    yoyama 2016/10/21
  • Deep learning on Spark with DL4J - Qiita

    この記事はSpark Advent Calendar 9日目の記事として書きました。 Spark上でDeep Learningのアルゴリズムを走らせるにはいくつか方法があります。 MLlibで実装されているMultilayerPerceptronClassifierを使う Sparkling Waterを使う deeplearning4jを使う 今回は3つ目のdeeplearning4jをSparkから利用する方法を紹介したいと思います。 deeplearning4jとは Skymindが中心となって開発をしているJVM上で動くDeep Learningのフレームワークです。Deep Learningのアルゴリズムを実装したものはCaffeやTorch, Chainerなどがありますが、これらはメインではLuaやC/C++で実装されています。deeplearning4jはJava, Sca

    Deep learning on Spark with DL4J - Qiita
  • Deep Learning

    An MIT Press book Ian Goodfellow and Yoshua Bengio and Aaron Courville The Deep Learning textbook is a resource intended to help students and practitioners enter the field of machine learning in general and deep learning in particular. The online version of the book is now complete and will remain available online for free. The deep learning textbook can now be ordered on Amazon. For up to date an

  • 1