タグ

Deep Learningに関するmatatabityのブックマーク (18)

  • ニューラルネットの逆襲から5年後 | Preferred Research

    私が2012年にニューラルネットの逆襲(当時のコメント)というのをブログに書いてからちょうど5年が経ちました。当時はまだDeep Learningという言葉が広まっておらず、AIという言葉を使うのが憚られるような時代でした。私達が、Preferred Networks(PFN)を立ち上げIoT、AIにフォーカスするのはそれから1年半後のことです。 この5年を振り返る良いタイミングだと思うので考えてみたいと思います。 1. Deep Learning Tsunami 多くの分野がこの5年間でDeep Learningの大きな影響を受け、分野特化の手法がDeep Learningベースの手法に置き換わることになりました。NLP(自然言語処理)の重鎮であるChris Manning教授もNLPで起きた現象を「Deep Learning Tsunami」[link] とよびその衝撃の大きさを表して

    ニューラルネットの逆襲から5年後 | Preferred Research
  • 言語と知識の深層学習@認知科学会サマースクール

    2. ⾃自⼰己紹介 海野  裕也 l  -2008 東⼤大情報理理⼯工修⼠士 l  ⾃自然⾔言語処理理 l  2008-2011 ⽇日アイ・ビー・エム(株)東京基礎研 l  テキストマイニング、⾃自然⾔言語処理理の研究開発 l  2011- (株)プリファードインフラストラクチャー l  ⾃自然⾔言語処理理、情報検索索、機械学習、テキストマイニングなど の研究開発 l  研究開発系案件、コンサルティング l  JubatusやChainerの開発 NLP若若⼿手の会共同委員⻑⾧長(2014-) 「オンライン機械学習」(2015, 講談社) 2

    言語と知識の深層学習@認知科学会サマースクール
  • Generative Adversarial Nets in TensorFlow (Part I)

    This post was first published on 12/29/15, and has since been migrated to Blogger. This is a tutorial on implementing Ian Goodfellow's Generative Adversarial Nets paper in TensorFlow. Adversarial Nets are a fun little Deep Learning exercise that can be done in ~80 lines of Python code, and exposes you (the reader) to an active area of deep learning research (as of 2015): Generative Modeling! Code

    Generative Adversarial Nets in TensorFlow (Part I)
  • Deep Learningによる一般物体検出アルゴリズムの紹介 - ABEJA Tech Blog

    一般物体検出アルゴリズムの紹介 今回CNNを用いた一般物体検出アルゴリズムの有名な論文を順を追って説明します。 コンピュータビジョンの分野において、一般物体検出とは下記の図のように、ある画像の中から定められた物体の位置とカテゴリー(クラス)を検出することを指します。 [6]より引用 Deep Learningアルゴリズムの発展によって、一般物体認識の精度は目まぐるしい勢いで進歩しております。 そこで今回はDeep Learning(CNN)を応用した、一般物体検出アルゴリズムの有名な論文を説明したいと思います。 R-CNN (Regions with CNN features) (CVPR 2014) [1] かの有名なCNNの論文[8]で、ILSVRC 2012の物体認識チャレンジで大差をつけて1位になりました。 このチャレンジでは1枚の画像が1000クラスのうちどれに属するかを推定する

    Deep Learningによる一般物体検出アルゴリズムの紹介 - ABEJA Tech Blog
  • Convolutional Neural Network

    論文「Quoc V. Le, Marc'Aurelio Ranzato, Rajat Monga, Matthieu Devin, Kai Chen, Greg S. Corrado, Jeff Dean, Andrew Y. Ng. Building high-level features using large scale unsupervised learning. 29 Dec 2011(last (this) revised 12 Jun 2012).」を読 んでいると、わからんキーワードを調べるとまた別のわからんキーワードにぶつかり、という無限ループにハマッテしまいました。なので、もういっそきちんとニューラルネットワーク関連テクニックをまとめてしまおうと思った次第です。まずは(と言ってもこれだけかもだけど)、畳み込みニューラルネットワーク(Convolutional Neura

    Convolutional Neural Network
  • Neural Networks, Types, and Functional Programming -- colah's blog

    An Ad-Hoc Field Deep learning, despite its remarkable successes, is a young field. While models called artificial neural networks have been studied for decades, much of that work seems only tenuously connected to modern results. It’s often the case that young fields start in a very ad-hoc manner. Later, the mature field is understood very differently than it was understood by its early practitione

  • 画風を変換するアルゴリズム - Preferred Networks Research & Development

    Deep Neural Networkを使って画像を好きな画風に変換できるプログラムをChainerで実装し、公開しました。 https://github.com/mattya/chainer-gogh こんにちは、PFNリサーチャーの松元です。ブログの1行目はbotに持って行かれやすいので、3行目で挨拶してみました。 今回実装したのは”A Neural Algorithm of Artistic Style”(元論文)というアルゴリズムです。生成される画像の美しさと、画像認識のタスクで予め訓練したニューラルネットをそのまま流用できるというお手軽さから、世界中で話題になっています。このアルゴリズムの仕組みなどを説明したいと思います。 概要 2枚の画像を入力します。片方を「コンテンツ画像」、もう片方を「スタイル画像」としましょう。 このプログラムは、コンテンツ画像に書かれた物体の配置をそのま

    画風を変換するアルゴリズム - Preferred Networks Research & Development
  • Googleの公開した人工知能ライブラリTensorFlowを触ってみた - LIFULL Creators Blog

    こんにちは。おうちハッカーの石田です。 いつもはおうちハックネタばかりですが、今日は人工知能関連の話題です。 今日2015/11/10、Googleが自社サービスで使っているDeepLearningを始めとする機械学習技術のライブラリを公開しました。 TensorFlowという名前で、おそらくテンソルフローと呼びます。 テンソルは、数学の線形の量を表す概念で、ベクトルの親戚みたいなものです。それにフローをつけるということは、そういった複雑な多次元ベクトル量を流れるように処理できる、という意味が込められているのだと思います。 こちらをさっそく触ってみたので、紹介したいと思います。 TensorFlowの特徴 公式紹介ページから特徴をいくつかピックアップします。 Deep Flexibility ~深い柔軟性~ 要望に応じて、柔軟にニューラルネットワークを構築できます。ニューラルネットワークの

    Googleの公開した人工知能ライブラリTensorFlowを触ってみた - LIFULL Creators Blog
  • Neural networks and deep learning (日本語訳)

    ニューラルネットワークと深層学習 What this book is about On the exercises and problems ニューラルネットワークを用いた手書き文字認識 逆伝播の仕組み ニューラルネットワークの学習の改善 ニューラルネットワークが任意の関数を表現できることの視覚的証明 ニューラルネットワークを訓練するのはなぜ難しいのか 深層学習 Appendix: 知性のある シンプルな アルゴリズムはあるか? Acknowledgements Frequently Asked Questions Sponsors Resources 「ニューラルネットワークと深層学習」は無料のオンライン書籍です。 このでは、次のような内容を扱います。 ニューラルネットワーク:コンピュータに、観測データにもとづいて学習する能力を与える、生物学にヒントを得たプログラミングパラダイム。 深

    Neural networks and deep learning (日本語訳)
  • Deep Learningを用いた将棋プログラムGunyanzaを公開しました

    ディープラーニング(深層学習)というのが流行っているそうです。すべての人類はディープラーニングによって実現されたAIに隷属する未来なんですってよ!!! こわーい。 そんなバラ色の技術、いっちょかみしておきたいですよね。 さて、オフィスで社長とダベっていたところ、「将棋プログラム面白そうだよね」という話になりました。お互将棋プログラムを作って闘わせようぜ、いぇー、と盛り上がり、勢いでコンピュータ将棋選手権に申し込みまでしてしまいました。 そんな経緯で、ディープラーニングをミリしら(=1ミリも知らない)な僕が、試しにディープラーニングを使って将棋AIを書いてみたらいいやん、と思いついたのでした。将棋も、ハム将棋でハム8枚落ちで負けるレベルくらい。ダメじゃん。 ミリしらなので、「チェスで何かやってるヤツがいるだろう」とアタリをつけてググった結果、Erik Bernhardssonさんによる d

    Deep Learningを用いた将棋プログラムGunyanzaを公開しました
  • Deep learning を用いた画像から説明文の自動生成に関する研究の紹介

    Deep Learningを用いた画像から説明文の自動生成の最新研究を調査したものを公開いたします。 数式の説明などかなり簡略したものですが、全体が俯瞰できるように工夫しましたので、何かのご参考になればと幸いです。 また、何か間違いがございましたら、ご指摘のほどよろしくお願いします。Read less

    Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
  • Recurrent Neural Networks - Pfi seminar 20141030_rnn

    2. ⾃自⼰己紹介 l 得居 誠也 (Seiya Tokui) l アカウント:beam2d (Twitter, GitHub, etc.) l 東⼤大情報理理⼯工で修⼠士を取ってから PFI ⼊入社 – 最初は⾃自然⾔言語処理理やってた(潜在変数を⼊入れた系列列ラベリング学習) – 次に画像・⾔言語対象に近傍探索索やった(ハッシュ関数の学習) – ⼊入社後は Jubatus のアルゴリズム開発 – 今は PFN で Deep Learning とか映像解析とかとか l 前回スキップしたせいで PFI セミナーは 16 ヶ⽉月ぶり l 今⽇日話す RNN は⾳音声認識識でもよくやられていて⾼高い精度度も出てますが 僕が⾳音声に不不慣れなので今⽇日は話しません(すみません) 2 3. もくじ l 問題設定 l Recurrent Neural Networks l Backp

    Recurrent Neural Networks - Pfi seminar 20141030_rnn
  • スマニューにも使われる「自然言語処理」ってなに? ことばの解析の歴史と、スマホ時代の最新トレンドを追う - ログミーTech

    情報処理における全国のエキスパートが一堂に会したリクルート主催の「春の情報処理祭」。ニュースキュレーションアプリやスマホのインターフェースにおいて注目度が高まる「自然言語処理」の重要性について、株式会社プリファードインフラストラクチャーの海野裕也氏が解説しています。(春の情報処理祭りin京都より) 自然言語処理の専門でない方にこそ、新しい研究をするチャンスがある 海野裕也氏:こんにちは、プリファードの海野と申します。私は自然言語処理のお話をさせていただこうと思います。自然言語処理という言葉は、多分皆さん聞いたことあると思うんですけども、自然言語処理を専門でやっているっていう方、どれぐらいいらっしゃいますか? 意外といた。 実は、今日のこのスケジュールが言語処理学会の全国大会とかぶっていまして、今、多分裏で京大のほうでチュートリアルをやっているんで、あまりいないのかなと思ってたんですけども、

    スマニューにも使われる「自然言語処理」ってなに? ことばの解析の歴史と、スマホ時代の最新トレンドを追う - ログミーTech
  • Neural networks and deep learning

    Neural Networks and Deep Learning What this book is about On the exercises and problems Using neural nets to recognize handwritten digits How the backpropagation algorithm works Improving the way neural networks learn A visual proof that neural nets can compute any function Why are deep neural networks hard to train? Deep learning Appendix: Is there a simple algorithm for intelligence? Acknowledge

    Neural networks and deep learning
  • PythonによるDeep Learningの実装(Denoising Autoencoders 編) - Yusuke Sugomori's Blog

    今回は、Deep Learningに用いられているDenoising Autoencoders (DA))のコードを紹介したいと思います。 細かな説明や数式の導出については前回の記事で紹介してありますのでそちらも参考にしてください。 今回も、Pythonで実装しており、numpyのみを使っています。(sysはstderrへの出力に用いているのみなので、なくてもよい) コードは以下。 DAは、Deep Belief Nets(DBN)で言うところの、制約付きボルツマンマシン(Restricted Boltzmann Machine, RBM)の部分に対応しています。 (DBNの記事はこちら、RBMの記事はこちら。) DAの層を積み重ねたDeepなニューラルネットワークは、Stacked Denoising Autoencodersとなりますので、そちらも近々、実装してみたいと思います。

    PythonによるDeep Learningの実装(Denoising Autoencoders 編) - Yusuke Sugomori's Blog
  • 楽しいAutoEncoderと学習の世界 - Stimulator

    今回はAutoEncoderについて書きます。以前ほんのちょっとだけ紹介しましたが、少し詳しい話を研究の進捗としてまとめたいと思います。(AdventCalendarに向けて数式を入れる練習がてら) まず、AutoEncoderが今注目されている理由はDeepLearningにあると言っても過言ではないでしょう。DeepLearningは様々なコンペディション、例えば、ILSVRC2012(画像認識のコンテスト)や化合物の活性予測で、従来の手法を抑えとてつもない成績を収めて注目を浴びました。今年のILSVRC2013ではその殆どがDeepLearningを取り入れているほどです。さらには、「一般紙であるNewYorkTimesにまで記事が掲載」「第一人者であるHinton先生を学生ごとかのGoogleが買収」「BaiduがシリコンバレーにDeep learningの研究所を作る」等学習界隈

    楽しいAutoEncoderと学習の世界 - Stimulator
  • Deep Learningと画像認識� �~歴史・理論・実践~

    1. Nakayama Lab. Machine Perception Group The University of Tokyo 東京大学 大学院情報理工学系研究科 創造情報学専攻 中山研究室 中山 英樹 2. Nakayama Lab. Machine Perception Group The University of Tokyo  1.Deep learning(深層学習)とは?  2.一般画像認識:Deep learning 以前と以後で何が変わったか ◦ Bag-of-visual-words (VLAD, Fisher Vector) ◦ Convolutional neural network (ConvNets)  3.Deep learningの数理 ◦ なぜ優れた性能が実現できるのか? ◦ ブレークスルーを生んだ各要素技術 ◦ 中山研究室での研究紹介  4.実

    Deep Learningと画像認識� �~歴史・理論・実践~
  • はじめるDeep learning - Qiita

    Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? そうだ、Deep learningをやろう。そんなあなたへ送る解説記事です。 そう言いながらも私自身勉強しながら書いているので誤記や勘違いなどがあるかもしれません。もし見つけたらご連絡ください。 Deep learningとは こちらのスライドがとてもよくまとまっています。 Deep learning つまるところ、Deep learningの特徴は「特徴の抽出までやってくれる」という点に尽きると思います。 例えば相撲取りを判定するモデルを構築するとしたら、普通は「腰回りサイズ」「マゲの有無」「和装か否か」といった特徴を定義して、それを

    はじめるDeep learning - Qiita
  • 1