タグ

deeplearningに関するBigFatCatのブックマーク (8)

  • 【まとめ】ディープラーニングを使った異常検知 - Qiita

    ディープラーニングを使った異常検知が進歩していますが、最新情報を追うのが大変です。 ここでは、最新情報をまとめておきます(随時更新)。 稿では、以下の内容を記します。 ディープラーニングを使った異常検知について、簡単に歴史をまとめます。 最新の手法(2019年当時)について、ベンチマークを行います。 歴史 完全に独断と偏見で作った歴史です。 全ての論文は読めていないので、ご了承ください。 【~2017年】オートエンコーダによる異常検知 オートエンコーダによる異常検知 2、3年前はオートエンコーダによる異常検知が主流でした。オートエンコーダでは、元画像と再構築画像との差をとって、その和が大きいとき異常と認識させています。Qiitaの記事でも、オートエンコーダによる異常検知はたくさんありますので、気になる人は探してみてください。 Variational AutoEocoder(VAE)による

    【まとめ】ディープラーニングを使った異常検知 - Qiita
  • ここからはじめるディープラーニングの主流手法まとめ【保存版】 - HELLO CYBERNETICS

    s0sem0y.hatenablog.com ディープラーニングは2006年にトロント大学のHinton氏が考案したDeep Belief Networkから始まりました。このとき考案されたのが事前学習という手法で、一層ずつ層を学習させてから繋げていくことで、一気に深い構造を学習させる際に生じていた勾配消失問題を回避することに成功しました。 その後深い構造を使った機械学習が全てディープラーニングと呼ばれるようになり、今やその種類は非常に多岐に渡ります。今回はディープラーニングって言っても色々出てくるけど、どれがどれだか分からないという人のために(そして自分の中で整理するために)、ディープラーニング手法をまとめてみたいと思います。 ディープラーニングの種類のまとめ Deep Belief Network(DBN) 最初に登場したディープラーニングの手法 特徴抽出を人手でやらなくても良くなった

    ここからはじめるディープラーニングの主流手法まとめ【保存版】 - HELLO CYBERNETICS
  • 「ゼロから作るDeep Learning」書評。購入を迷っている方へ - HELLO CYBERNETICS

    結論 理由 実装がライブラリに依存していない しっかりと解説が行われている リファレンスが充実している 計算グラフによってネットワークの計算を扱う 中身 誰におすすめできるか 誰におすすめできないか 私がを購入して 結論 非常に良い書籍です。迷っているならば購入してもいいでしょう。 ゼロから作るDeep Learning ―Pythonで学ぶディープラーニングの理論と実装 作者: 斎藤康毅 出版社/メーカー: オライリージャパン 発売日: 2016/09/24 メディア: 単行(ソフトカバー) この商品を含むブログ (5件) を見る 理由 以下記事で理由を述べていきます。 実装がライブラリに依存していない もしもライブラリに依存したものである場合、ライブラリが更新されると、の内容が古くなって価値のないものになることもありえます。しかしこのは、ディープラーニングを理解することに焦点を

    「ゼロから作るDeep Learning」書評。購入を迷っている方へ - HELLO CYBERNETICS
    BigFatCat
    BigFatCat 2016/12/06
    amazonの書評に"オートエンコーダー周辺の話題には触れていない"とある
  • 半年ほどKerasを使ってみた感想など - toshiemon18のブログ

    ※この記事は苫小牧高専 AdventCalendar-2016の5日目の記事です。 はじめに 最近流行りのDeepLearningについての記事を書こうと思います。ただし、理論についてではなく、理論をプログラムに落とし込むためのツールに関するお話です。それも1つのフレームワークに関することなので、比較などではなく自分が使ってみた感想をつらつら書いていきます。 僕は4月から卒業研究でDeepLearningに関する研究をしており、PythonDeepLearning用フレームワークKeras(バックエンドはTensorflow)な環境で色々コードを書いています。そこで、半年くらいKerasを使ってみていいなと思ったこと、苦しかったことを書こうと思います。テーマはなんでもいいってことだったので、刺さる人が少ないのは申し訳ないですが、この記事がきっかけで機械学習をKeras使って始めてみようみ

    半年ほどKerasを使ってみた感想など - toshiemon18のブログ
  • なぜ2015年はAI技術がアツかったのか (+2016年のトレンド予測) – Mojiブログ

    2010年にGoogleやFacebookといった名だたる米国IT企業がAI/ディープラーニングの研究機関を設立するなど大規模な投資が話題となり、2015年にはAIの実用化が格化しました。Facebookの Moments やSkypeの Translator 、そして Google Photos など米国IT企業がAIを活用したサービスを公開し始め、トヨタやリクルートなど日企業のAI/機械学習の研究機関設立の発表も相次ぎました。このトレンドはやはり、ここ数年のディープラーニングの目覚ましい技術的ブレークスルーが寄与しているのでしょう。この投稿では2015年に起こった技術的に進歩したことを解説するとともに、AI技術研究の最先端にいる研究者たちが考える2016年のトレンド予測を読み解いていきます。 なぜ2015年がAI実用化の元年だったのか? ディープラーニングの技術自体は決して新しいも

    なぜ2015年はAI技術がアツかったのか (+2016年のトレンド予測) – Mojiブログ
  • はじめるDeep learning - Qiita

    そうだ、Deep learningをやろう。そんなあなたへ送る解説記事です。 そう言いながらも私自身勉強しながら書いているので誤記や勘違いなどがあるかもしれません。もし見つけたらご連絡ください。 Deep learningとは こちらのスライドがとてもよくまとまっています。 Deep learning つまるところ、Deep learningの特徴は「特徴の抽出までやってくれる」という点に尽きると思います。 例えば相撲取りを判定するモデルを構築するとしたら、普通は「腰回りサイズ」「マゲの有無」「和装か否か」といった特徴を定義して、それを元にモデルを構築することになります。ちょうど関数の引数を決めるようなイメージです。 ところが、Deep learningではこの特徴抽出もモデルにやらせてしまいます。というか、そのために多層、つまりDeepになっています。 具体的には頭のあたりの特徴、腰のあ

    はじめるDeep learning - Qiita
  • ゼロからDeepまで学ぶ強化学習 - Qiita

    ロボットから自動運転車、はては囲碁・将棋といったゲームまで、昨今多くの「AI」が世間をにぎわせています。 その中のキーワードとして、「強化学習」というものがあります。そうした意味では、数ある機械学習の手法の中で最も注目されている(そして誇張されている・・・)手法ともいえるかもしれません。 今回はその強化学習という手法について、基礎から最近目覚ましい精度を出しているDeep Q-learning(いわゆるドキュン、DQNです)まで、その発展の流れと仕組みについて解説をしていきたいと思います。 記事の内容をベースに、ハンズオンイベントを開催しました(PyConJPのTalkの増補改訂版) Pythonではじめる強化学習 OpenAI Gym 体験ハンズオン 講義資料の方が図解が豊富なので、数式とかちょっと、という場合はこちらがおすすめです。 Tech-Circle #18 Pythonではじ

    ゼロからDeepまで学ぶ強化学習 - Qiita
  • Deep Learning | Udacity

    Dive into deep learning with this practical course on TensorFlow and the Keras API. Gain an intuitive understanding of neural networks without the dense jargon. Learn to build, train, and optimize your own networks using TensorFlow. The course also introduces transfer learning, leveraging pre-trained models for enhanced performance. Designed for swift proficiency, this course prioritizes hands-on

    Deep Learning | Udacity
  • 1