タグ

deep learningに関するa-luckyのブックマーク (11)

  • LSTMを超える期待の新星、QRNN - Qiita

    RNN「これってもしかして」 CNN「わたしたちのモデルが・・・」 「「入れ替わってる~~~!?」」 というわけでQRNN、QUASI-RECURRENT NEURAL NETWORKSとは、RNNの機構をCNNで「疑似的(QUASI)に」実装するというモデルです。これにより、既存のRNN(というかLSTM)が抱えていたいくつかの問題の解決を試みています。 元論文は以下となります。 QUASI-RECURRENT NEURAL NETWORKS 作者によるブログ 作者の方のブログにChainerのサンプルコードがあったので、それを元にTensorFlowで実装してみました。早く動かしたい!という方はこちらを見てみてください。 icoxfog417/tensorflow_qrnn (Starを頂ければ励みになります m(_ _)m) 記事では、この研究のモチベーションとそのアプローチについ

    LSTMを超える期待の新星、QRNN - Qiita
  • 【みんな】Caffeより手軽かつ高速! Cで書かれた必要十分な深層学習フレームワーク darknetを試す【意外と知らない】:電脳ヒッチハイクガイド:電脳空間カウボーイズZZ(電脳空間カウボーイズ) - ニコニコチャンネル:生活

    チャオ! オレだ。 深層学習を手軽に使いたいというニーズは日に日に高まっているはずなのに、ガクシャ先生どもと来たら、やれMatlabだ、やれPythonだのと軟弱言語の話しかしやしねえ。どこかに気骨溢れたナイスガイはおらんのか! と思ったら、居た。 それが今回紹介するdarknetだ。 darknetという名前から想像する異常にダークである。 バーン どうよこのダークネス感 いまどき黒いページというのは珍しい。 そして無駄に凝った魔法陣のようなロゴ。ダークだ。 しかしダークネット、厨二満開とせせら笑っていられるのもいまのうちだ。 このダークネット、実に必要十分な機能を最短で試せる超絶優れたツールなのである。 CaffeやTensorFlowほどの知名度はないが、実用性皆無なTensorFlowに比べてdarknetはものすごく実用的。Cが分かる人ならばこれほど使いやすいものもちょっと他にな

    【みんな】Caffeより手軽かつ高速! Cで書かれた必要十分な深層学習フレームワーク darknetを試す【意外と知らない】:電脳ヒッチハイクガイド:電脳空間カウボーイズZZ(電脳空間カウボーイズ) - ニコニコチャンネル:生活
  • 勾配降下法の最適化アルゴリズムを概観する | POSTD

    (編注:2020/10/01、2016/07/29、いただいたフィードバックをもとに記事を修正いたしました。) 目次: さまざまな勾配降下法 バッチ勾配降下法 確率的勾配降下法 ミニバッチ勾配降下法 課題 勾配降下法を最適化するアルゴリズム Momentum(慣性) Nesterovの加速勾配降下法 Adagrad Adadelta RMSprop Adam アルゴリズムの可視化 どのオプティマイザを選ぶべき? SGDの並列化と分散化 Hogwild! Downpour SGD SGDのための遅延耐性アルゴリズム TensorFlow Elastic Averaging SGD 最適化されたSGDに対する更なる戦略 シャッフル学習とカリキュラム学習 バッチ正規化 早期終了 勾配ノイズ 結論 参考文献 勾配降下法は、最適化のための最も知られたアルゴリズムの1つです。これまではニューラルネット

    勾配降下法の最適化アルゴリズムを概観する | POSTD
  • LSTMネットワークの概要 - Qiita

    Christopher Olah氏のブログ記事 http://colah.github.io/posts/2015-08-Understanding-LSTMs/ の翻訳です。 翻訳の誤りなどあればご指摘お待ちしております。 リカレントニューラルネットワーク 人間は毎秒ゼロから思考を開始することはありません。このエッセイを読んでいる間、あなたは前の単語の理解に基づいて、各単語を理解します。すべてを捨てて、またゼロから思考を開始してはいません。あなたの思考は持続性を持っています。 従来のニューラルネットワークは、これを行うことができません、それは大きな欠点のように思えます。たとえば、映画の中の各時点でどのような種類の出来事が起こっているかを分類したいと想像してください。従来のニューラルネットワークが、映画の前の出来事についての推論を後のものに教えるためにどのように使用できるかは不明です。 リ

    LSTMネットワークの概要 - Qiita
  • ディープラーニングの広がりを可視化、予測する

    今後注目される可能性が高い研究内容を予測する では、その中でも今後有望視される可能性が高い分野とはどこかを予測してみます。 今回は、分析対象とするディープラーニングもその一部である機械学習を用います。中でも、「教師あり学習」という手法を用いました。 あらかじめ正解例を学習させてデータを分類する教師あり学習ですが、今回は正解例として、ネットワーク上において影響力が強い、または弱い点に関するデータを用いています(※2)。 ※2=先行研究として“大規模学術論文データの共著ネットワーク分析に基づく萌芽領域の中心研究者予測に関する研究”(2015,森)を参考にしています。用いたパラメータは以下の通りです。 「ノード特徴量」:次数、近接性、媒介性、クラスタリング係数、隣接ノードの平均次数、固有値、Pagerank、トライアド数、離心性 「クラスタ特徴量」:モジュラリティ、hitsスコア(authori

    ディープラーニングの広がりを可視化、予測する
  • Chainerを用いたマルウェア検出への取り組みについて - Longbow

    2015 - 12 - 13 Chainerを用いたマルウェア検出への取り組みについて この記事は Chainer Advent Calendar 2015 13日目 の記事です. はじめに Chainerで実装を進めているのですが,今回は構想的な話をします.ご容赦下さい. 私は 修士論文 でEディスカバリ *1 を対象に 自然言語処理 と 機械学習 を用いて研究を進めていますが,それとは別に,Deep Learningで マルウェア 検出に取り組んでいます.当は研究室配属された時に,これで論文書きたいと思っていましたが,色々大変であることが発覚したので,個人的に細々とやっている感じです.卒業までになんとか実現しようと奮闘しております. マルウェア を 機械学習 させるための戦略 マルウェア にも様々な種類がありますが,PEフォーマット *2 の マルウェア を対象にしております. マル

    Chainerを用いたマルウェア検出への取り組みについて - Longbow
  • わかるLSTM ~ 最近の動向と共に - Qiita

    Machine Learning Advent Calendar 2015 第14日です。去年のAdvent Calendarで味をしめたので今年も書きました。質問、指摘等歓迎です。 この記事の目的 ここ2~3年のDeep Learningブームに合わせて、リカレントニューラルネットワークの一種であるLong short-term memory(LSTM)の存在感が増してきています。LSTMは現在Google Voiceの基盤技術をはじめとした最先端の分野でも利用されていますが、その登場は1995年とそのイメージとは裏腹に歴史のあるモデルでもあります。ところがLSTMについて使ってみた記事はあれど、詳しく解説された日語文献はあまり見当たらない。はて、どういうことでしょうか。 記事ではLSTMの基礎をさらいつつ、一体全体LSTMとは何者なのか、LSTMはどこに向かうのか、その中身をまとめ

    わかるLSTM ~ 最近の動向と共に - Qiita
  • 機械学習はじめの一歩に役立つ記事のまとめ - Qiita

    機械学習」というワードになんとなく惹かれつつも、具体的にやりたいことがあるわけでもないので、手を動かすことなくただひたすら「いつかやる」ために解説記事やチュートリアル記事を集める日々を過ごしていたのですが、このままじゃイカン!と Machine Learning Advent Calendar に参加登録してみました。 が、やはり何もしないまま当日を迎えてしまったので、お茶濁しではありますが、せめて「機械学習ってどんな手法やライブラリがあって、どんな応用先があるのか?」というあたりをざっくり把握して最初に何をやるのか方向付けをするためにも、たまりにたまった機械学習系の記事をいったん整理してみようと思います。 機械学習の概要 特定のライブラリや手法の話ではなく、機械学習全般に関する解説。 機械学習チュートリアル@Jubatus Casual Talks 冒頭に、 初めて機械学習を聞いた⼈人

    機械学習はじめの一歩に役立つ記事のまとめ - Qiita
  • NAL研卒業研究ノート:: word2vecについて

    【第4章】word2vecの仕組み 《ニューラルネットワークの構造》 How to 「現実世界での距離を保ちつつ低次元のベクトルに変換」 理解するために基礎となるためにニューラルネットワークについて解説 *ニューラルネットワーク 生物の神経細胞(ニューロン)を参考に作られたモデル 形式ニューロンを組み合わせてネットワークを作ったもの *形式ニューロン ニューロンYへ他ニューロン出力x1,x2,x3が伝達される この際にニューロン間ごとに決められた実数値w1,w2,w3が掛けられる(*重み) つまりニューロンYには伝達された信号「x1w1x2w2x3w3」が入る=Y^in ニューロンYは入力Y^inにある関数f(*活性化関数)を適用したものを出力とする=Y^out *活性化関数 しきい値関数、シグモイド関数、Rectiler関数などがあり目的や計算の容易さで選択 今回は「1単語を入力として受

    a-lucky
    a-lucky 2015/09/24
    研究ノートまとめかた
  • 日本語で読める自然言語処理のチュートリアルスライドまとめ

    先日、自然言語処理の講演などをしていたときに、そもそも私なんかが話すよりも公開されているチュートリアルスライドを集めたほうが有用なんではないかと思い立って、これから自然言語処理を学びたい人や、ちょっと新しい分野を知りたい人向けに、日語で読めるチュートリアルスライドを分野別にまとめてみました。 主に、学会のチュートリアルや招待講演、それから研究者の方のWebページなどを参照しながら作りました。 自然言語処理全般系の資料や、少し境界的なテーマは入っていません。 また、ぱっと読めるスライドだけにしています。 幾つか手前味噌な資料も載せてます・・。 頑張って集めてみましたが、思ったほど集まりませんでした。 作っていてわかったのですが、意外とスライドを公開している人は少ないようです。 埋もれてしまうのはもったいないですね。 いずれ、英語で読めるスライドを集めてみようと思います。 そっちはそっちで、

  • Deep Learningの基礎と応用

    第14回情報科学技術フォーラム (FIT2015) のイベント企画「ビッグデータ解析のための機械学習技術」におけるチュートリアル講演資料です。ニューラルネットの基礎(計算グラフとしての定式化、勾配法、誤差逆伝播法)をさらったあと、最近画像や自然言語などで注目されている応用・手法について広く浅く紹介しています。Read less

    Deep Learningの基礎と応用
  • 1