タグ

ブックマーク / qiita.com/yu4u (4)

  • みんな大好き物体検出のデファクトスタンダードFaster R-CNNの特許を読んだ - Qiita

    はじめに Faster R-CNN1 の特許らしいです。 各位 Faster R-CNN特許です。ご査収ください。 Faster R-CNN patent was granted.https://t.co/Bxnjz5s1WU pic.twitter.com/MwAohEN712 — Yosuke Shinya (@shinya7y) 2018年1月8日 わたし、気になります!ということで、どんな感じか翻訳&解説してみます。 (2018/01/15 追記)弁理士の先生にコメントを頂きましたのでまとめに記載しました! Disclaimer 外国出願はあまりしたことがないので米国特許の請求項の読み方に慣れているわけではなく、並列・従属関係が間違っている可能性があります。特に請求項4については、どう読んだのかを文末に記載してありますのでプロの方のコメントお待ちしております=D また、請求項のみを

    みんな大好き物体検出のデファクトスタンダードFaster R-CNNの特許を読んだ - Qiita
  • 畳み込みニューラルネットワークの最新研究動向 (〜2017) - Qiita

    昨年に引き続きDeep Learningやっていき Advent Calendar 2017の25日目の滑り込み記事で,畳み込みニューラルネットワークの歴史および最新の研究動向についてのサーベイです.2017年12月のPRMU研究会にて発表した,畳み込みニューラルネットワークについてのサーベイをベースに追記を行ったものになります. はじめに 畳み込みニューラルネットワーク (Convolutional Neural Networks; CNN) (以降CNN)は,主に画像認識に利用されるニューラルネットワークの一種である.CNNの原型は,生物の脳の視覚野に関する神経生理学的な知見1を元に考案されたNeocognitron2に見ることができる.Neocognitronは,特徴抽出を行なう単純型細胞に対応する畳み込み層と,位置ずれを許容する働きを持つ複雑型細胞に対応するpooling層とを交互

    畳み込みニューラルネットワークの最新研究動向 (〜2017) - Qiita
  • 府大生が趣味ではなくニューラルネットワークの認識精度世界一を奪還してしまった論文を読んだ - Qiita

    記事の前に下記の記事をどうぞ。 府大生が趣味で世界一の認識精度を持つニューラルネットワークを開発してしまった論文を読んだ (2017/10/24追記)ご人よりShakeDropの論文では、2つを比較した上でCutoutではなく、Random Erasingを利用しているとコメントを頂きましたので修正しました。 はじめに 府大生がニューラルネットワークの「認識精度世界一」を奪還してしまったようです。 一般物体認識分野「認識精度 世界一」を奪還! 府大生が開発したニューラルネットワーク https://t.co/9HSt7iGl55 — ニーシェス (@lachesis1120) 2017年10月19日 前回は趣味だったのが、今回は晴れて業になったようです。 具体的な内容は、10月に開催された電子情報通信学会のパターン認識・メディア理解 (PRMU) 研究会の技術報告1にありますので、解

    府大生が趣味ではなくニューラルネットワークの認識精度世界一を奪還してしまった論文を読んだ - Qiita
  • MobileNet(v1/2)、ShuffleNet等の高速なモデルの構成要素と何故高速なのかの解説 - Qiita

    はじめに MobileNet系の高速なモデルアーキテクチャに利用される構成要素と、それらを利用したモデルについて、何故高速なのか観点と、空間方向の畳み込みとチャネル方向の畳み込みがどのようになされているかという観点で整理を行う。 高速なモデルアーキテクチャに利用される構成要素 まず、高速なモデルに利用される畳み込み構成要素について、計算量と、空間方向の畳み込みとチャネル方向の畳み込みがどのようになっているかを説明する。 まず、一般的な畳み込みの計算量を確認する。 入力特徴マップのサイズを$H \times W$、入力チャネル数を$N$、カーネルサイズを$K \times K$、出力チャネル数を$M$とすると、一般的な畳み込み層の計算量は、$H W N K^2 M$となる。 これは、入力特徴マップの1箇所につき畳み込みのコストが$K^2 N$で、これを入力特徴マップの$H W$箇所に適用する

    MobileNet(v1/2)、ShuffleNet等の高速なモデルの構成要素と何故高速なのかの解説 - Qiita
  • 1