タグ

Chainerとcnnに関するohnabeのブックマーク (13)

  • GitHub - leetenki/googlenet_chainer: GoogLeNetの学習済みモデルをchainerに移植し、他の画像分類問題でファインチューニングしやすいようにしたもの。

    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

    GitHub - leetenki/googlenet_chainer: GoogLeNetの学習済みモデルをchainerに移植し、他の画像分類問題でファインチューニングしやすいようにしたもの。
  • chainerでモデルを入れ子にしたら重みが更新されなかった話 - johshisha’s diary

    概要 chainerのmodel(Chainクラス)を入れ子にして使っていたら重みが更新されなかった. Chainクラスで重みの更新がされるのは self.init_scope()内に書いている linkオブジェクトだけだったことが判明し, with self.init_scope():以下に書くとちゃんと更新された. 状況 version chainer==3.0.0 やりたかったこと あるmodelAに layerNを追加して,新たに modelBを作成したかった. だめなコード 計算グラフを出力すると,ちゃんとmodelA -> layerN という風に接続されていたので,これでうまく接続されているものだと思っていた. が,実際に学習中に都度重みを出力してみると,modelA内の重み(l1, l2, l3の重み)が全く更新されていないことがわかった. # example/train_

    chainerでモデルを入れ子にしたら重みが更新されなかった話 - johshisha’s diary
  • 2016年の深層学習を用いた画像認識モデル - Qiita

    実装 検証が終わっていないモデルの使用は気をつけてください cifar10の数値感覚 現時点で97%以上ではSoTAになると思います。僕が知っている限り、最高精度は96.69%です。そろそろcifar100か別のデータセットを評価の軸にするべきかもしれません。 最近の傾向 今年はResnetファミリーの年だったと思います。特徴的な点として、深さ=精度が終わった点です。googlenetなどは昔から主張していましたが、ある程度深いと、深さよりも幅を広くしたほうが精度が上がるということが、様々な論文の結果で今年は示されました。3月くらいから、Resnetの幅を広くしたほうが良いという結果は副次的にぞろぞろ出ていて、5月23日に出たWide Residual Netowrksで決定的になったような形だと思います。幅が大事といったことが、今年はっきりした点であるように思います。 論文を俯瞰してみる

    2016年の深層学習を用いた画像認識モデル - Qiita
  • https://www.mathgram.xyz/entry/chainer/fcn

    https://www.mathgram.xyz/entry/chainer/fcn
  • 「Chainer による実践深層学習」の気づいたこといくつか - 木曜不足

    Chainer v2による実践深層学習 作者: 新納浩幸出版社/メーカー: オーム社発売日: 2017/09/15メディア: 単行この商品を含むブログ (2件) を見る Chainer について書かれた数少ない。 この9月に v2 対応版が出た。が、v3 リリース秒読みの時期に……というツラミはある*1。 深層学習ライブラリは現状「泳ぎ続けなければ死ぬ」(アップデート止まったら、終わったのかな? とか思っちゃう)ので、宿命的にしょうがないのかな。 社内でこの読書会とかしており、ちょいちょい間違いを見つけてしまう。 細かいのはもういいかなとは思うんだが(全部書いてたら正直キリがない)、せっかくの Chainer 、読者が誤解すると事故が起きそうなちょっと大きめの間違いを放置するのはもったいないので、ここにメモしておく。 自分で読んだのは RNN 以降なので、主にその範囲。 以下、章

  • ChainerでYOLO - Qiita

    はじめに YOLOとはYou Only Look Onceの略とのことですがまあ当て字ですかね。速度に特化した画像検出・認識用ニューラルネットワークで、Cベースのdarknetというフレームワーク上に構築されています。元論文はこちらです。特徴は、全画像からいきなりクラス確率と物体のバウンディングボックス座標を推論する点です。R-CNNなどと違って複数の候補領域に対して何度も推論しないでよいので、Look Onceだから速い、というわけですね。 TensorFlowに変換した例はすでにあるようなので、今回はchainer化をしてみます。Cで組まれているものをわざわざスクリプト言語に変換するのは中身を理解するためです。今回の記事では学習済の係数を使った推論のみを行いますが、論文を読んだ感じだと学習手順が最大の特徴の一つに思われるので、そのうちトレースしたいです。 コードはこちらを参照してくださ

    ChainerでYOLO - Qiita
  • ChainerによるCIFAR-10の一般物体認識 (1) - 人工知能に関する断創録

    Chainerによる畳み込みニューラルネットワークの実装(2015/10/7)のつづき。今回はMNISTの数字画像認識ではなく、CIFAR-10(2015/10/14)という画像データを使った一般物体認識をやってみた。画像を10個のクラスに分類するタスク。実装にはChainerを使った。 MNISTは1チャンネルの白黒画像だったけれどCIFAR-10は3チャンネル(RGB)のカラー画像なので少しだけ複雑になる。CIFAR-10(2015/10/14)でも書いたけれどCIFAR-10の提供データは、各画像サンプルがchannel(3チャンネル)、row(32ピクセル)、column(32ピクセル)のフラット形式3*32*32=3072次元ベクトルの形で格納されている。Chainerでは画像を (nsample, channel, height, width) の形式にする必要があるためres

    ChainerによるCIFAR-10の一般物体認識 (1) - 人工知能に関する断創録
  • Chainerでcifar-10画像分類を試してみる - catalinaの備忘録

    やっとchainerでCNNを動作させるところまで辿り着きました。かたりぃなです。 何がやりたいのか? ARというかHololensのMRで現実世界のオブジェクトを識別して追加の情報をユーザーに提示できれば楽しいだろうなと思っています。 HololensのAPIを軽く見たところ、深度マップなどの面倒は見てくれるようですが、画像からの物体検出などは見当たりませんでした。 画像処理といえばOpenCVなんかが有名で、最近はdnnモジュールが追加されているのでこいつを使って公開されている学習済みモデルを取り込めば一般物体認識はできそうですが、学習済みモデルを持ってくるだけでは私のやりたいことに届かなさそうです。 手作業で前処理や特徴抽出を記述していくのもアリかもしれませんが、そういう試行錯誤に時間を費やすのは勿体ないと思います。 なら自前でモデルを作ってDeepLearningのフレームワークを

    Chainerでcifar-10画像分類を試してみる - catalinaの備忘録
  • chainerの畳み込みニューラルネットワークで10種類の画像を識別(CIFAR-10) - AI-Programming

    <システムバージョン> ubuntu 14.04 python 3.5.1 chainer 1.7.0 CIFAR-10 and CIFAR-100 datasets 32x32pixelのカラー画像を10のクラスに分類します。 訓練画像が50000枚、テスト画像が10000枚です。 CIFAR-10のデータは、各画像サンプルがchannel(3チャンネル)、row(32ピクセル)、column(32ピクセル)のフラット形式3*32*32=3072次元ベクトルの形で格納されている。 Chainerでは画像を (Nsample, channel, height, width) の形式にする必要があるためreshape()して次元を変換している。 詳しくはここに書いてあります まずは、データの読み込み。 データのファイルはこのように分かれているために、読み込みには工夫が必要。 import s

    chainerの畳み込みニューラルネットワークで10種類の画像を識別(CIFAR-10) - AI-Programming
  • ChainerでCIFAR-10の分類を行ってみる - のんびりしているエンジニアの日記

    皆さんこんにちは お元気ですか。私は元気です。 前回はChainerの紹介をしました。nonbiri-tereka.hatenablog.com 日はこのChainerを使って、CIFAR-10の分類を行ってみようと思います。 アーキテクチャとして利用するのはConvolutional Neural Networkを利用します。 What is CIFAR-10 CIFAR-10 and CIFAR-100 datasetsにあるデータセットです。32x32pixelのカラー画像を10のクラスに分類する問題が含まれています。 画像の大きさはTraining画像が50000枚、Test画像が10000枚です。 研究とかのベンチマークでお世話になっている人も多いと思いますが・・・ 以下の図は家に掲載されているサンプル画像です。 データセットの読み込み CIFAR-10ではPythonでの読

    ChainerでCIFAR-10の分類を行ってみる - のんびりしているエンジニアの日記
  • https://github.com/dsanno/deep-learning-study/blob/master/doc/chainer_trainer.md

  • Convolutional Neural Networkを実装する - Qiita

    Deep Learning系のライブラリを試すのが流行っていますが、Exampleを動かすのはいいとしても、いざ実際のケースで使おうとするとうまくいかないことがよくあります。 なんとか動かしてみたけれど精度が出ない、データの加工の仕方が悪いのか、モデルのパラメーターが悪いのか、原因がぜんぜんわからん・・・という事態を乗り越えるには、やはり仕組みに対する理解が必要になってきます。 そんなわけで、編では画像の用意という一番最初のスタートラインから、Chainerで実装したCNNを学習させるところまで、行うべき手順とその理由を解説していきたいと思います。 前段として理論編を書いていますが、ここではライブラリなどで設定しているパラメーターが、理論編の側とどのようにマッチするのかについても見ていきたいと思います。 なお、今回紹介するノウハウは下記リポジトリにまとめています。画像認識を行う際に役立て

    Convolutional Neural Networkを実装する - Qiita
  • 画風を変換するアルゴリズム - Preferred Networks Research & Development

    Deep Neural Networkを使って画像を好きな画風に変換できるプログラムをChainerで実装し、公開しました。 https://github.com/mattya/chainer-gogh こんにちは、PFNリサーチャーの松元です。ブログの1行目はbotに持って行かれやすいので、3行目で挨拶してみました。 今回実装したのは”A Neural Algorithm of Artistic Style”(元論文)というアルゴリズムです。生成される画像の美しさと、画像認識のタスクで予め訓練したニューラルネットをそのまま流用できるというお手軽さから、世界中で話題になっています。このアルゴリズムの仕組みなどを説明したいと思います。 概要 2枚の画像を入力します。片方を「コンテンツ画像」、もう片方を「スタイル画像」としましょう。 このプログラムは、コンテンツ画像に書かれた物体の配置をそのま

    画風を変換するアルゴリズム - Preferred Networks Research & Development
  • 1