Watson Studio の Notebook で YOLO V3 を使って物体検出をしてみたので紹介します。 YOLOは こちら が本家のサイトになりますが、さまざまなディープラーニングのフレームワークにも移植されています。今回は以下のKeras版を参考に、Watson StudioのNotebookでも動かせることを確認しました。 手順 Watson Studioでプロジェクトを作成して、以下リンク先から Notebook を作成します。 https://github.com/schiyoda/YOLOV3-Keras/blob/master/yolov3_keras.ipynb Notebookでは本家のサイトでも公開されている学習済みモデルをKerasで使用できるように変換した上で、物体検出のテストをしています。今回は有名な犬の写真で物体検出できたことが確認できました。 その他の
こんな感じ 生成結果(64x64 png) 途中結果 ite0 ite20 ite100 ite200 ite300 ite400 ite500 背景 最近GAN(Generative Adversarial Network)で、いろんな画像を自動生成したり、ポスターも生成するなどの記事はたくさん目に入る。 どこまで出来るかを試してみたかった。 実現の仕方 こちら数字画像生成のgithubソースを参考し、改造した。 [2] わかったこと Convolution Networkの方は、Full Connected Networkより、生成した画像がスムーズ。 Full Connected Networkの場合は、どうしても雑音が入る。 通常のGANはハイパーパラメータに敏感。収束しないことがある。より安定性のあるDRAGANなどは今後試すべき。 Usage github source
VGG16をFine-tuningする際に初めて作られる方も多いと思いますが 出力層の書き方が2種類あったりして分かりづらかったので 対で書きてみました ※functionalで出力層を書いたのはこちらから 参考のスクリプトは VGG16をFine-tuningして5クラス分類するモデルを想定しています 動作概略 1)出力層なしのVGG16のモデルを読込 2)新しい出力層を作成 3)上記2個のモデルを接続 動作確認環境 python3.6.6 Tensorflow:1.10.0 Keras:2.2.2 参考スクリプト #import from keras.models import Model, Sequential from keras.layers import Activation, Dense, Flatten from keras.applications.vgg16 impor
VGG16をFine-tuningする際に初めて作られる方も多いと思いますが 出力層の書き方が2種類あったりして分かりづらかったので 対で書きてみました ※Sequentialで出力層を書いたのはこちらから 参考のスクリプトは VGG16をFine-tuningして5クラス分類するモデルを想定しています 動作概略 1)出力層なしのVGG16のモデルを読込 2)新しい出力層を作成 3)上記2個のモデルを接続 動作確認環境 python3.6.6 Tensorflow:1.10.0 Keras:2.2.2 参考スクリプト #import from keras.models import Model, Sequential from keras.layers import Activation, Dense, Flatten from keras.applications.vgg16 impor
#開発環境 jupyterとDockerを使って、Kerasで学習してます。 #問題だったこと モデルをロードしてさらに学習させたいけど、エポック数が0からになって上手く保存できない! 100epoch学習したあと追加で100epoch学習させたい! という時にどうしたら良いかわからずハマってしまったのでその解決策 #保存されるファイル名を変化させる さて、早速本題です. どうすればファイル名の{epoch:02d}部分を変更させることができるのか. 答えは簡単! model.fitメソッドに引数として 'initial_epoch' を追加すれば良いです. これだけで学習が101epoch目から始まるようになります. モデルをloadしなくなった時にはinitial_epochを0に戻すように気をつけましょう. #コールバックとは 学習と一緒に使うと効果的なのが、ModelCheckPo
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? Keras + TensorFlow で Ape-X を実装しました。 コードはgithubにあげてあります。 https://github.com/omurammm/apex_dqn 強化学習の知識として、 DQNまでは知っているとわかりやすいと思います。 DQNまでの勉強では以下のサイトが非常に参考になります。 ・ゼロからDeepまで学ぶ強化学習 ・強化学習について学んでみた。(その1) #Ape-Xとは 論文:DISTRIBUTED PRIORITIZED EXPERIENCE REPLAY 簡単にいうと、論文のタイトルにもあるよ
kerasを使ったMuti-task Learning(CNN + Autoencoder) 最新のモデルでは一般的になってきているMuti-taskなモデルについて取り上げたいと思います。 Multi-task Learningとは Muti-task Learning(MTL)とは、1つのネットワークで複数のタスクを解くモデルです。 MTLの内容はこちらの記事にわかりやすくまとめられています。 直感的な理解としては、人は新しいタスクを学習しようとするとき、これまでの知識を活用することでスムーズに新しいタスクを学習することができます。例えば、将棋ができる人とできない人が新しくチェスを覚えようと思ったとき、将棋ができる人の方が覚えが早いことが多いと思います。 このように別の分野の知識を複合的に学習することで、学習のスピードや最終的な精度を上げようということがMTLのモチベーションです。 今
表題そのままのスクリプトです VGG16とSVMを使った判別機を作る際に使用したものの一部を切り取り、単独で機能するようにしました #動作概略 1)img2ndarray.pyと同じフォルダ内に保存された画像ファイルを読み込み 2)画像サイズを224x224にリサイズ後、Numpy配列化 3)**[npy]**ファイルとして保存 #動作確認環境 python3.6.6 Tensorflow:1.10.0 Keras:2.2.2 #スクリプト全体 import glob import numpy as np from keras.preprocessing.image import load_img,img_to_array #image array size img_size = (224,224) #load images Folder dir_name = 'test1' #File
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く