やること ゴリラの画像とチンパンジーの画像を分類してくれる分類器を作ろうと思います。 ゴリラの画像16枚、チンパンジーの画像16枚で試してみます。 環境 OS X El Capitan 10.11.6 今回はMacOSにDockerでCaffeを導入しようと思います。Ubuntuで導入した方が色々とよさそうな感じだったんですが、今回はDockerの使い方と軽くCaffeを触りたかっただけなのでMacOSにしました。 docker DockerをMacにインストールする (更新:2017/5/26) dockerが無事インストールできたら上のメニューバーに鯨のマークが出ます。可愛いですね。 docker version Client: Version: 17.09.1-ce API version: 1.32 Go version: go1.8.3 Git commit: 19e2cf6 B
Deep Learningフレームワークの最新のトレンドを調べたいと思い、現時点の情報をGitHubリポジトリから自動で取得するpythonスクリプトを作りました。 取得する情報 各リポジトリに対して、以下の情報を取得します。 Starの数 Forkの数 Issueの数 情報を取得するリポジトリ 以下のフレームワークのトレンドを取得します。 Tensorflow Chainer Caffe 実行環境 Ubuntu 16.04 LTS Python 3.6.0 jqコマンド(sudo apt-get install jq) スクリプト import subprocess def res_cmd(cmd): return subprocess.Popen( cmd, stdout = subprocess.PIPE, shell=True).communicate()[0] # targets
このIntel® Movidius™ Neural Compute Stickは、イメージ最高。。。1万円でRasPiが高性能なDLマシンになっちゃう♬ ということで、半年以上たったので安定しているはずということで試してみました。 というか、RasPi使っていろいろ物体検出とかやれそうだなということで期待してやってみました。 結果から書くと、出来ました! 残念ながら、ここにたどり着けたのは幸運だったかもしれません。 ということで、苦労話は無しで、マネしてもらえればほぼ出来ると思います。 ※参考はたくさんありますが、。。すべての記載は控えます メモリは4GB以上空きがないと厳しいと思います。 ※ウワンはSTRETCH完了時2GB残ってましたが、途中削除しつつ進めましたが最後はぎりぎりになりました やるべきこと (1)ほぼ公式のとおりやる Intel® Movidius™ NCS Quick
はじめに 今回は、今年(2018)の4月に発表された、物体検出モデルPeleeについて調べてみました。 Peleeについて Peleeの論文のタイトルは、「Pelee: A Real-Time Object Detection System on Mobile Devices」です。 タイトルの通り、モバイル端末でのリアルタイムでの物体検出に適したモデルらしいです。 つまり、処理速度を上げつつ、モデルの大きさ(パラメータ数)を抑えたモデルらしいです。 Peleeモデルのテクニック PeleeモデルはDenseNetベースのモデルで、これをSSDと組み合わせたようです。 [Densely Connected Convolutional Networks](https://arxiv.org/pdf/1608.06993v3.pdf) Peleeの主なテクニックとして、以下のようなものが上げら
def build_generator(self): model = Sequential() model.add(Dense(input_dim=(self.z_dim + CLASS_NUM), output_dim=1024)) # z=100, y=10 model.add(BatchNormalization(momentum=0.8)) model.add(LeakyReLU(0.2)) model.add(Dense(128*8*8)) model.add(BatchNormalization(momentum=0.8)) model.add(LeakyReLU(0.2)) model.add(Reshape((8,8,128))) model.add(UpSampling2D((2,2))) model.add(Convolution2D(128,5,5,border_mo
Caffeを使ってみた Caffe2があるのですが、WindowsではGPUで現状(2018.6)は使うことが出来ないので、Caffeにしました。 WindowsのCaffeはビルドなどしても良いのですが、バイナリバージョンが公式で出ているので、動かすだけであれば簡単です。 以下の手順で動かしていきます。 学習画像、テスト画像、評価画像の3種類を用意する データベースを作る 平均値画像を作る 学習する 評価する はじめに はじめに,Windows版のCaffeを入手します。 かつては,ビルドなどをしなければならないのですが,とりあえずいろいろと改良しなければビルド版を入手したらOK GPU,CPUなど好きなものをダウンロードしてください。 プログラムはここ ダウンロード後は解凍して、フォルダの中に[tools]と[example]のフォルダを作成しておきましょう。 [tools]には、後に
NVIDIA主催のAI講習でAI開発の手ほどきを受けてウキウキの会社員のみなさんがいきなりぶち当たる壁「Linux機」の手配。おじさんはそんな辛い気持ちよくわかります。 そんな事情はわかりつつ、NVIDIA DIGITS 6.0をWindowsで使う! - 夜間飛行ではwindows版BVLC/CaffeでDIGITSを動かしたのですが、オリジナルがビルドできないのって気になります。 cmakeの扱いやCIツールのお勉強、WindowsとLinuxの差異へのさらなる習熟を目指してNVIDIAのNVCaffe 0.15をWindows機向けにbuildしましたのでご報告です。 とりあえずバイナリ欲しい人向け この辺にリンク貼っておいたんで… Prebuild binariesから持っていってくだされ。 caffe/README.md at caffe-0.15-win · Chachay/c
KerasのImageDataGeneratorはData Augmentation(水増し)にとても便利ですが、最近水増しの方法がいろいろ研究されてきて物足りないなと感じることがあります。KerasオリジナルのImageDataGeneratorを継承・拡張して、独自のImageDataGeneratorを作る方法を考えてみました。 クラス継承なのでオリジナルのImageDataGeneratorと全く同じ感覚で使えます。 参考 以下のサイトを参考にしました。 Kerasでデータ拡張(Data Augmentation)後の画像を表示する flow_from_dirctoryで流した画像をpyplotで表示させる方法について解説されています。 新たなdata augmentation手法mixupを試してみた Mix-upの原著論文やその実装について解説されています。 Extending
画像用のネットワークを調整する際、入力サイズを増やしたら、画像読込時にメモリに乗り切らなくなった問題を解消した際のメモです。 前提環境 Ubuntu 16.04 Keras 2.1.6 課題 学習に使う画像データの総容量が大きくなり、一度に読込できなくなった。 そのため、一定サイズ毎に区切りながらデータを読み込む必要が発生した。 概要 Model.fitの代わりに、Model.fit_generatorメソッドを使って学習する。 fit_generatorメソッドには、学習・検証データとして、Generatorオブジェクトを渡す。 Generatorオブジェクトは、バッチ単位にデータを提供する仕組みを実装する。 実装例 class MyGenerator(Sequence): """Custom generator""" def __init__(self, data_paths, dat
前編では、ヒートマップを使って異常個所を可視化しました。 後編では、従来手法と提案手法を数値的に比較してみます。 使うツールは、ROC曲線です。 ROC曲線 ROC曲線は、ラベル間のデータ数に差があるときに使われます。 ROC曲線について、詳しく知りたい方はこちら↓を参考にしてください。 http://www.randpy.tokyo/entry/roc_auc 今回は、ラベル間のデータ数に大きな差はありませんが、論文にならって ROC曲線を描画します。最終的に、AUCを算出して、これが大きい方が優れた 異常検知器といえます。 コードの解説 コードの一部を解説します。 異常スコアの算出 論文によると、異常判定の基準は以下のとおりです。 このパッチ全てに関して異常度を算出し、少なくとも1枚が閾値を 超えてる場合、テストデータは異常であると判断した. パッチというのは、前編でお伝えした小窓に相
「PyTorchは速いぞ」という記事がいろいろ出てて気になったので、何番煎じかわかりませんが、どのぐらい速いんだろうと思って実験してみました。実験するのはこの前作ったDenseNetです。 環境 Google Colab GPUはTesla K80、ハードウェアアクセラレータはON Kerasのバージョンは2.1.6、PyTorchのバージョンは0.4.1 条件 Dense Netの論文の条件を若干アレンジしたものです。Data Augmentationはシンプルにしました。 成長率K=16とし、DenseNet-121と同じ構成のDenseNetを作る CIFAR-10を分類する Data Augmentationは左右反転、ランダムクロップのみ。 L2正則化(Weight Decay)に2e-4(0.0002)。ドロップアウトはなし オプティマイザーはAdam、初期の学習率は0.001
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く