漢なら ROCm TensorFlow で AMD GPU でお手軽機械学習したいですよね! やりましょう! ROCm 版 TensorFlow が 1.9 から pip で入るようになり, ソースコードからビルドせずに済むようになりセットアップがお手軽になりました. (2018 年 9 月 26 日時点では 1.10 が最新です. ちなみにソースコードビルドは HIPCC でのカーネルコンパイルが激重なので 8 コアマシンでもコンパイルに 1 時間くらいかかります) 環境 Python 3.5(conda) Ubuntu 16.04 ROCm 1.9 インストール を参考に pip でインストールします. 他に rocm 関連のパッケージを入れておかないとエラーになりますので, 適宜インストールしておきます. 問題 すでに古い ROCm 環境があり, それを apt update でアッ
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 「1x1畳み込みを使うと計算効率がよくなるよ」という話は聞いたことあっても、具体的にどれだけ良くなるのかを理論的に議論されることはあまり多くないように思います。自分の理解も含めて、一度これをちゃんと整理したいと思います。少し数式多めですがご勘弁ください。 実験のコードはこちらにあります。 https://github.com/koshian2/Inception-bottleneck Summary 入力チャンネルがc, 出力がf, $c=\beta f$で、ボトルネックでのチャンネル圧縮が$\frac{f}{\alpha}$のとき、ボ
これなーに keras便利ですよね〜 モデル作って、精度のカーブをtensorboardで確認っと・・・ trainとvalが別れてグラフにプロットされてて、ちょっと見づらい。。 特にoverfitなどを確認する時は、trainとvalのグラフの精度のカーブを一緒に見たくなるので、できたら一緒にみたい! ということで、下みたいに一緒に見れるようにするtipsです。 やり方 以下のclassを作って、model.fitをする時の引数にcallbacks=[TrainValTensorBoard(write_graph=False)]を指定してあげる。 class TrainValTensorBoard(keras.callbacks.TensorBoard): def __init__(self, log_dir='../saved/', **kwargs): # Make the orig
乃木坂46のメンバー5人を分類する機械学習 夏休みに作っていたもののまとめです。 Aidemyさんのブログの記事 機械学習で乃木坂46を顔分類してみた のほとんど丸パクりです。他の題材考えてようかと思ったけど乃木坂にハマり始めていたのでそのままやることにしました。 自分のローカル環境でも同じことができるようにコードを直したり、ちょっとだけやり方変えてみた部分があります。 違う部分は次の3つです。 画像の枚数 参考記事ではメンバー1人につき50~70枚ほどなんですが、別のスクレイピングで170~230枚ほどの画像枚数に増やしました。 画像の水増し方法 参考記事では反転処理、閾値処理、ぼかしを採用していましたが、人間の顔を左右反転するのはどうなんだろうかと思ったので(実際まいやんのほくろとか左右非対称だし)、反転処理はやめました。 代わりに、顔の画像って左右にちょっと傾いてるものとかがあるので
What is Kubeflow?Kubeflow makes artificial intelligence and machine learning simple, portable, and scalable. We are an ecosystem of Kubernetes based components for each stage in the AI/ML Lifecycle with support for best-in-class open source tools and frameworks. Deploy Kubeflow anywhere you run Kubernetes.
(base) root@b789c278e622:/deep-learning-with-keras-ja/ch01# python keras_MINST_V1.py /opt/conda/lib/python3.6/site-packages/h5py/__init__.py:36: FutureWarning: Conversion of the second argument of issubdtype from `float` to `np.floating` is deprecated. In future, it will be treated as `np.float64 == np.dtype(float).type`. from ._conv import register_converters as _register_converters Using TensorF
顔検出 PyPI mtcnn 0.1.1 Multi-task Cascaded Convolutional Neural Networks for Face Detection, based on TensorFlow github MTCNN face detection implementation for TensorFlow, as a PIP package. Youtube Face detection with MTCNN Python3.4 +でのTensorFlow用のMTCNN顔検出器の実装 これは、FacenetのDavid Sandberg(FaceNetのMTCNN)からMTCNNの実装を参考にして書かれています。 これは、Zhang、Kらの論文に基づいている。 (2016)[ZHANG2016]。 そのBENCHMARKを示しており、どの程度実用的な速度がでる
と言うわけで、RTX2080を買ってみました 計算速度を比較するためにVGG16のファインチューニングを 下記の設定でやってみました。 GTX1080Tiは違うパソコンでやったため参考でお願いします GTX1080TiとRTX2080との速度比較ですが RTX2080のほうが11%ほど早い結果となりました。 GTX1080Tiの端末に新しく仮想環境を作成しRTX2080と各種ライブラリを 同じバージョンにしたところGTX1080Tiのほうが3%ほど早くなりました(泣 機械学習をするだけであればメモリが3GB多く、値段が4万円安い GTX1080Tiのほうが良さそうですね・・・ ※△1 CUDAを9.0->9.2の計算結果も掲載 ※△2 GTX1080Tiの結果を追加 ※△3 GTX1080Tiのライブラリのバージョン等を同じに ※△4 GTX1070のノートとGV100追加 計算内容 ・ト
前回の記事ではYOLO V3のKeras版をWatson Studioで動かして、学習済みモデルを使用した物体検出をやってみました。今回はこのモデルを自前の画像で学習させて任意のモノを検出するカスタム物体検出に挑戦します。大きな流れとしては以下のようになります。 教師データの作成 検出したい物体をアノテーションツールで学習させて教師データを作成します YOLOモデルの学習 Watson StudioのDLaaS(Deep Learning as a Service)機能を使ってYOLOモデルを学習します 物体検出 作成したモデルを使ってカスタム物体検出を実行します 今回も学習のためのコードは以下のものを参考にしています。 https://github.com/experiencor/keras-yolo3 1. 教師データの作成 今回は以下のような「IBM Watson」のアバターを新旧の
動機/対象 現在美女たちを機械学習させてみようと思い奮闘中なのですが、scikit-learnのニューラルネットワークライブラリではいまいち満足する結果が得られなかったので、TensorFlowに乗り換えちゃえyo!って感じです。美女を見分けられい機械はだだの機械だ:OpenCV, Python3による画像からの顔抽出 そこでTensorFlowの勉強としてまず、公式チュートリアルをやってみよう!と思いましたが、英語、、、メンドくさい。。。 -> Qiitaに載っているチュートリアルの翻訳を見ながらやればいいんだ! -> (おそらく)前のバージョンのチュートリアルの解説しか出て来ぬ。。。 -> 仕方ないから英語読むか。 よって対象は私と同じTensorFlowって美味しいの?系初心者です。解説も完全な翻訳ではなく、端折ったり、付け加えている部分があります。 なおTensorFlowのチュー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く