はじめに 仕事の話がきっかけですが、顔写真に対する証明写真としての適正具合を画像分類で判定できるんじゃないか? という個人的興味がわいたため、適当にWebで顔写真を集めて VGG16 をベースに転移学習した Keras のお試しモデルを作りました。0.0 ~ 1.0 の不適切度を出力し、しきい値 0.5 で 93% くらいの精度でした。 現場のサーバーが Windows Server なので、もしそこで動かすならということで「C#で学習済みVGG16モデルを使ってアプリを作る方法」を参考に VisualStudio2017 と TensorFlowSharp を使って動くことを確認しましたが、ついでに現場の開発用IDEである VisualStudio2010 でもビルドできるようにしてみました。 作ったもの github に TensorFlowSharpNet40 というレポジトリで公開
--profile-child-processesと-oについてる%pに注意。 前者のオプションでjupyterからpythonまで芋づる式に拾ってくれるようになります。このオプションを指定した場合は出力ファイル名に%p(プロセス番号に置換)を含めないと駄目らしい。 2. Jupyter側で操作 Jupyter notebook側(ブラウザ)でtensorflow実行、終わったらDOS窓でCtrl+Cして終了させます。 最初は前記事のImages/Pix2Pixを解析しようとしたんですが、プロファイル結果が訳わからないことになったのでもう少し単純なものを。 Keras作者の本を写経したやつが残ってたので、これを使うことにしました。3.5章のやつです。 fp16/fp32の切り替えは例によってkeras.backend.set_floatx()で行っています。 # 題材はロイター記事の解析
初めての機械学習 初めて機械学習を行う方向け、初めての機械学習特集です。 今回は機械学習とはの概要と開発環境について紹介していきます。 機械学習とは データから知識を引きだし活用すること。 大きく教師あり学習と教師なし学習の2種類ある。 教師あり学習 ユーザーが入力データと望ましい出力のペア群をアルコリズムに与える。このペアのデータを「教師」としてアルコリズムは出力を生成するからである。詳しくは次回紹介。 教師なし学習 ユーザーが入力データのみをアルコリズムに与える。よって出力結果はどういったものになるか、わからない。詳しくは第3回で。 開発環境 Visual Studio Code マイクロソフトが開発しているソースコードエディタ。 Windows、Mac OS、Linux上でも使え、マークダウン エディタとしても使える優れもの。 多言語対応、拡張機能もあり、Pythonのデバックを可能
という状況で、どちらもCUDA10は組み込まれていません(10/9現在)。 なければビルド...ということでビルドしてみましたが、どちらも一筋縄ではビルドできず。 そもそもWindowsビルドなんてそんな検証されてない(であろう)ため、解決策を探すのに難儀しましたが、こちらの神記事のお蔭で無事解決。 自分がWindowsビルドで嵌った以下4か所はすべてこの文書でカバーされてました。 VC2015 update3以上じゃないとだめ(VS2017 CommunityはOK) checkout version/configure.pyで成功する組み合わせ(v1.11+CUDA10.0+CuDNN7.3.1でOK) cuda/half.hでビルドエラーが出る問題(patchで対応) ビルドは通るんだけどパッケージができない問題(zipファイルが2GBを超えないよう手修正) なおビルド時のconfi
numpy & pandasの講座の演習課題でハマったのでメモ。 環境は、anaconda3でまとめてインストールした、python3.6.5、pandas0.23.0 DataFrameの値を変更したいときはqueryではなくlocを使う。 例えばこんなDataFrameがあったとする In [2]: df = pd.DataFrame({"score":[10, 20, 30], ...: "address":["Kashiwa", "Matsudo", "Noda"], ...: "weight":[70, 80, 90]}, ...: columns = ["score", "weight", "address"]) ...: df.index = ["Taro", "Jiro", "Hanako"] ...: df ...: Out[2]: score weight addres
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? はじめに 2018年のプロ野球レギュラーシーズンも残りわずかです。 今年は悪天候による中止が多く、クライマックスシリーズ初日にまだレギュラーシーズンの試合をやっているという不思議な年になりました…。 今年の注目は、なんと言っても野手最多タイ7球団競合の清宮幸太郎選手。現在の1軍成績は、あと2試合を残し、「.200 7本塁打 18打点」となっています。ルーキーにしては十分な活躍ではありますが、まだ打線の主軸を張れるような成績ではありません。当初の期待が大きすぎたために、イマイチなイメージを持たれている方も多いのではないのでしょうか。 とい
これまで、KerasでAutoEncoderとか、KerasでAutoEncoderその2とかの記事を書いてきたんだけれど、これをGoogle Colaboratoryで動かしてみようか、というココロミについて。 Google Colaboratoryで動かせば、GPUが使えるのが大きい。 目的 手書きの数字の「1」を学習する 手書きの「1以外の数字」が入力された際に、その画像が「1」とは何やら違う、ということを示す まずは、KerasでAutoEncoderその2で書いたネタを、tensorflowのKerasで動作するようにするのがゴール。 Colab上で実装する Colabでpip install -U Kerasしようかと思ったけれど、tf.kerasを使うことにする。 まずは、Colabの「ファイル」メニューで「Python3の新しいノートブック」を選択して、ノートブックを作成す
以下のshell sessionでは (base) root@f19e2f06eabb:/#は入力促進記号(comman prompt)です。実際には数字の部分が違うかもしれません。この行の#の右側を入力してください。 それ以外の行は出力です。出力にエラー、違いがあれば、コメント欄などでご連絡くださると幸いです。 それぞれの章のフォルダに移動します。 dockerの中と、dockerを起動したOSのシェルとが表示が似ている場合には、どちらで捜査しているか間違えることがあります。dockerの入力促進記号(comman prompt)に気をつけてください。 ファイル共有または複写 dockerとdockerを起動したOSでは、ファイル共有をするか、ファイル複写するかして、生成したファイルをブラウザ等表示させてください。参考文献欄にやり方のURLを記載しています。 複写の場合は、dockerを
◆ はじめに 先月ようやく、今時のGPU付きのノートパソコンを購入できたので、本格的に趣味でDeepLearningに取り組めるようになった。 ただ、セマンティック・セグメンテーションに興味を持ってあれこれとモデルを作り始めてみたものの、最終生成されたモデルのサイズが 500MB とか、200MB とか、ロースペック端末では現実的に利用不可能な巨大なサイズとなることが分かり、途方に暮れていた。 都合上、 Pure Caffe や Pure Tensorflow 、あるいは、それらの派生フレームワーク で実装できないモデルは除外して検証してきている。 目的の本質は、 Neural Compute Stick + RapberryPi の構成でセマンティック・セグメンテーションをブーストすること、なのだが、NCSDK側のAPIが各レイヤーに対応していない、あるいは、中間コード生成時に floa
コードの解説 (2)もお読み頂きありがとうございます。 それでは、さっそく、コードの解説に移らせていただきたいと思います。まずはganの仕組みをしっかり理解する必要があります。原論文をきちんと読んだ上で、実装に即した形で説明したいと思います。 GANの実装の仕組み 基本の構成要素 GANは、2つのニューラルネットワークでできています。 generaterとdescriminaterです。面倒なので、g,dと呼びます。gは、ニセの画像を作り出すニューラルネットワークです。dは、gが作ったニセの画像と、本物の画像を識別するニューラルネットワークです。 なので、gが偽造者、dが判別者などと呼ばれたりもします。 gとdをトレーニングしていくと、最終的には、本物っぽい画像を生み出すgが得られることになります。このgを使えば、以後、本物っぽい画像をいくらでも生成できることになります。 gとdの実装理念
概要 TensorFlowに導入されているEager Modeについて、プログラムの書き方を理解するため、Kerasとの書き方の比較をしてみました。また、学習結果の差がどうなるかを検証しました。 環境 TensorFlow v1.10 Windows10 Eager Modeの起動 まずは、TensorFlowをEagerModeに切り替えます。KerasはEagerModeにしておいても動くようです。 import tensorflow as tf tf.enable_eager_execution() tfe = tf.contrib.eager print("TensorFlow version: {}".format(tf.VERSION)) # TensorFlowのバージョン確認 print("Eager execution: {}".format(tf.executing_e
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く