Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

背景 Keras (Tensorflow backend)で一台のパソコンに載っている複数GPUでトレーニング処理を回すとき、中間結果(チェックポイント)のモデルを、keras.callbacks.ModelCheckpoint関数をコールバック関数に設定して定期保存しようとしたとき、以下のエラーが発生。 Epoch 01000: saving model to ./log_Stacked_Hourglass_Network_v1_320x240_fp16_3rd_multiGPU/weights.1000-0.0039607391-0.0131516113.hdf5 Traceback (most recent call last): File "train_customized_SHN_resume_baobab_fp16_1stack_multiGPU.py", line 304,
ディープラーニングを学ぶ最初の一歩としてTensorFlowのインストールとチュートリアルにあるKerasハイレベルAPIを使った基本的な分類のサンプルを試したので資料としてまとめてみました。(資料としてはもはや何番煎じかもわからないぐらいですが...) まだまだ理解も浅いため説明はかなりざっくりです(;´Д`) コマンドはRaspberry Pi 3BにRaspbian9.0がインストールされた環境で実行しています。 インストール手順およびコードサンプルは2018.08.23時点の公式サイトから引用したものです。[1][2] Attribution Portions of this page are modifications based on work created and shared by Google and used according to terms described
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? タイトルと同じことを心でつぶやいている人は結構いると思います。 当記事では、「どんな仕組みで動くのか」ではなく、「どうすれば動くのか」に焦点を当てています。 飛行機はどんな理屈で飛ぶのか、ではなく、飛行機はどう操作すれば飛ぶのか、という感じです。 要するに何すりゃいいの 端的に言えば次の通り: 学習済みモデルを用意 プロジェクトにTensorFlowのライブラリを追加 TensorFlowInferenceInterface をnewして学習済みモデルを読み込ませる 画像とかを配列化してTensorFlowInferenceInterf
pooling関連sub-class一覧 AveragePooling1D AveragePooling2D AveragePooling3D AvgPool1D AvgPool2D AvgPool3D GlobalAveragePooling1D GlobalAveragePooling2D GlobalAveragePooling3D GlobalAvgPool1D GlobalAvgPool2D GlobalAvgPool3D GlobalMaxPool1D GlobalMaxPool2D GlobalMaxPool3D GlobalMaxPooling1D GlobalMaxPooling2D GlobalMaxPooling3D MaxPool1D MaxPool2D MaxPool3D MaxPooling1D MaxPooling2D MaxPooling3D よく見ると、名
結論 UbuntuとNvidia-docker2を使うことで、GPU付きPCにおいて、Keras(Tensorflow)を利用可能なPythonプログラム環境を超簡単に構築できる! 環境 ・Ubuntu 18.04 ・GeForce GTX1080 すること ・NVIDIAドライバのインストール ・docker-ceのインストール ・Nvidia-docker2のインストール ・コンテナ内で、GPUを使って、Kerasでプログラムを動かす。 (ネットの記事によっては、ホスト側にCUDAをインストールしているが、コンテナ内で実行するにあたって必要ないようだ。) はじめに CentOS7にTensorflow-gpuを使える環境を構築したことがあるものの、そのときはドライバーを入れたり、CUDAを入れたりで1日を費やした。ネットの情報を見ると、UbuntuとNvidia-dockerで簡単に環
# generate toy data n_s = 1000 n_t = 1000 n_classes = 3 p_s = [0.4, 0.3, 0.3] p_t = [0.4, 0.3, 0.3] mu_s_1 = [0.0, 0.0] sig_s_1 = [0.2, 0.2] mu_s_2 = [0.0, 1.0] sig_s_2 = sig_s_1 mu_s_3 = [0.5, 0.5] sig_s_3 = sig_s_1 mu_t_1 = [2.8, 1.3] sig_t_1 = sig_s_1 mu_t_2 = [1.7, 0.3] sig_t_2 = sig_s_1 mu_t_3 = [2.0, 1.0] sig_t_3 = sig_s_1 y_s = np.random.choice(n_classes, n_s, p = p_s) y_s_one_hot = np.iden
//1日ごと d3.scaleTime() .domain([new Date(2018, 8, 1), new Date(2018, 9,1 )]) .ticks(d3.timeDay, 1) //区間指定 //2日ごと d3.scaleTime() .domain([new Date(2018, 8, 1), new Date(2018, 9,1 )]) .ticks(d3.timeDay, 2) //月曜日ごと d3.scaleTime() .domain([new Date(2018, 8, 1), new Date(2018, 9,1 )]) .ticks(d3.timeMonday, 1) //1時間ごと d3.scaleTime() .domain([new Date(2018, 8, 1), new Date(2018, 8,2 )]) .ticks(d3.timeHour
Pythonでmatplotlib.basemapを使って地図を描こうと試したとき、 エラー(AttributeError: 'AxesSubplot' object has no attribute 'get_axis_bgcolor')がでて困りました。 その対処法がわかったの共有します。 matplotlibをつかって地図を描きたいかたは、このページをご参考にしてください。 matplotlib.basemapで簡単にマップを描画する このページを参考にして、matplotlib.basemapのモジュールをインストールします。 そして、このページにあるコードを実行すると、以下のエラーがでてきます。 File "/Users/anaconda3/lib/python3.6/site-packages/mpl_toolkits/basemap/__init__.py", line 17
下記のページを参考に、Twitterのデータを解析し緯度経度をmatplotlib.basemapに描くときに 発生したエラーとその対処法について示します。 Twitterのデータ解析で参考にしたのが以下のページです。 スタバTwitterデータ位置情報のビジュアライゼーションと分析 これを参考に衛星画像にTwitterデータより取得した緯度経度をプロットしようとしたところ、 以下のエラーが発生しました。 File "/Users/******/anaconda3/lib/python3.6/site-packages/mpl_toolkits/basemap/__init__.py", line 3982, in bluemarble return self.warpimage(image='bluemarble',scale=scale,**kwargs) File "/Users/k
import pandas as pd from os.path import join from sklearn.utils import shuffle emotions = ["happy", "sad", ["disgust", "disgust2"], "angry", "fear", "surprise"] dir_path = "gathering/ja_tweets_sentiment" size = 60000 df = [] for i, es in enumerate(emotions): if isinstance(es, list): for e in es: data = shuffle(pd.read_json(join(dir_path, "{}.json".format(e)))).iloc[:int(size/len(es))] data['label'
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? # generate toy data n_s = 1000 n_t = 1000 n_classes = 3 p_s = [0.4, 0.3, 0.3] p_t = [0.4, 0.3, 0.3] mu_s_1 = [0.0, 0.0] sig_s_1 = [0.2, 0.2] mu_s_2 = [0.0, 1.0] sig_s_2 = sig_s_1 mu_s_3 = [0.5, 0.5] sig_s_3 = sig_s_1 mu_t_1 = [2.8, 1.3] sig_t_1 = sig_s_1 mu_t_2 = [1.7, 0
オブジェクト検出とやらをTensorflowでやってみたい → APIがある!試してみる エラーに苦しむもなんとか動かせたのでその記録 環境 Windows10 Tensorflow-gpu 1.8.0 Gforce GTX 1080 Anaconda3.5.1.0(Python3.6) ※オフラインで使用 ※Tensorflowの環境は構築済 tensorflow/modelsを入手 以下のURLからzipファイルをダウンロード https://github.com/tensorflow/models zipファイルを適当な場所で解凍(models-masterのフォルダできる) チュートリアルにチャレンジ 以下のURLを参考にしながらチュートリアルにチャレンジ(これだとGoogle Cloudで学習させてますが、今回はローカルで) https://github.com/tensorfl
前提 写真に映った人のポーズ推定をする方法としてOpenPose( https://arxiv.org/abs/1611.08050 )がある。 検出方法はたしか各部(二の腕とかふとももとか)を判別し、それのもっともらしい接続を導くことで全身の推定をするとかだったはず。 別の方法を思いついたのでやってみた。 人の3Dのモデルをどう移動、関節回転させれば画像中の人にうまく重なるかで推定を行う。 こんな感じ。 人物画像を入力し、モデルの中心である骨盤のx,y,zの位置と3軸角度、各部位の3軸角度を推定できればOK。 CNNで人物画像を入力とし、複数の値を同時に回帰で出力し推定する。 CNNにはDenseNet( https://arxiv.org/abs/1608.06993 )を使う。 とりあえずフィージビリティスタディで、3Dモデルの関節をランダムに曲げた画像を作って入力画像とし、回転角度
tensorで与えられた Tensor を、shapeで与えられたTensorShapeに変換する。 tensorの各 dimension の size の和と、shapeの合計が一緒じゃないとエラーになる。 shapeのどれかの要素に-1を与えると、 flat な1次元にする。性質上、1つの index にしか指定できない。 shapeに[]を与えると、スカラーにして返す。 公式Example # tensor 't' is [1, 2, 3, 4, 5, 6, 7, 8, 9] # tensor 't' has shape [9] reshape(t, [3, 3]) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9]] # tensor 't' is [[[1, 1], [2, 2]], # [[3, 3], [4, 4]]] # tensor 't' has
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く