Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
結論 UbuntuとNvidia-docker2を使うことで、GPU付きPCにおいて、Keras(Tensorflow)を利用可能なPythonプログラム環境を超簡単に構築できる! 環境 ・Ubuntu 18.04 ・GeForce GTX1080 すること ・NVIDIAドライバのインストール ・docker-ceのインストール ・Nvidia-docker2のインストール ・コンテナ内で、GPUを使って、Kerasでプログラムを動かす。 (ネットの記事によっては、ホスト側にCUDAをインストールしているが、コンテナ内で実行するにあたって必要ないようだ。) はじめに CentOS7にTensorflow-gpuを使える環境を構築したことがあるものの、そのときはドライバーを入れたり、CUDAを入れたりで1日を費やした。ネットの情報を見ると、UbuntuとNvidia-dockerで簡単に環
# generate toy data n_s = 1000 n_t = 1000 n_classes = 3 p_s = [0.4, 0.3, 0.3] p_t = [0.4, 0.3, 0.3] mu_s_1 = [0.0, 0.0] sig_s_1 = [0.2, 0.2] mu_s_2 = [0.0, 1.0] sig_s_2 = sig_s_1 mu_s_3 = [0.5, 0.5] sig_s_3 = sig_s_1 mu_t_1 = [2.8, 1.3] sig_t_1 = sig_s_1 mu_t_2 = [1.7, 0.3] sig_t_2 = sig_s_1 mu_t_3 = [2.0, 1.0] sig_t_3 = sig_s_1 y_s = np.random.choice(n_classes, n_s, p = p_s) y_s_one_hot = np.iden
1日目 Kaggleにサインアップ〜Competitionに登録 https://www.kaggle.com/ Googleアカウントなどがあれば簡単にアカウントは作成できます。Competitionに参加するまでは以下の記事が参考になったので掲載させていただきます。 Kaggle事始め https://qiita.com/taka4sato/items/802c494fdebeaa7f43b7 ↓ログイン後のトップページ ↓コンペティション一覧ページ コンペを選んで「Join Competition」をクリックし、規約に同意すると参加完了です。 参加した「Home Credit Default Risk Competition」は、2018/8/29 11:59 PM (UTC)が最終締め切りでした。 https://www.kaggle.com/c/home-credit-defau
import pandas as pd from os.path import join from sklearn.utils import shuffle emotions = ["happy", "sad", ["disgust", "disgust2"], "angry", "fear", "surprise"] dir_path = "gathering/ja_tweets_sentiment" size = 60000 df = [] for i, es in enumerate(emotions): if isinstance(es, list): for e in es: data = shuffle(pd.read_json(join(dir_path, "{}.json".format(e)))).iloc[:int(size/len(es))] data['label'
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? # generate toy data n_s = 1000 n_t = 1000 n_classes = 3 p_s = [0.4, 0.3, 0.3] p_t = [0.4, 0.3, 0.3] mu_s_1 = [0.0, 0.0] sig_s_1 = [0.2, 0.2] mu_s_2 = [0.0, 1.0] sig_s_2 = sig_s_1 mu_s_3 = [0.5, 0.5] sig_s_3 = sig_s_1 mu_t_1 = [2.8, 1.3] sig_t_1 = sig_s_1 mu_t_2 = [1.7, 0
以下で紹介されているSCDVという手法を使って自然言語処理をしていたとき、ちょっと問題に遭遇したのでそれのメモです。 文書ベクトルをお手軽に高い精度で作れるSCDVって実際どうなのか日本語コーパスで実験した(EMNLP2017) 問題 SCDV後の単語ベクトルのうち、以下のような単語がすべて0ベクトルになっていた。(単語は例です。) iPhone 雨 キャッシュ・フロー 調査 SCDVはword2vecで作成した単語の分散表現に対し、その分散表現をGMMでクラスタリングしたときの各単語が各クラスに属する確率とIDF値を用いて、より高次元の分散表現に変換することで意味をより細かく取得できる手法なのですが、上記で挙げたような単語はword2vecで作成した分散表現の際は0ベクトルではありませんでした。 なので、word2vecからSCDVで高次元の分散表現を構築する際に0ベクトルになってしまっ
オブジェクト検出とやらをTensorflowでやってみたい → APIがある!試してみる エラーに苦しむもなんとか動かせたのでその記録 環境 Windows10 Tensorflow-gpu 1.8.0 Gforce GTX 1080 Anaconda3.5.1.0(Python3.6) ※オフラインで使用 ※Tensorflowの環境は構築済 tensorflow/modelsを入手 以下のURLからzipファイルをダウンロード https://github.com/tensorflow/models zipファイルを適当な場所で解凍(models-masterのフォルダできる) チュートリアルにチャレンジ 以下のURLを参考にしながらチュートリアルにチャレンジ(これだとGoogle Cloudで学習させてますが、今回はローカルで) https://github.com/tensorfl
前提 写真に映った人のポーズ推定をする方法としてOpenPose( https://arxiv.org/abs/1611.08050 )がある。 検出方法はたしか各部(二の腕とかふとももとか)を判別し、それのもっともらしい接続を導くことで全身の推定をするとかだったはず。 別の方法を思いついたのでやってみた。 人の3Dのモデルをどう移動、関節回転させれば画像中の人にうまく重なるかで推定を行う。 こんな感じ。 人物画像を入力し、モデルの中心である骨盤のx,y,zの位置と3軸角度、各部位の3軸角度を推定できればOK。 CNNで人物画像を入力とし、複数の値を同時に回帰で出力し推定する。 CNNにはDenseNet( https://arxiv.org/abs/1608.06993 )を使う。 とりあえずフィージビリティスタディで、3Dモデルの関節をランダムに曲げた画像を作って入力画像とし、回転角度
tensorで与えられた Tensor を、shapeで与えられたTensorShapeに変換する。 tensorの各 dimension の size の和と、shapeの合計が一緒じゃないとエラーになる。 shapeのどれかの要素に-1を与えると、 flat な1次元にする。性質上、1つの index にしか指定できない。 shapeに[]を与えると、スカラーにして返す。 公式Example # tensor 't' is [1, 2, 3, 4, 5, 6, 7, 8, 9] # tensor 't' has shape [9] reshape(t, [3, 3]) ==> [[1, 2, 3], [4, 5, 6], [7, 8, 9]] # tensor 't' is [[[1, 1], [2, 2]], # [[3, 3], [4, 4]]] # tensor 't' has
RefineDetとは Single-Shot Refinement Neural Network for Object Detection ⇒ RefineDet (Shifeng Zhang, Longyin Wen, Xiao Bian, Zhen Lei, Stan Z. Li:2017/11/18) ソースはこちらから。 物体検出アルゴリズムのひとつで、SSDよりやや速度は劣るが、認識精度が高い。 Two-Step Cascaded Regressionという仕組みで、 より小さな物体に対しての認識が可能なようです。 ※以下の記事で日本語でも解説されているので、是非ご一読ください。 リアルタイム物体検出向けニューラルネット、SSD(Single Shot Multi Detector)及びその派生モデルの解説 その他のアルゴリズムと比べるとこんな感じ。 System VOC200
from keras.callbacks import Callback, LearningRateScheduler import numpy as np class LearningRateCallback(Callback): def __init__(self, lr_max, lr_min, lr_max_compression=5, t0=10, tmult=1, trigger_val_acc=0.0, show_lr=True): # Global learning rate max/min self.lr_max = lr_max self.lr_min = lr_min # Max learning rate compression self.lr_max_compression = lr_max_compression # Warm restarts params s
はじめに 本記事は、私が独学で学んだ事をまとめている記事です。 CNN については出来るだけわかりやすく噛み砕いて説明していきます。 詳細を知りたい場合は参考URLを貼っておきましたのでそちらをご覧ください。 想定読者 ・CNN をやってみたい人 ・CNN が何をしているかわからない人 上記にも書いてある通り独学のため、間違えている部分がございましたらご指摘のほどよろしくお願い致します。 CNN (Convolutional Neural Network)とは 主に画像や動画認識に広く使われているニューラルネットワークです。 通常のニューラルネットワークと異なる点は、畳み込み層とプーリング層がある点です。 畳み込み層 畳み込み層とは、特徴を抽出している層になります。 上記画像のように、黒い部分の特徴を残しながら縮小することができます。 このような解像度縮小を行っているのが畳み込み層です。
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 前回 https://qiita.com/mokoenator/items/4d106d682f1b4bc7d0e3 からの続き 途中経過 普通はグラフを書いて過学習や!!とか書くんですかね。 イメージの数とepochでどんなかんじなのか?見てみたくなった。 画像内の黄色がアウター、ピンクがトップス、青がフェイス、明るい緑がパンツ、くらい緑がバッグ いつもの ぱくたそ 350イメージ19epoch 1300イメージ11epoch 1300イメージ52epoch 1300イメージ81epoch イラスト屋1300イメージ81epoch
<!DOCTYPE html> <html> <head> <meta charset="UTF-8" /> <title>Semantic-Segmentation Dataset SVGファイル変換</title> </head> <body onLoad="start()"> <h3>Semantic-Segmentation Dataset SVGファイル変換</h3> <p style="display:inline-block">[<a id="linkImage">Download Image</a>] </p> <p style="display:inline-block">[<a id="linkSeg">Download Segmentation</a>] </p> <input type="file" accept="image/svg+xml" onChange="
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 前回では 機械学習における学習とは一言で言うと **「重みを訓練データから自動的に決定する」**ことです。 前回示した通り、ステップで示すと以下のようになります。 **ステップ①:ある重みからなるニューラルネットワークに訓練データ[入力]**を入力する。 ステップ②:ニューラルネットワークは順伝播を行い、演算結果を出力する。 ステップ③:出力したデータと教師データ(訓練データ[出力])を比較し、損失関数を計算する。 ステップ④:****損失関数を基に逆伝播を行い、勾配を計算する。 ステップ⑤:****勾配方向に重みを少しだけ更新する。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く