Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

GoogleのブログでTensorFlow 0.12 が Windows をサポートとあったので、試してみると簡単にできました。 実行環境 以前にインストールしたものになります。 Windows 10 Professional 64bit Anaconda3 4.2.0 (Python 3.5) ⇒ CPU版、GPU版どちらでもpython3.5が必要 GeForce GTX 1070 ⇒ GPU版に必要 CUDA Toolkit 8.0 (8.0.44) ⇒ GPU版に必要 cuDNN 5.1 ⇒ GPU版に必要 CPU版でとりあえず試したい方はこちらより「Anaconda3-4.2.0-Windows-x86_64.zip」をそのままイントールしてください。python3.5やJupyterなどがインストールされます。 Tensorflowのインストール Windowsスタートメニュー
import tensorflow as tf import gym import gym_pull import ppaquette_gym_super_mario from gym.wrappers import Monitor import random import numpy as np class Game : def __init__(self): self.episode_count = 10000; ## select stage self.env = gym.make('ppaquette/SuperMarioBros-1-1-Tiles-v0') def weight_variable(self, shape): initial = tf.truncated_normal(shape, stddev = 0.01) return tf.Variable(initial
学習方法 ゲームキャプチャ + アクションで報酬(game score)を与えそれを学習させる。 game scoreの取得については、ROMのバイナリ情報を解析する必要があります。 この辺はあまり詳しくありませんが海外にROMの情報が出ているとのことです。 ニューラルネットワークアーキテクチャ 学習関数は定番のReLU。教科学習のアルゴリズムは勾配降下法(Adam)でやってます。 ReLU 勾配降下法 ニューラルネットワークの外観 手順 ⅰ.エミュレータの準備 エミュレータの動作に関しては処理が複雑なのでgitにあげておきます。 https://github.com/tsunaki00/siva_game ※ 他のマシンで試してないので動くかわかりません。 エミュに興味あるかたは海外のgitなどをぐぐってみてください! ⅱ.ROMの抜き出し 上記にも記載しましたが、ROMの抜き出し方法は
mizti さんの AWS Step FunctionsとLambdaでディープラーニングの訓練を全自動化する を自分の求めるものに従って微修正したものです。 背景 AWS の高性能 GPU マシン、 p2 インスタンスで DeepLearning (TensorFlow) の学習を回したい でも p2 は高い!! スポットインスタンスを使うと安い! しかしスポットインスタンスは実行中に入札額によって強制シャットダウンされる 学習中データを定期的に S3 にアップロードしたい スポットインスタンスを立ち上げて学習開始するのを自動化したい 学習完了時に勝手にインスタンスをシャットダウンしたい 仕様 学習開始の Slack 通知 データ格納先の S3 のチェック bucket は存在するか? 既に学習結果格納ディレクトリが無いか?(上書きしないようチェック) スポットインスタンスへの入札と、結
#Tensorfowメモ 自分なりに書き残しているメモです ##Tensorflowの構造 グラフ、演算ノード、テンソルの構想 グラフとは? 複数のニューロンからなる一つの層を表す図形 φ(X * W + b) ノードとノードを結ぶ辺によって構成 演算ノード・変数ノード・プレスホルダーノードなどが存在 テンソルとは グラフを流れる量 テンソルはn次元の配列あるいはリスト 主な表記 変数 tf.Variable 行列の積 tf.matmul φの適用 tf.nn.relu グラフの定義 # Wを入れる変数の定義 weights = tf.Variable() # bを入れる変数の定義 bias = tf.Variable() # 層の働きを φ(X*W+b) で定義 #ここではφはreluを使用 #imagesは、この層が受ける入力 #hidden1はこの層の出力 #1層目 hidden1
そろそろ春の足音がしだして、相変わらずの何もできてないっぷりに愕然とする今日このごろです。 さすがに何もしていないのはまずいので、以前触った TensorFlow を再び触り始めています。 相変わらずのGoogleクオリティで、APIが色々と変わっているような気がしますが、いろいろ忘れているので調度良いかなと。 何か一つ作ってみようと、作ってみている最中です(いずれ記事に・・・)が、DeepLearningとかコモディティ化してきていると言われているとはいえ、理解しながら作ろうとすると、もれなく数式とコンニチワするので、文字通りに頭の痛い日々です。でも楽しい。 Amazon LinuxでGPU利用する 今作ってみているものは、学習をCPUだけでやると時間がかかってしょうがない+学習用データが大きすぎて洒落にならないため、GPUで実施したくなります。 GPUは一応部屋のPCについているとはい
はじめに TensorFlowにはTensorBoardという視覚化ツールが用意されています。TensorBoardを使うとニューラルネットのグラフや学習状況をインタラクティブに確認することができるので大変便利です。 しかし、TensorBoardの利用には「ログの書き出し→サーバ起動→ブラウザ起動」の手間があったり、GRAPHで表示されるグラフはノード名が途中で「...」で丸められてしまって他人に説明するには使いづらかったり、データサイエンス系で人気のJupyter notebookと連携できないといった面倒な点があります。 そこで、TensorFlowで構築したグラフをDOT言語+graphvizによって可視化するモジュールtfgraphvizを作りました。tfgraphvizを使うことで、グラフを簡単に画像化したり、TensorBoardのGRAPH機能と同等の機能をJupyter
機械学習というと深層学習(ディープラーニング)を連想されがちですが、それ以外にも沢山あります。また、ディープじゃ無いからダメかというとそうでもありません。 というわけで、前回の記事のデータを別の機械学習でやってみます。 関連シリーズ 第1回 TensorFlow (ディープラーニング)で為替(FX)の予測をしてみる 第2回 ディープじゃない機械学習で為替(FX)の予測をしてみる 第3回 TensorFlow (ディープラーニング)で為替(FX)の予測をしてみる CNN編 TL;DR 資産の増減をグラフにしました。半年ほどで12%の利益になってますが、学習の条件に対して結果がロバストでは無いので今後もうまくいくとは限りません。 GitHubにNotebookを置いてあります。 Forkして遊んでみてください。 https://github.com/hayatoy/ml-forex-predi
デモが動かない 画像の物体検出をして、赤枠で囲って表示するというデモが準備されています ここにデモを動かす手順があります しかし、この通りにやっても、訓練済みモデルファイルとソースのネットワーク構成がずれているようなエラーが出ます なんらかのバージョン問題なんだと思いますが、よくわからないのであきらめました そもそもこのFaster RCNN実装が想定しているTensorflowのバージョンがいくつなのか不明だし・・・ 自分でモデルをトレーニングする 仕方がないので自力でモデルをトレーニングして、それでデモを動かすことにしました。 画像データのダウンロード README通りに入手&解凍&配置 # wget http://host.robots.ox.ac.uk/pascal/VOC/voc2007/VOCtrainval_06-Nov-2007.tar # wget http://host
この記事は、TensorFlow Advent Calendar 2016の18日目の記事です。 もともとはPredNetを実装しようと思ってConvLSTMを実装していたのですが、これ単体でも動画のフレーム予測ができるのでせっかくなので試してみようと思ってこの記事を書きました。 この前のTensorFlow UserGroupのイベント「NN論文を肴に飲む会」でも発表させていただきましたので、元となる論文の概要などが気になる方はこちらのスライドをご覧ください。 Convolutional LSTM(畳み込みLSTM) 名前からしてどんなものなのかという想像は簡単につくと思います。従来のLSTMでは時間遷移する状態は(バッチサイズ, 中間層のユニット数)の2階テンソルでしたが、それが(バッチサイズ,縦,横,チャンネル数)の4階テンソルになったものです。その際、扱う状態が画像情報なので、従来
今回は以下の論文を参考に、過去の値動きの変動量を学習させてみます。 終値の変動値を特徴量として、次に上がるか or 下がるかを予測する2クラス問題です。 Artificial neural networks approach to the forecast of stock market price movements (精度が平均8割もあるけど…ホントかなぁ) ヒストリカルデータの取得 フリーでデータをダウンロードできるところはたくさんありますが、細かい時間単位(5分足とか1分足)になると数が限られます。有名どころだと FXDD OANDA (API) Dukascopy この辺りでしょうか。ただ注意しなければならないのは、どこでダウンロードしても同じデータであるとは限らない点です。 な… 何を言っているのか わからねーと思うが、俺も何をされたのかわからなかった……… 恐ろしいものの片鱗
AzureにはGPU搭載のNVシリーズとNCシリーズが存在する。NVシリーズは視覚コンピューティング向け、NCシリーズは数値コンピューティング向け。Deep LearningならNCシリーズを使う。 NCシリーズは現在、米国東部と米国中南部のリージョンにしか提供されていない。また、クォータが高いので無料試用版の場合は上限を開放してサポートにクォータ緩和を要求する必要がある。1-5営業日くらいで対応してもらえる。 以下の情報でNCシリーズのインスタンスを作成したものとして書きます。適宜読み替えてください。 ※2017/02/23補足:NCシリーズは、「VM disk type」を「HDD」にしないと選択できません。 NC6 Standard OS: Ubuntu Server 16.04 LTS Username: MaruLabo IP addr: x.x.x.x ネットワークセキュリティ
Fri Oct 28 15:21:14 2016 +-----------------------------------------------------------------------------+ | NVIDIA-SMI 367.44 Driver Version: 367.44 | |-------------------------------+----------------------+----------------------+ | GPU Name Persistence-M| Bus-Id Disp.A | Volatile Uncorr. ECC | | Fan Temp Perf Pwr:Usage/Cap| Memory-Usage | GPU-Util Compute M. | |===============================+====
(目次はこちら) はじめに これまでの記事 で見てきた、Deep Neural Networks / Convolutional Neural Networks では、精度を高めるために中間層を増やすと、それに伴い、パラメータ数も多くなり、それを学習するためにさらに多くのデータが必要とされる。画像認識のコンペティションなどで上位に来るようなものは、複数のGPUを利用したとしても、当然のように学習に数週間以上かかっている。 正直、こんなに時間がかかるものなんて、頻繁に学習したくない。カテゴリ識別において、たとえば、カテゴリを1つ追加したくなった時、また数週間待つんだろうか?? 嫌だ。こんなときに用いられるのが、転移学習 (transfer learning) / 深層特徴 (deep features)である。 転移学習 (transfer learning) / 深層特徴 (deep fe
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く