前回の記事では、Winograd アルゴリズムの概要、TVM によるアルゴリズムの定義、ナイーブな GPU 実装、までを説明しました。今回は、ナイーブなスケジュールから出発して、ステップバイステップでスケジュールを改善していきます。最終的には、 TVM 本家の Direct Convolution よりも 2 倍近く速くなります。また、TVM には AMDGPU 向けのバックエンドもあるので、AMDGPU 用のカーネルを生成することもできます。NVIDIA GPU 向けに高速化したスケジュールが、 AMDGPU でも高速に動作することを最後に示します。 高速化 1. 入力変換、出力逆変換の改善 まずは、入力タイルの変換 $V$ の計算スケジュールを改善します。$V$ は、サイズ (4, 4, 全タイル数, チャネル数) で、入力タイル $d$ に変換行列 $B^T$ を左右からかけた変換
始めに 昨日トライしてダメだったのの続きです。 最終的にうまく行ったら他の環境で精査の上、見やすい記事にする。 AnacondaやPython等は一度アンインストールしました。 TensorFlowインストール 参照 「TensorFlowのオリジナルのインストールページ」https://www.tensorflow.org/install/install_windows 未確認情報 Visual C 2015再配布のライブラリが無いとダメだという情報もある。 ここまではぶつからないだろうと、下記OKという事でパス CUDA Toolkit 9.0. For details, see NVIDIA's documentation Ensure that you append the relevant Cuda pathnames to the %PATH% environment vari
はじめに 以前からAWS上でTensorFlowをGPUで動作させることに興味があったので、g2.2xlargeのセッションを開設して試してみました。 結論からいうと、g2.2xlarge上でtensorflow-gpuを動作させることはできません(2018年7月時点)。結局のところ、p2.xlargeを新たに開設してやっと動作確認することができました。 g2.2xlargeの開設 AWSのデフォルトユーザー設定では、g2.2xlarge等の高機能セッションの開設数に制限がかかっているので、それを解放しないといけません。解放の仕方は、AWSのサポートセンターのページで直接担当者にメッセージを送る形です。 1日程度で制限が解除され、g2.2xlargeが使えるようになります。 DeepLearningAMI AWSいはく、TensorFlowやChainerが既にインストールされたセッション
CUDA + PyTorch + IntelliJ IDEA を使ってPyTorchのVAEのサンプルを動かすとこまでのメモです。 PyTorchの環境作ってIntelliJ IDEAで動かすところまでの番外編というか、むしろこっちが本編です。 ↑の記事との違いは、GPUを使うためにCUDAを入れるところ、Anacondaを使わずにできるだけ最小限のライブラリインストールで済ませているところです。 2018/7月版。 前提 Windows10、GTX1080環境での手順です Mac(CUDA抜き)でも同様の手順で動作を確認 環境構築 Visual Studioを先に入れる CUDAインストール時にVisual Studio入れてね、と言われるので先に入れておきます。 C++のコンパイラ使ってるみたいです。 Visual Studio Communityで大丈夫です。 Visual Stud
Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article? 備忘録 突然GPUではなくCPUで学習されていたため、調査 python開いて from tensorflow.python.client import device_lib device_lib.list_local_devices() を実行、すると 2018-08-01 09:53:52.674706: W tensorflow/core/platform/cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE4.1 instructio
はじめに 機械学習向けにGPU搭載の自作PCの環境構築を行っていて、かなり手こずっていましたがなんとか完了しました。同じようにGPU環境構築している人の参考になってもらえたらなぁという思いを込めて記事を書きます。 環境 GPU:GTX Geforce 1080Ti OS:Ubuntu 16.04 LTS 手順 CUDA Toolkit のバージョン選択 OSのインストール NVIDIAドライバーのインストール CUDA Toolkitのインストール cuDNNのインストール CUDA Toolkit のバージョン選択 これが一番大事。GPU用にインストールすべきものはNVIDIAドライバー、CUDA、cuDNNとありますが、cuDNNはCUDAのバージョンに応じて決まり、NVIDIAドライバーとCUDAにも対応するバージョンがあり、ここのように整合性が取れないバージョン同士をインストールす
Rustにはccというcrateがあって、build.rs内でC/C++のコードをコンパイルしてリンクするのに便利なのですが、これがCUDAもコンパイルできるらしいので試してみた記録(を発掘したので和訳)したものです。 発掘現場:https://github.com/termoshtt/link_cuda_kernel CUDAサンプルにあるvector_add.cuをkernel.cuとしてコピーしてきます。 /** CUDA Kernel Device code */ __global__ void vectorAdd(const float *A, const float *B, float *C, int numElements) { int i = blockDim.x * blockIdx.x + threadIdx.x; if (i < numElements) { C[i]
2018/09/24 CUDA Toolkit 10.0 インストール手順を作成しました。 CUDA Toolkit 10.0 インストール手順 インストール環境 ・Windows 7 Professional 64bit ・Intel Corei7-3770K ・16GB RAM ・Geforce GTX 780 ・Visual Studio 2017 Version 15.7.0 Step 1. GPUの確認 ここにアクセスし、GPUがCUDAを使えるかを確認する。 Compute CapabilityはCUDAで使える機能の豊富さだとでも思っておけばよいです。 https://developer.nvidia.com/cuda-gpus Step 2. ダウンロード 以下からCUDA Toolkit 9.0をダウンロードしてきます。 https://developer.nvidia.
こんにちは、すすむです。初投稿です。 半導体エンジニアをやりながら機械学習について学んでます。 やること OpenCV を CMake GUI と Visual Studio 2017 でビルドしました。 CUDA の連携に苦労したので手順覚え書きです。 環境 CPU: Intel(R) Core(TM) i7-8700 GPU: NVIDIA GTX 1070Ti Windows 10 Home CUDA 9.2 Visual Studio Community 2017 (version 15.8.1) Visual C++ SDK : VC15 (version 14.15 及び 14.13ミラー) CMake 3.12.0 git version 2.17.0.windows.1 Python 3.6.6 更新 2018/8/28 ・Cuda9.2 で tensorflow-gpu
A. Installing CUDA 9.2 on Fedora 27 The important points for installing CUDA 9.2 I recommend you to use the runfile(local) to install CUDA 9.2, because both installing by rpm(local) and rpm(network) were failed; the graphical interface didn't work properly and I got a black screen when booting. You have to install elfutils-libelf-devel for runfile installation: The step-by-step procedures are show
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く