Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?
既にQiitaにはWindowsにChainer & CUDA、あとcuDNNをインストールする手順が上がっていますが、その手順でインストールしても、CUDA 8.0を使ったときにGPUを使ったChainerの実行がうまく出来ませんでした。具体的には、CUDAのコンパイラである「nvcc」がコンパイルエラーを起こします(私の環境ではstatus code 2で異常終了しました)。 色々調べたのですが、こちらのページに書かれているように、環境変数INCLUDEを設定すれば解決しました。 http://tadaoyamaoka.hatenablog.com/entry/2016/11/03/163306 ググって出てくる手順に加えて、システム環境変数に「INCLUDE」という環境変数を新規追加し、それに対して以下の2つのパスを指定すればCUDA 8.0でChainerによるGPU演算ができるよ
概要 chainer/Tensorflowで使うことを目的に、g2インスタンスにCUDAをインストールしました。 もちろん既にCUDAインストール済みのAmazonLinuxを使用するという選択肢もありますが、今回はUbuntuが使いたかったためまっさらの状態からCUDAを入れました。その際にハマった箇所をメモします。 ※ 本手順ではCUDA7.5を指定しましたが、CUDA8.0でも同様と思います。 EC2インスタンスの構成 CUDAのインストールを始める前に、この作業を行った際のEC2のインスタンスの設定を紹介します。 AWS EC2のインスタンス(g2.2xlarge) AMIはUbuntu Server 14.04 LTS (HVM) 【参考】Ubuntu14.04にcuda 7.5をインストール 注意点としては、EBSの領域(OSが入る領域)がデフォルトで8GBです。後々窮屈になる
nvidia-smiコマンドでGPUの使用状況などを知る(Ubuntu14, Cuda7)。 オプションいっぱい。とりあえず使いそうなやつ。一緒に使えたり使えなかったりする。 オプションなし サマリ -L, --list-gpus GPUを列挙 -i, --id= GPUを指定 -f, --filename= ファイルに出力 -l, --loop= 指定されたインターバル(デフォルト5秒)で表示を続ける。Ctrl+Cでとめる。 -q, --query GPU情報表示 -x, --xml-format XMLで出力 -d, --display= 特定の項目だけ出力 カンマでつなげる。MEMORY,UTILIZATION, ECC, TEMPERATURE, POWER, CLOCK,COMPUTE, PIDS,PERFORMANCE, SUPPORTED_CLOCKS, PAGE_RETIR
はじめに 最近CUDA Toolkit 8.0 がリリースされてVisual C++ 14.0対応になったようです。 http://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/#axzz4LpboNmuU またいつの間にか、Visual studio 2015 の Visual C++ 14.0コンパイラ部分が独立して、[Visual C++ Build Tools] (http://landinghub.visualstudio.com/visual-cpp-build-tools) としてインストールできるようになっていたので、Visual studioなしでもCUDAが動かせそうです。 このため、今までよりもWindowsでのchainerのGPU計算環境の構築が少し簡単になりそうなのでやってみました。
ubuntu+CUDA8.0で機械学習する際の設定メモ。anaconda(numpy/matplotlib), scikit-learn, chainerを入れます。 PC仕様 PC: GTune NEXTGEAR i650PA7-SP3 MB: Z170-S01 MSI CPU: Intel Core i7-6700K CPU 4.0GHz x 8 GPU: Geforce GTX1080 Memory: 32GB SSD: 256GB HDD: 2TB OS: Ubuntu 16.04 64bit + Windows 10 Home 64bit ubuntuインストール手順 ubuntu16.04 LTSをDLしてisoファイルを作成 UEFI (BIOS)に入る UEFI menuでsecure bootをことごとく無効化する DVDからubuntuインストール ブート選択画面でin
Ubuntu 16.04 LTS + GeForce GTX 1080の環境に、CUDA 8.0 RCをインストールします。Ubuntu 16.04 LTSでは、デフォルトでgcc 5.4のため、CUDA toolkitのインストール時に適切なコンパイラが無いと怒られます。2016年8月8日にgcc 5.4に対応した公式パッチが出たのですが、これに対するドキュメントが見当たらないため、メモ代わりに残しておきます。(gccを5.3.1にダウングレードすれば、パッチを使用せずにインストールできると思います。) 公式ドキュメントを見る まずは、公式ドキュメントであるInstallation Guide for Linuxを確認します。以下の手順は基本的に公式ドキュメントのPackage Manager Installationをベースにインストールを試みます。 CUDA 8.0 RCをダウンロー
CUDA 7.5 をWindows10にインストールし、Sampleコードを実行するまで 自分のやっていることで並列プログラミングの必要性が出てきたので、かねてから気になっていたGP(汎用)GPUプログラミングの環境を構築しました。 実際環境を整えようとしたところ結構苦労したので、備忘録として今回行ったインストール手順をここに記そうと思います。誰かの助けになれば幸いです。 検証環境 OS:Windows10 Pro (64bit) CPU: Intel Core i5-4460 RAM: 8.00GB GPU: GeForce GTX 750 Ti 必要なもの 必要なものは以下の通り。 Visual Community 2013 CUDA7.5 CUDAに対応したGPU (自分のもってるGPUが対応してるかどうかはここで調べてくだされ。) インストール手順 Visual Community
ThrustとかをVisualStudioでコンパイルすると、C4819警告が大量に出てめんどくさい、とかいう状況になりますよね。 で、普通にVisualStudioのコンパイラ(cl)でやるときは、/wd 4819とオプションに付け加える(「プロジェクトのプロパティ>構成プロパティ>C/C++>詳細設定>指定の警告を無効にする」で4819と指定する)だけで無視できるんですが、CUDAのコンパイラ(nvcc)にはそんなオプションがありません。 といっても、nvccはホストとデバイスを分離した後、ホスト側のコードはclでコンパイルするはずなので、どうにかcl用のコンパイラオプションを直接渡せばいいわけです。 でも簡単に見つからなかったので聞いてみました。そしたら、nvccには-Xcompilerという、ホストコンパイラ(clなど)に直接オプションを渡すことの出来るオプションがあるというじゃな
はじめに 前回の 記事 ではtensorflow/tensorflowのイメージを元にdocker上でGPUモードのtensorflowを動かせる環境を構築しました. 先日,caffeのdocker環境を構築する機会がありまして,nvidia-dockerというものを使いました.nvidia-dockerを使うとdocker上から簡単にcudaにアクセスすることができます.今回はnvidia-dockerを使ってtensorflowを動かしてみようと思います. 追記 - 現在はtensorflow公式のイメージもnvidia-dockerを使うようになっています. nvidia-dockerの導入 dockerを導入した環境において,以下で導入できます.
はじめに インストールのハマりどころ python 2.7系でも python 3.5系でもインストールは楽だった しかし、Chainerの最新版では gcc 4.8 以上が必要とされているが、CentOS6.7のでは 4.4 どまりである ちなみに、GPGPU (CUDA)を使わない場合は4.4でも問題ないがpython train_mnist.py -g 0 をすると死ぬ core がない、などのエラーがでる あれ自分の環境は?と思った人は、とりあえず python -c 'import cupy'をして何もエラーがなければ問題は無い Chainerをインストール(コンパイル)するときだけgcc-4.8が使えれば良く、実行時には必要とされないようだ インストール手順のメモ gcc 4.8を使えるようにする wgetを使う方法がやたらと見つかるが、ここではyumからSCL (Softwa
Ubuntu 16.04 に NVIDIA の CUDA のインストール方法です。私は主に Amazon EC2 の GPU インスタンスを使っているので、それ前提で書きます。Amazon EC2 の GPU インスタンス、g3, p2, p3 などで使えます。完全仮想化の hvm の方を使ってます。ストレージは20GB程度必要です。 なお記事の都合上、最新の CUDA および cuDNN をインストールしていますが、TensorFlow などの各種ライブラリを動作させるためには、タイミングによっては少し古いのをインストールしないと対応していない場合が多いです。 Ubuntu 18.04 へのインストール方法は https://qiita.com/yukoba/items/4733e8602fa4acabcc35 をご覧ください。 前準備
Chainerは、1.5からCython、h5pyへ依存するようになりました。Windowsへのインストール方法は2日目の記事(Chainer1.5.0をWindowsにインストールする)で書かれているのですが、皆様がもっと簡単にWindows上でまともにChainerを使えるようにいくつか補足を加えたいと思います。 この内容には間違いが含まれている可能性があります。気付き次第更新します。動作報告歓迎です。コメントによろしくお願いします 注意:2015/12/10日現在、Chainer(v1.5.1)は公式にはWindowsをサポートしていません。 git cloneしてnosetestを実行すると、いろいろな機能が実は動いていないという現実を知ることができるかと思います・・・。 全体の流れ Windowsの準備 64bit Windows環境と新しめのNVIDIAのGPUを用意する(オプ
[ゼロから始めるGPU Computing] (http://www.gdep.jp/page/index/market) http://www.gdep.jp/page/view/248 一般的に数倍~100倍以上の速度と言われている 補足:なぜ演算性能が高いのか? GPUでは、CPUに搭載されている分岐予測・投機実行 アウトオブオーダーが簡素化されており、その分、コア数を増やすことができる。 分岐予測・投機実行とは? 条件分岐した際の処理を前もって実行しておくこと。 過去の実行履歴から実行される可能性の高い命令を実行しておく。 [イメージ] arr = [1, 3, 5, 7, 8]; for (elm as arr){ if(elm % 2 == 1){ echo "odd"; //奇数が続くためCPUは事前にこの処理を予測し実行しておく }else{ echo "even"; //
GPGPU Advent Calendar24日目です!イブの重要な日に私なんかでいいんでしょうか。 今日は、前回書いた通り、cuSPARSEの話をします。 cuSPARSEとは、CUDA用の疎行列計算ライブラリです。使い方はドキュメントを見てもらうのが一番早い気がしますが、私は若干つまづいたので、ここに「疎行列×ベクトル」の演算を実行するまでの簡単なチュートリアルっぽいことを書きます。 全文 と、細かく書いてくと大変なことに気づいたので、全部コード+コメントで書きます!手抜きじゃないよ!! #include<iostream> #include<cuda_runtime_api.h> #include<cublas_v2.h> #include<cusparse_v2.h> #include<thrust/device_vector.h> const int N = 1024; int
漢なら docker コンテナで CUDA を使いたいですね! CUDA を使えるようにしましょう. セットアップ ホスト OS に CUDA とドライバ一式をいれておきます. 今回は Centos6.5 CUDA 6.0(driver 331.67) /usr/local/cuda に nvcc やら toolkit をインストール にしました. コンテナ内で CUDA プログラムを動かす. privileded つきで, libcuda.so と /usr/local/cuda を container に expose(volume mount)します. サンプルコードを /media にマウントします. $ docker run --privileged -v /usr/lib64/libcuda.so:/usr/lib64/libcuda.so -v /usr/lib64/libc
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く