タグ

cudnnに関するyukimori_726のブックマーク (10)

  • まっさらな状態からUbuntu14.04LTSでChainerのFaster-RCNNを使って物体検出 - 可変ブログ

    Faster-RCNNを実装したのでそのメモを残します。 なるべく初めてでもできるように、まっさらな状態から環境構築して実装までやっていきます。が、この分野の知識が全くない状態から始めているので、間違いがあるかもしれません。気をつけてね。 ちなみにCaffeじゃなくてChainerを選んだ理由は導入が簡単だったからです。最初Caffeでもやろうとしたけど挫折しました。Caffeはまた時間があるときに再挑戦してみます。 とりあえず投稿したけど、書きかけでまだわかりづらいところもあると思うので、時間があるときに加筆修正したいと思います。長いから記事を分けるかも。 環境 【ハードウェア環境】 Quadro6000 【実装したソフト環境】 Ubuntu14.04LTS Anaconda3-4.1.1(Python) CUDA8.0 cuDNN5.1 OpenCV3.1 Chainer(バージョン不

    まっさらな状態からUbuntu14.04LTSでChainerのFaster-RCNNを使って物体検出 - 可変ブログ
  • ChainerやTensorFlowでGPUを使うと毎回結果が変わる理由と対策 (まとめ) - Qiita

    結論から ChainerやTensorFlowなどの機械学習(特にDeepLearning)フレームワークでGPUを使うと、誤差程度ではあるものの演算結果が毎回変わってしまいます。(非決定的な演算) 「乱数使ってるから当たり前でしょ」って話ではなく、乱数種を指定してもGPU内部での演算順序が非決定的であるためGPU演算の結果は安定しません。 浮動小数点演算なので誤差が出るのは当然だが、その誤差が安定しない(非決定的)なのが気になるところです。 Chainerでは環境変数(CHAINER_CUDNN)の指定またはConvolution2Dなどへのパラメータ追加で事象を回避可能。 TensorFlowについてはGoogle社曰く「EigenライブラリまたはcuDNNの仕様によるとのこと」であり現状では対応策無し。(詳細は次の記事に記載のIssuesを参照のこと) 尚、Caffeでも同様の事象

    ChainerやTensorFlowでGPUを使うと毎回結果が変わる理由と対策 (まとめ) - Qiita
  • ChainerでGPUを使うと毎回結果が変わる理由と対策 - Qiita

    記事はChainerやTensorFlowでGPUを使うと毎回結果が変わる理由と対策 (まとめ)の詳細編であり、Chainerについて具体的な対策について検証します。 関連Issues(Chainer) 検証環境 Chainer v1.20.0 Python 3.5.2 CUDA 8.0 cuDNN 5.1 NVIDIA Tesla/GeForce いろいろ まずは乱数種の指定 GPUの演算誤差だけでなく乱数を用いていることも演算結果が安定しない原因です。 そこで乱数種を指定して発生する乱数を固定します。 乱数種の指定対象 Chainerの場合、下記の3種類の乱数に配慮する必要があります。 Python NumPy CuPy CuPyはPFN社謹製のGPU対応版NumPyと考えればよいでしょう。 参考実装 def set_random_seed(seed): # set Python r

    ChainerでGPUを使うと毎回結果が変わる理由と対策 - Qiita
  • cuDNNのインストールができない⇒解決 - Qiita

    cuDNNのインストールでつまづいていたのですが、 NIVIDIAのサポートデスクに教えてもらった対応で、 インストールまでたどり着いたので、以下にまとめます。 ●対応前 環境:ubuntu14.04 目的 CUDAツールキット:cudnn-7.5.18_linux.run cuDNN:cudnn-7.0-linux-x64-v4.0-rc.tgz のインストール 手順 1.CUDAインストール http://n-nishida.hatenablog.com/entry/2015/04/19/053643 に倣い、インストール 2.PATH 上のURLに倣い.bashrc(心配だったので.profileにも) export CUDA_ROOT=/usr/local/cuda-7.5 export PATH=/usr/local/cuda-7.5/bin:$PATH export LD_LI

    cuDNNのインストールができない⇒解決 - Qiita
  • CUDA 8.0とcuDNN 6をUbuntu 16.04LTSにインストールする - Qiita

    CUDA 8.0のインストール NVIDIAの公式ページからCUDA 8.0をダウンロードする。 Operating System: Linux, Architecture: x86_64, Distribution: Ubuntu, Version: 16.04, Installer Type: deb (network). ダウンロードしたフォルダで以下のコマンドを実行してCUDAをインストールする。メタパッケージのcuda-8-0をインストールすると、全てのCUDA ToolkitとDriverパッケージがインストールされる。(CUDA 9.0のインストール方法はこちら)

    CUDA 8.0とcuDNN 6をUbuntu 16.04LTSにインストールする - Qiita
  • Ubuntu14.04 + GPU + TensorFlow 環境構築 - Qiita

    概要 Ubuntu14.04LTS + GPU + TensorFlow の環境構築に苦労した人は多いのではないでしょうか。 GPU駆動でTensorFlowを使おうと思ったらUbuntu14.04は真っ先に挙がるOS候補ですが、気をつけて設定しないとGPUが認識されなかったり、tensorboardがうまく表示されなかったりと、山のようなバグに出会うことになります。GPU版TensorFlowをフル活用できる環境を構築できたので、同じように環境構築で困る人が出ないよう記録を残したいと思います。 遭遇したエラーの一部 ・CUDA、cuDNNのバージョンを揃えないと上手く動かない ・NVIDIAドライバを"正しく"最新版にインストールしないと動かない(デフォルトのOSSドライバが邪魔をする) ・TensorFlow ver.7をpipインストールするとtensorboardが使えない ・Fi

    Ubuntu14.04 + GPU + TensorFlow 環境構築 - Qiita
  • Ubuntu 14.04にCUDA 7.0とcuDNNを導入する

    UbuntuにCUDAとcuDNNをCaffeで使うためにインストール Deep Learningのフレームワーク「Caffe」をUbuntuで使用する上で、CUDAとcuDNNと呼ばれるライブラリを導入すると学習等の処理が速くなるというので、導入したときのメモです。Caffe以外の用途でこれらのライブラリを使用する場合でも同様の操作なのでよかったら御覧ください。 最近リリースされた「TensorFlow」もCuda 7.0とCUDNN 6.5 V2が対応バージョン(最新バーションじゃ上手く動かなかった)なのでこの記事を見ればGPUの環境を整えることができますよ。TensorFlowはまだ勉強中です。 環境の確認 この記事は以下の環境で検証しています。 Ubuntu 14.04 グラフィックボード GeForce GTX 750 Ti NVIDIAのグラフィックカードのドライバは事前に以下

    Ubuntu 14.04にCUDA 7.0とcuDNNを導入する
  • Ubuntu 14.04にcuDNNをインストール

    MacBookPro + Ubuntu 14.04 + CUDA7.5 + cuDNNの状態にします.CUDA7.5のインストール方法は別の記事に記載があります. cuDNNのダウンロード 難しいのはNVidiaのサイトにてDeveloper登録をするところだけです.Developer登録をしたら,ちょろっとアンケートに答えてダウンロードします. 今回cuDNNをインストールするのは後々Chainerを使いたいからなんですね.で,Chainer1.5.1を使いたくてそちらのドキュメントを見ると,cuDNN v2, 3がサポートされているとあります. なので,2016.1.14時点で最新のcuDNN v4ではなく,cuDNN v3をダウンロードします.MacBookProにインストールしたUbuntu 14.04にcuDNNを入れるので,cuDNN v3 Library for Linux

    Ubuntu 14.04にcuDNNをインストール
  • Deep Learning/Chainer1.5の導入 - labs.beatcraft.com

    Open Source Gadgets ├bc10Mk-II ├bc10 └bc9 Software ├Android ├ANT ├OpenFlow ├Docker ├OS X ├CUDA ├Synthesijer ├JavaRock ├Nios II uClinux ├Hadoop ├Python ├Deep Learning ├intel IPP └tips Hardware ├Armadillo ├Raspberry Pi ├BC-USB-Kit ├ANT ├DE0-nano ├Parallella ├Intel Galileo ├Intel Atom ├Sensor ├Camera Module └gumstix 電子工作 Demos 講演資料 参考資料 その他 BC::labs(en) Obsoletes FAQ Googleグループ bc9-dev STAFF BLOG ├BC

  • なぜcuDNNのConvolutionは高速なのか | 射撃しつつ前転

    cuDNNはNVIDIAが公開しているDeep Learning用のライブラリである。このライブラリを使うとCaffeやChainerなどのDeep Learning用のソフトウェアの速度が向上する。 この速度向上に寄与している最も大きな部分がConvolutionの高速化である。 個人的には、CPUでどこまで高速にConvolutionが実現できるのかに興味がある。記事は、その準備段階として、どういう高速化戦略がありえるのかを調べたものである。 ConvolutionとはConvolutionは、日語では畳み込みと呼ばれる操作である。畳み込み操作自体は何次元のデータ構造に対しても定義できるが、以下では、画像処理でよく使われる、二次元のConvolutionのみを考える。 何も考えずに普通にConvolutionを実装すると、以下の擬似コードのようになるだろう。ただし、簡単のため、境界

  • 1