タグ

GPUに関するtzkobaのブックマーク (3)

  • nvidia-dockerでコンテナDeep Learning - IDCF テックブログ

    こんにちは、金杉です。 GPUを使って機械学習をするとき、リソースや開発で課題を抱えている人は多いのではないでしょうか。個人でGPUを所有していたり、学習時間にあまりこだわらなければ問題ないと思います。しかし、格的なDeep Learningをやろうとすると、プロジェクト間で同じGPUを共有するケースや、複数の環境で学習をさせるなど、リソースプランニングをしっかりやる必要があります。クラウド型GPUを利用になるのであれば多少楽になるものの、CUDA環境やアプリケーションを都度インストールするのも手間ですよね。 そんなリソースが限られたなかで開発を効率化するために、今回はnvidia-dockerを使ってDeep Learningをコンテナで動かす方法を紹介したいと思います。 Issue nvidia-dockerとは 環境構築 今回の環境 1. GPUドライバのインストール 2. Doc

    nvidia-dockerでコンテナDeep Learning - IDCF テックブログ
  • 1. Overview — GPUDirect RDMA 12.3 documentation

  • OpenACC プログラミング by PGI -- 1章 アクセラレータとは --

    GPU プログラミングを行う上で、NVIDIA GPU の構造、特に、スレッドの処理単位やベクトル処理の方法に関して書いた拙著「NVIDIA GPU の構造と CUDA スレッディングモデル」は、2010 年に書いたものであるが、GPUの基的な構造はあまり変わらないため、一読していただくと今後の参考になるかもしれない。 2013年末における「アクセラレータ・デバイス」として、NVIDIA社の GPU、Intel社の Xeon Phi、AMD社の Radeon GPU が市場に流通している。ユーザが使用するプログラミングモデルとしては、これらの異機種デバイス上で大きなプログラム変更無しに使用できるものが理想である。その解は、実は、これから説明する OpenACC である。これら三社のデバイスは、今後、同じマーケットにおいて競い合うものと思われるが、これらのデバイスの特徴を簡単にまとめてみる

    tzkoba
    tzkoba 2017/08/03
  • 1