こんにちは、金杉です。 GPUを使って機械学習をするとき、リソースや開発で課題を抱えている人は多いのではないでしょうか。個人でGPUを所有していたり、学習時間にあまりこだわらなければ問題ないと思います。しかし、本格的なDeep Learningをやろうとすると、プロジェクト間で同じGPUを共有するケースや、複数の環境で学習をさせるなど、リソースプランニングをしっかりやる必要があります。クラウド型GPUを利用になるのであれば多少楽になるものの、CUDA環境やアプリケーションを都度インストールするのも手間ですよね。 そんなリソースが限られたなかで開発を効率化するために、今回はnvidia-dockerを使ってDeep Learningをコンテナで動かす方法を紹介したいと思います。 Issue nvidia-dockerとは 環境構築 今回の環境 1. GPUドライバのインストール 2. Doc
![nvidia-dockerでコンテナDeep Learning - IDCF テックブログ](https://cdn-ak-scissors.b.st-hatena.com/image/square/c4804b2a8f5e4eb7d24b36c6816da432f68835f8/height=288;version=1;width=512/https%3A%2F%2Fcdn-ak.f.st-hatena.com%2Fimages%2Ffotolife%2Fy%2Fykanasugi%2F20171023%2F20171023115105.png)