エントリーの編集
エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
マルチGPU環境で、計算に使用するCUDAデバイスを選択する - Qiita
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています
- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
マルチGPU環境で、計算に使用するCUDAデバイスを選択する - Qiita
GPUが複数刺さった計算機でKeras(Tensorflow backend)を使おうとしたところ、 Tensorflowが全GPUのVRA... GPUが複数刺さった計算機でKeras(Tensorflow backend)を使おうとしたところ、 Tensorflowが全GPUのVRAMを全て確保しようとするために、他の計算が回らなくなって困った。 GPU1枚だけを専有するように指定する方法でハマったのでメモしておく。 ソリューション 環境変数のCUDA_VISIBLE_DEVICESで指定できる。 kerasやtensorflowをimportする前に宣言すること import os os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" os.environ["CUDA_VISIBLE_DEVICES"] = ""