Sometimes awesome things happen in deep rabbit holes. Or not. Using a pre-built public AMI Based on the instructions in this blog post, I’ve created an AMI and shared it publicly. So the easiest thing to do is just use that pre-built AMI: Image: ami-2cbf3e44 for US-East or ami-c38babf3 for US-West (Ubuntu Server 14.04 LTS (HVM) – CUDA 6.5) Instance type: g2.2xlarge (if you skip this step, you won’
Torch7やTheano、CaffeといったライブラリをGPU上で実行するために必要となるCUDA環境の構築について基本的な情報と、よくひっかかる点やその解決方法を示します。 注意:GPU環境構築は、環境(ハード構成等)によっては、Linuxの専門的な知識を要する場合があります。 Deep Learning研究において、GPUを利用した計算ができることはほぼ必須だと言っても過言ではありません。これは、GPUを使う場合と使わない場合では数倍から10倍程度、計算時間に差がでるためです。大量のデータを訓練データとして利用することが多いDeep Learningの研究においてこの差は致命的になることが多いです。 GPUの計算環境といっても、いくつかの実装があります。代表的なGPGPU用のライブラリとしては、OpenCLやCUDAが挙げられます。Torch7やPylearn2、Caffeといったメ
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く