ディープラーニングセミナー2015(名古屋)に行ってきた。 セミナー資料は後ほど公開されるそうだ。(追記、資料が公開された。後述) 覚え書きまとめ。 ・CPUに比べてGPUの演算性能の進化が著しい。 ・NVIDIAのGPUはゲーム用に作ってきたが、ディープラーニング需要が増えてきたので、ディープラーニング向けにハードやソフトを開発している。 ・ディープラーニングにはGeForceのTITAN Xとか売れている。次のPascal世代のGPUはディープラーニング向けに単精度計算などの機能が拡張される。 ・車載や組み込み用にはTESLAというチップを搭載したキットを用意している。信頼性確保のためにメモリのECCを使っている。今後はGPU内部のレジスタや一時メモリにもECCを使って、信頼性を上げていく。 ・ディープラーニングの処理で重たいのは入力の畳み込み計算と、全ニューロン素子を通した演算をする
CUDA(Compute Unified Device Architecture:クーダ)とは、NVIDIAが開発・提供している、GPU向けの汎用並列コンピューティングプラットフォーム(並列コンピューティングアーキテクチャ)およびプログラミングモデルである[4][5][6]。専用のC/C++コンパイラ (nvcc) やライブラリ (API) などが提供されている。なおNVIDIA製GPUにおいては、OpenCL/DirectComputeなどの類似APIコールは、すべて共通のGPGPUプラットフォームであるCUDAを経由することになる[7]。 CUDAの処理の流れ 1. メインメモリ(ホストメモリ)からデータをGPU用メモリ(デバイスメモリ)にコピーする。 2. CPUがGPUに対して処理を指示する。 3. GPUが必要なデータを取り込み各コアで並列実行する。 4. 結果をGPU用メモリか
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く