タグ

nvidiaに関するstibbarのブックマーク (7)

  • なぜcuDNNのConvolutionは高速なのか | 射撃しつつ前転

    cuDNNはNVIDIAが公開しているDeep Learning用のライブラリである。このライブラリを使うとCaffeやChainerなどのDeep Learning用のソフトウェアの速度が向上する。 この速度向上に寄与している最も大きな部分がConvolutionの高速化である。 個人的には、CPUでどこまで高速にConvolutionが実現できるのかに興味がある。記事は、その準備段階として、どういう高速化戦略がありえるのかを調べたものである。 ConvolutionとはConvolutionは、日語では畳み込みと呼ばれる操作である。畳み込み操作自体は何次元のデータ構造に対しても定義できるが、以下では、画像処理でよく使われる、二次元のConvolutionのみを考える。 何も考えずに普通にConvolutionを実装すると、以下の擬似コードのようになるだろう。ただし、簡単のため、境界

  • CUDA - Wikipedia

    CUDA(Compute Unified Device Architecture:クーダ)とは、NVIDIAが開発・提供している、GPU向けの汎用並列コンピューティングプラットフォーム(並列コンピューティングアーキテクチャ)およびプログラミングモデルである[5][6][7]。専用のC/C++コンパイラ (nvcc) やライブラリ (API) などが提供されている。なおNVIDIA製GPUにおいては、OpenCL/DirectComputeなどの類似APIコールは、すべて共通のGPGPUプラットフォームであるCUDAを経由することになる[8]。 概要[編集] CUDAの処理の流れ 1. メインメモリ(ホストメモリ)からデータをGPU用メモリ(デバイスメモリ)にコピーする。 2. CPUGPUに対して処理を指示する。 3. GPUが必要なデータを取り込み各コアで並列実行する。 4. 結果をG

    CUDA - Wikipedia
  • GPUコンピューティング脱落者から見たNVIDIA GPUの利用規約騒動|暗黙の型宣言

    一週間ほど前から,NVIDIAがGeForceのデータセンタ利用を制限した話がネットを賑わしはじめた.おもしろいことになってるなと感じたので,私の経験と,それに照らし合わせて今回の騒動に感じた事を語りたくなった.記憶も記録も曖昧であるため,年寄りの昔話程度に読んでもらいたい. ここでいうおもしろいとは,滑稽という意味ではなく,興味深いという意味合いである.この件で色々な対応を迫られている方々を蔑む意図は微塵もないことはご理解いただきたい. 今回の騒動に抱いた感想俗っぽい言い方をすると「恋人がこちらをフって乗り換えた相手が意外に曲者で,元恋人が困っているのを眺める気持ち」だろうか.そのような経験をしたことはないし,恋人というほどNVIDIA社に固執しているわけでもないが. 事の発端NVIDIAが規約変更によりGeForceのデータセンター利用を制限。大学などの研究活動にも大ブレーキ これが最

    GPUコンピューティング脱落者から見たNVIDIA GPUの利用規約騒動|暗黙の型宣言
  • NVIDIA Deep Learning Accelerator

    NVDLA The NVIDIA Deep Learning Accelerator (NVDLA) is a free and open architecture that promotes a standard way to design deep learning inference accelerators. With its modular architecture, NVDLA is scalable, highly configurable, and designed to simplify integration and portability. The hardware supports a wide range of IoT devices. Delivered as an open source project under the NVIDIA Open NVDLA

  • NVIDIA Teslaでデスクトップ・スパコンを実現? (1/2)

    1Uラックマウントサーバーの筐体に4基のGPUを収めた「Tesla S1070 1Uコンピューティング・システム」。1U 1台でなんと4TFlopsの性能! それでいてGPUカード上にはファンがない 「GPUコンピューティング」という言葉をご存じだろうか? 現代のGPUは単なる高速3Dグラフィックス処理専用プロセッサーではない。1チップあたり最大数百個もの演算ユニットで、大量の浮動小数点演算を高速でこなすプロセッサーに進化している。この能力を、(汎用CPUを複数組み合わせて実行していたような)大規模科学技術演算プログラムなどの並列処理に応用するのが、GPUコンピューティングだ。 特にNVIDIAはこの分野に傾倒している。2006年11月には同社製GPU(GeForce 8シリーズ以降)を汎用並列プロセッサーとして利用するための技術「NVIDIA CUDA」(Compute Unified

    NVIDIA Teslaでデスクトップ・スパコンを実現? (1/2)
  • GPUテクノロジ・カンファレンス | GTC Japan 2012

    エヌビディア ではこれまで 3回の GPU コンピューティングイベントを主催し、年々規模を拡大してきました。4回目となる今回は参加予定者数1,500名を超える日最大のHPC関連イベントとなります。基調講演者には長年米国CRAYでCTOなどの要職を務めた、現エヌビディア米国社 Tesla ビジネスユニット CTO のスティーブ・スコットを迎え、GPU コンピューティングの最新情報、及び未来の姿をご紹介します。 今年は新しい GPU アーキテクチャである Kepler が登場する年です。Kepler はグラフィック性能、GPUコンピューティング性能を大幅に強化しただけではなく、仮想化テクノロジーをサポートした史上初のGPUです。Keplerアーキテクチャや、GPU仮想化テクノロジーであるNVIDIA VGXとGeForce Grid、グラフィックとコンピュートを融合しワークステーションを

  • [GDC 2013]NVIDIA,クラウドゲームサーバー向けデザイン構想「Project Madrox」を公表。「PS4は次世代Xboxより性能が高い」という情報も

    [GDC 2013]NVIDIA,クラウドゲームサーバー向けデザイン構想「Project Madrox」を公表。「PS4は次世代Xboxより性能が高い」という情報も 編集部:aueki Game Developwers Conference 2013の4日めとなる北米時間2013年3月28日,NVIDIAが,クラウドゲームサービス関連のセッション「Moving Game into the Cloud」(ゲームをクラウドへ)を行った。 セッションで前半を担当したNVIDIAのFranck Diard氏(Chief Software Architect, NVIDIA) セッションは前半と後半に分かれており,前半は,クラウドゲームシステム「GeForce GRID」の基礎解説となっていたのだが,その内容に新味はほとんどなかったため,スライドを1枚だけ掲載するに留めておきたい。 下に示したスライ

    [GDC 2013]NVIDIA,クラウドゲームサーバー向けデザイン構想「Project Madrox」を公表。「PS4は次世代Xboxより性能が高い」という情報も
  • 1