NVIDIAは6月18日(独自間)、独ライプチヒで開催されている「INTERNATIONAL SUPERCOMPUTING CONFERENCE(ISC'13)」において、2012年にGoogleが構築した過去最大規模のものを6.5倍に向上させたヒトの脳の学習方法をモデル化できる人工ニューラルネットワークをスタンフォード大学の人工知能ラボのディレクタであるAndrew Ng氏らと共同で構築したと発表した。 コンピュータでニューラルネットワークを構築すると、「学習」によって脳の挙動をモデル化し、人間と同じように物体や文字、音声、オーディオなどを認識することが可能になるが、大規模なニューラルネットワークの構築には膨大なコンピュータ資源を必要としていた。実際に、Googleのニューラルネットワークは、CPUベースのサーバを約1000台、CPUコアを約1万6000個ほど使用することで、さまざまなY