NVIDIAは6月18日(独自間)、独ライプチヒで開催されている「INTERNATIONAL SUPERCOMPUTING CONFERENCE(ISC'13)」において、2012年にGoogleが構築した過去最大規模のものを6.5倍に向上させたヒトの脳の学習方法をモデル化できる人工ニューラルネットワークをスタンフォード大学の人工知能ラボのディレクタであるAndrew Ng氏らと共同で構築したと発表した。 コンピュータでニューラルネットワークを構築すると、「学習」によって脳の挙動をモデル化し、人間と同じように物体や文字、音声、オーディオなどを認識することが可能になるが、大規模なニューラルネットワークの構築には膨大なコンピュータ資源を必要としていた。実際に、Googleのニューラルネットワークは、CPUベースのサーバを約1000台、CPUコアを約1万6000個ほど使用することで、さまざまなY
![NVIDIAとスタンフォード大、世界最大の人工ニューラルネットワークを構築](https://cdn-ak-scissors.b.st-hatena.com/image/square/872211f35998b8e16f4dfd0ce55e5c607b52cd6e/height=288;version=1;width=512/https%3A%2F%2Fnews.mynavi.jp%2Ftechplus%2Farticle%2F20130619-a083%2Findex_images%2Findex.jpg)