米NVIDIAでGPUコンピューティングのソフトウエア部隊を率いるIan Buck氏が、2013年7月30日に東京で開催される「GTC(GPU Technology Conference Japan 2013」に合わせて来日し、日経ソフトウエアの取材に応じた。今回が初来日とのこと。「CUDAを作った男」の話は力あふれるものだった。 明日のGTC Japanの基調講演では何を話すのか。 明日話すことは三つある。NVIDIAのGPU(Graphical Processing Unit)を使ったコンピューティングのプラットフォームとプログラミングモデルである「CUDA(クーダ)」を我々が作ってから7年になる。なぜCUDAを作ったか、これまでの7年間に何をしてどのように成功したか、そこから話そう。次は今何ができるかだ。C/C++、Fortran、Pythonなどの多くのプログラミング言語でCUDA
「NVIDIA Tesla GPU」は、CUDA GPUアーキテクチャに基づいて設計された大規模並列処理プロセッサ。CUDAによる処理の高速化で、アプリケーションはGPUが持つ何百個ものコアにアクセスできるようになり、従来型プロセッサと比較して実行速度を大幅に上昇させることができる。 一方「Cluster GPU Instances」は、これまでの選択肢に加え、Amazon Web service(AWS)でハイパフォーマンスコンピューティング(HPC)を提供するサービス。Amazon EC2経由で提供されることにより、今まで費用の面でスーパーコンピュータを導入することが難しかった企業でも、GPUでスーパーコンピューティングの使用が可能となる。 Cluster GPU Instances for Amazon EC2では、mentalimages社のRealityServer(3Dアプリケ
●人材を引き入れて変身を繰り返すNVIDIA NVIDIAの技術的な方向性は、同社にどんな人物が加わったかによってわかる。NVIDIA GPUの最大の転機となった「GeForce 8800(G80)」の背後には、並列コンピュータのアーキテクトであるJohn Nickolls(ジョン・ニコルズ)氏(現Director of Architecture, Nvidia)がいた。Nickolls氏は、超並列SIMD(Single Instruction, Multiple Data)スーパーコンピュータ「MasPar Computer」のアーキテクトだった人物。MasParのアーキテクチャを、部分的にGPUに持ち込んだ。「(MasParとG80には)違う部分も色々あるが、元になっているアイデアは非常に似ている」とNickolls自身も語っていた。 NVIDIAの人材集めはGPUハード絡みだけではな
東工大、世界初のGPU採用スパコンに進化した「TSUBAME 1.2」を解説 ~NVIDIA CEOフアン氏は特別講演を実施 12月2日 開催 米NVIDIAの創業者兼最高経営責任者(CEO)であるジェンスン・フアン氏が2日来日し、東京工業大学の講堂で学生に向けて「エンジニアの未来を語ろう」と題した講演を行なった。 今回、フアン氏が講演したのは、同校が運営するスーパーコンピュータ「TSUBAME」がこの11月に、世界最大規模となる680基のTeslaを組み込こむことアップグレードされ、77.48TFLOPSというピーク性能を実現するに至ったことが関係している。講演に先立って、Tesla採用の経緯についての記者説明会が行なわれたので、まずはその内容からお伝えする。 ●GPUによるアクセラレーションを用いた初のスパコン 2006年4月に運用が始まったTSUBAMEは、デュアルコアOpteron
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く