主にAI処理用途での先行者利益と性能の良さで採用が拡大している。2006年からGP(汎用)GPU開発環境「CUDA」を展開する。TransformerはNVIDIAのGPUを前提に設計した。 先行者利益─。米NVIDIAがAI半導体市場で独走する大きな理由の1つである。同社は2006年からCUDA(Compute Unified Device Architecture)を公開し、いち早くGPUを科学計算用途に広げた。これが深層学習の研究開発でも活用されるようになった。2022年には大規模言語モデル(LLM)向けに「H100 Tensor Core GPU」を出荷開始し、世界中でH100不足を起こすまでになっている(図1)。 2006年時点で他社に先んじてGP(汎用)GPUの開発環境「CUDA」を提供し、GPUの用途を画像処理から並列演算処理全般に広げた。その後、並列演算の応用先としてニュー
※当記事は、作家・百田尚樹氏から「盗作」との指摘を受けました。筆者本人も文章を書き写したことを認めており、記事を取り消します。
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く