2024年2月に発表された決算情報ではNVIDIAの年間売上高は600億ドル(約9兆3500億円)で、時価総額2兆ドル(約312兆円)を超える巨大企業となっていますが、そんなNVIDIAでも創業直後は貧弱な企業であり、かつて入交昭一郎という日本人に救われた歴史があるとWall Street Journalが報じました。 The 84-Year-Old Man Who Saved Nvidia - WSJ https://www.wsj.com/business/nvidia-stock-jensen-huang-sega-irimajiri-chips-ai-906247db 入交昭一郎 - Wikipedia https://ja.wikipedia.org/wiki/%E5%85%A5%E4%BA%A4%E6%98%AD%E4%B8%80%E9%83%8E 入交氏は大学卒業後に本田技研
米AIスタートアップ「Etched」は6月25日(現地時間)、ChatGPTなど最新のAI技術の基盤となっている「Transformer」アーキテクチャーに特化したチップ「Sohu」を発表した。この発表は、現在NVIDIAが支配的な地位を占めるAIチップ市場に、新たな競争をもたらす可能性がある。 Transformer処理に特化 AIチップ市場は現在NVIDIAが圧倒的なシェアを持つ。同社の汎用GPUは様々なAIモデルを効率的に処理できる柔軟性から市場の約80%を占めている。 多くの大手テクノロジー企業がAI開発のためにNVIDIAのチップに数十億ドルを投資しているのが現状だ。 Etchedの「Sohu」は、ASIC(Application-Specific Integrated Circuit:特定用途向け集積回路)と呼ばれる、特定の用途に最適化された集積回路だ。汎用性は低いものの、特定
最近オープンになる大規模言語モデル(LLM)が、軒並みGPT-4レベルの性能となっています Huggngfaceで無料でダウンロードできるのですが、問題は必要VRAM容量です 話題の、Command-r-Plusは、日本語性能について評価が高く、一部の性能はGPT-4並みと言われますが、さすがに大型で104Bパラメータもあるため、4bitに量子化しても60GB程度のVRAMが必要となります。 コンシューマークラスのGPUの最高峰、RTX4090は、VRAM24GBのため、command-r-plusをすべてGPUに載せて推論しようと考えると、3台のマルチGPUデスクトップが必要です しかし、RTX4090は450W消費のGPUのため冷却機構が大きく、1デスクトップに3台収めるのは至難の業となります。 先日、水冷ラジエーター付きRTX4090で、マルチGPUデスクトップを作成しました。 水冷
NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる 米NVIDIAは10月31日、サポートページ内にあるナレッジベースに掲載する形で、「Stable Diffusion」に関する動作の仕様について情報を公開した。生成AIを手軽に楽しめる「Stable Diffusion」におけるTipsがまとまっている。 NVIDIA RTX環境での「Stable Diffusion」はVRAMを使い果たすとDRAMも使えるが、逆にVRAMだけにもできる Stable Diffusionは、利用にあたって大容量のGPUメモリ(VRAM)が必要になる。NVIDIAではおおよそ6GB以上必要であるとしているが、モデルやスクリプトによってはより大規模なGPUメモリが必要になることもある。これを受けてバージョン536.40以降のド
VRAM容量を11GBから22GBにアップグレードした改造版の「RTX 2080 Ti」が中国市場で流通していることがわかりました。AIブームが巻き起こる中、アメリカによる半導体規制を受けている中国でGPUを確保しようとする必死の試みが行われています。 Chinese workshops recondition Nvidia's old flagship gaming GPU for AI — RTX 2080 Ti upgraded to 22GB for $499 | Tom's Hardware https://www.tomshardware.com/pc-components/gpus/chinese-workshops-recondition-nvidias-old-flagship-gaming-gpu-for-ai-rtx-2080-ti-upgraded-to-22gb-
NPUではなくeGPU側で「Windows Copilot Runtime」を処理 NVIDIAが定義する“RTX AI PC” 2024年後半にプレビュー版が登場:COMPUTEX TAIPEI 2024 米NVIDIAは6月2日(台湾時間)、「COMPUTEX TAIPEI 2024」(6月4~7日、台湾・台北市)に先駆けて基調講演を開催した。その中で、同社のdGPU(外部GPU)を利用できるノートPCが期間中にメーカー各社から続々と発表される予定であることをアピールしたが、同社はそれらのモデルを“RTX AI PC”と定義している。 その背景には、SoCに搭載されたNPUで本来行われる想定の処理をdGPU側で処理できるようになる新たな仕組みが米Microsoftと協力して開発されていることが挙げられる。 具体的には、AIプロセッサ(NPU)の利用をソフトウェア開発者がAPIとして呼び
AIがゲーム攻略情報でプレイをお助け? PCのチューニングまで面倒を見てくれる「Project G-Assist」は何ができるのか ライター:西川善司 COMPUTEX 2024の開幕直前である6月1日,NVIDIAは,CEOであるJensen Huang(ジェンスン・フアン)氏による基調講演を行った。その内容は,エンタープライズ向けGPUサーバーやGPGPU関連製品が中心で,民生向け製品に関連する発表や言及は非常に少なかった。 では,COMPUTEX 2024において,NVIDIAのブース展示がエンタープライズ関連,GPGPU関連ばかりだったかというとそうでもない。本稿では,ゲームファン向けの新技術「Project G-Assist」(以下,G-Assist)を実際に体験してみた様子をレポートしたい。 G-Assistのデモコーナー。右の人物は,今回のデモを担当したGuillermo S
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く