神様。ちょい古なノートPCでゲーミング&生成AIの夢を見たいのですが2024.03.30 18:0023,795 武者良太 そのお願い。叶えてくれるのですか神様。 写真だけ見ると、ちょっと?いやかなり大きな多機能USBハブ。しかしこのハコのなかには、Radeon RX 7600M XTが入ってる。 AMD入ってる! つまるところこの「GPD G1 2024」はeGPUこと外付けGPUボックスです。モバイル用GPUを使うことで、レンガみたいなデカさの外付けGPUボックスからSwitchサイズにまでダイエットできたんですね。 Image: リンクスインターナショナル計測の仕方によっても変わるけど、Radeon RX 7600M XTはRTX 3060 Mobile~RTX 4060 Mobileくらいのパワーを持ってるGPU。そいつをこーしてこーやって小さめのハコに入れちゃった。使い勝手、よさ
NVIDIAが技術カンファレンス「GTC 2024」の中で、2年ぶりの新たなGPUアーキテクチャ「Blackwell」と、BlackwellアーキテクチャベースのGPU「B200」を発表しました。Blackwellにより、あらゆる組織がコストとエネルギー消費を25分の1に抑え、数兆パラメータの大規模言語モデル(LLM)によるリアルタイム生成AIを構築・実行可能になるとNVIDIAは述べています。 生成 AI のための Blackwell アーキテクチャ | NVIDIA https://www.nvidia.com/ja-jp/data-center/technologies/blackwell-architecture/ Blackwellアーキテクチャは、2022年に発表されたHopperアーキテクチャの後継です。名前は、アメリカ科学アカデミーにアフリカ系アメリカ人として初めて殿堂入り
米半導体メーカー、エヌビディアのジェンスン・フアン最高経営責任者(CEO)は18日、人工知能(AI)コンピューティングにおける同社の支配的地位をさらに強固にすることを目指した次世代チップを披露した。同社はこうした地位により時価総額が2兆ドル(約300兆円)を突破し、マイクロソフトとアップルに次ぐ世界3位となっている。 「ブラックウェル」と名付けられた新たなプロセッサーデザインはAIを支えるモデルの処理が数倍速くなると、同社はカリフォルニア州サンノゼで開幕した画像処理半導体(GPU)テクノロジーのイベント「エヌビディアGTC」で発表した。これには「トレーニング(学習)」として知られるテクノロジー開発と、「インファレンス(推論)」と呼ばれる活用のプロセスが含まれる。
「AI開発をリードするということは、ハードウェアインフラへの投資でリードするということ」として、MetaがAIのための投資として行っている、2万4000基以上のGPUを搭載したデータセンタースケールのクラスターの情報を明らかにしました。 Building Meta’s GenAI Infrastructure - Engineering at Meta https://engineering.fb.com/2024/03/12/data-center-engineering/building-metas-genai-infrastructure/ Meta reveals details of two new 24k GPU AI clusters - DCD https://www.datacenterdynamics.com/en/news/meta-reveals-details-o
NVIDIAの「DLSS」、AMDの「FidelityFX」、Intelの「XeSS」といった複数のゲーム超解像技術を単一のコードで有効化できるAPI「DirectSR」をMicrosoftが発表しました。 DirectX Innovation on Display at GDC 2024 - DirectX Developer Blog https://devblogs.microsoft.com/directx/directx-innovation-on-display-at-gdc-2024/ 「DLSS」「FidelityFX」「XeSS」といった超解像技術はAIを用いてフレームを生成したり解像度を向上させたりする技術で、GPUの負荷を抑えつつゲームの画質やフレームレートを向上させることが可能です。それぞれの技術は対応GPUさえ用意すれば使えるわけではなく、ゲーム側が各技術に対応し
主にAI処理用途での先行者利益と性能の良さで採用が拡大している。2006年からGP(汎用)GPU開発環境「CUDA」を展開する。TransformerはNVIDIAのGPUを前提に設計した。 先行者利益─。米NVIDIAがAI半導体市場で独走する大きな理由の1つである。同社は2006年からCUDA(Compute Unified Device Architecture)を公開し、いち早くGPUを科学計算用途に広げた。これが深層学習の研究開発でも活用されるようになった。2022年には大規模言語モデル(LLM)向けに「H100 Tensor Core GPU」を出荷開始し、世界中でH100不足を起こすまでになっている(図1)。 2006年時点で他社に先んじてGP(汎用)GPUの開発環境「CUDA」を提供し、GPUの用途を画像処理から並列演算処理全般に広げた。その後、並列演算の応用先としてニュー
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く