並び順

ブックマーク数

期間指定

  • から
  • まで

241 - 280 件 / 336件

新着順 人気順

GPUの検索結果241 - 280 件 / 336件

  • 自動運転EV開発のチューリング、AI開発基盤として大規模GPUクラスタ「Gaggle Cluster」の構築に着手

    チューリング株式会社(千葉県柏市、代表取締役:山本 一成、以下「チューリング」)は、完全自動運転AIの実現に向け、大規模言語モデル(LLM)やマルチモーダルモデル向けの専用計算基盤として、GPUクラスタシリーズ「Gaggle Cluster」の構築に着手したことを発表します。 今回構築する最初のクラスタ「Gaggle-Cluster-1」は、96基のNVIDIA H100 GPUを搭載し、総計算能力190PFLOPSとなる、国内の企業が専有するGPU計算基盤としては最大規模のGPUクラスタです。システム全体として2024年前半の稼働開始を目指しています。 Gaggle-Cluster-1は多数のGPUサーバーで構成されているだけでなく、サーバー間の通信帯域及びストレージ速度を最大限に確保し、これによりクラスタ全体を「単一の計算機」として大規模な学習タスクに最適化させることが最大の特徴です。

      自動運転EV開発のチューリング、AI開発基盤として大規模GPUクラスタ「Gaggle Cluster」の構築に着手
    • GitHub - adam-maj/tiny-gpu: A minimal GPU design in Verilog to learn how GPUs work from the ground up

      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

        GitHub - adam-maj/tiny-gpu: A minimal GPU design in Verilog to learn how GPUs work from the ground up
      • Bringing serverless GPU inference to Hugging Face users

        Today, we are thrilled to announce the launch of Deploy on Cloudflare Workers AI, a new integration on the Hugging Face Hub. Deploy on Cloudflare Workers AI makes using open models as a serverless API easy, powered by state-of-the-art GPUs deployed in Cloudflare edge data centers. Starting today, we are integrating some of the most popular open models on Hugging Face into Cloudflare Workers AI, po

          Bringing serverless GPU inference to Hugging Face users
        • 知識ゼロでもわかる“PCパーツの基礎”:第2回:「RTX」「Radeon」「Arc」…GPUのシリーズ名と見るべきポイント

            知識ゼロでもわかる“PCパーツの基礎”:第2回:「RTX」「Radeon」「Arc」…GPUのシリーズ名と見るべきポイント
          • さくらインターネット、GPUサービス提供と既存サービスの成長に向け石狩データセンターに追加投資

              さくらインターネット、GPUサービス提供と既存サービスの成長に向け石狩データセンターに追加投資
            • NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か

              2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日

                NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か
              • ザッカーバーグ、大量のGPUを確保…2024年中にエヌビディアの「H100」を34万個

                Aaron Mok [原文] (翻訳:仲田文子、編集:井上俊彦) Jan. 24, 2024, 11:00 AM テックニュース 14,796 メタのマーク・ザッカーバーグCEO(左)と、エヌビディアのジェンスン・フアンCEO(右)。 Kevin Dietsch, Getty Images; Sam Yeh メタは需要が極めて高いエヌビディアのH100チップを、2024年末までに34万個以上入手するようだ。 他にも合計60万個のチップを集めようとしているとThe Vergeが報じている。 マーク・ザッカーバーグCEOは、メタを「AIファースト」の企業にすることを目指している。 メタ(Meta)は、AI戦争で優位に立つために、多くの企業が手に入れたがっている半導体を、何百、何千と備蓄する予定だ。 メタのマーク・ザッカーバーグ(Mark Zuckerberg)CEOがThe Vergeに語った

                  ザッカーバーグ、大量のGPUを確保…2024年中にエヌビディアの「H100」を34万個
                • AMD GPU(Radeon、Instinct)で生成AIを動かしてみた

                  はじめに AMDのGPU(RX7900 XTXとMI210)を使用して生成AIを動作させるまでの手順をまとめる。手順さえ分かってしまえばStable DiffusionやLLMなどのAIを問題なく、実用的な速度で動作させられることが分かった。 検証環境 AMD GPUをインストールした2台のPCで検証を行った。 RX7900 XTX CPU AMD Ryzen 9 7950X

                    AMD GPU(Radeon、Instinct)で生成AIを動かしてみた
                  • アメリカの半導体輸出規制を受けて中国企業が高性能GPUの組み立てをマレーシア企業に委託、一方で日本の半導体企業は先進的でない半導体製造装置の輸出で影響を相殺

                    アメリカは半導体関連製品の中国への輸出を厳しく制限しています。中国は規制を回避しつつ高性能チップの生産を行うことを目指しており、複数の中国企業がマレーシア企業に高性能チップの組み立てを委託していることや、日本の半導体企業の製品が中国企業に採用される事例が増えていることが報じられています。 Exclusive: Chinese firms look to Malaysia for assembly of high-end chips, sources say | Reuters https://www.reuters.com/technology/chinese-firms-look-malaysia-assembly-high-end-chips-sources-say-2023-12-17/ Tokyo Electron says China is snapping up its les

                      アメリカの半導体輸出規制を受けて中国企業が高性能GPUの組み立てをマレーシア企業に委託、一方で日本の半導体企業は先進的でない半導体製造装置の輸出で影響を相殺
                    • さくらインターネット、GPUクラウドのハイレゾと連携 互いの顧客にサービスを紹介

                      さくらインターネットは1月12日、GPUクラウド事業を手掛けるハイレゾ(東京都新宿区)との連携を発表した。各社の顧客に互いのサービスを紹介し合う体制を構築するという。 さくらインターネットはハイレゾのGPUサービス「GPUSOROBAN」を、ハイレゾはさくらインターネットのクラウドサービスをそれぞれの顧客に紹介。これにより「研究開発に特化したハイレゾの計算資源と、さくらインターネットの安定した計算資源を顧客の目的に沿って提供可能になる」(2社)という。 さくらインターネットは生成AI需要を踏まえ、クラウドサービスの提供を強化している。2023年6月には米NVIDIAのGPU「NVIDIA H100 Tensor コア GPU」を2000基以上導入し、生成AI向けクラウドサービスの提供を発表した他、GPUクラウドサービスに3年間で130億円投資する計画を明らかにした。 関連記事 ドスパラがG

                        さくらインターネット、GPUクラウドのハイレゾと連携 互いの顧客にサービスを紹介
                      • The Iconfactory、CPUやGPU、メモリ使用率を表示してくれるMac用システムモニタアプリ「iPulse」のiPhone/iPad版をリリース。PinP機能を利用し常にシステムリソースの確認が可能に。

                          The Iconfactory、CPUやGPU、メモリ使用率を表示してくれるMac用システムモニタアプリ「iPulse」のiPhone/iPad版をリリース。PinP機能を利用し常にシステムリソースの確認が可能に。
                        • 格安GPUインスタンスでの生成AI完全ガイド: Vast.aiで動かすLLM & Stable Diffusion

                          多くの画像生成AIサービスは、ChatGPT有料版で使えるDALL-E 3や、Discordで使えるMidjourneyなど、クラウドベースであり、生成するたびにサーバーにアクセスして処理を行う。オンラインで簡単に利用できるというメリットの一方で、無料で利用できる範囲には枚数制限や速度制限などがあるのが大きなデメリットだ。 AIイラストは、何度もプロンプトを変えて「下手な鉄砲数打ちゃ当たる」方式で試行錯誤しないと、望むイラストには辿り着けない事が多い。趣味で試したい程度の無料ユーザーは、画像生成AIの凄さを体験できずにいるかもしれない。 この点、数ある画像生成AIの中で、Stable Diff… クラウドコンピューティングは時間あたりで課金されるため、Vast.aiのインスタンスを立ち上げた後に、ゼロからWebUIの使い方を調べていると、無駄にお金がかかってしまうので、まずは自分のPC上で

                            格安GPUインスタンスでの生成AI完全ガイド: Vast.aiで動かすLLM & Stable Diffusion
                          • ローカルLLMのための最適なGPU選定:Mac Studio購入の決め手

                            はじめに どんな人向けの記事? ローカルLLMに興味がある方 ローカルLLM向けにGPUの購入を検討している方 内容 本記事では、ローカルLLMの推論に向いているGPUの選定を行います。 タイトルにある通り、結論から言うと私はM2 Ultra搭載のMac Studioを購入しました。 なぜ私が60万円以上もするMac Studioを購入するに至ったのか?その経緯を書き留めています。 検討項目 ローカルLLMの推論向けに最適なGPUは何か? 今後のGPU販売計画も考慮して、今買うべきか待つべきか? Mac Studioを購入する際の具体的なスペックはどうすべきか? 背景 昨年、画像生成AI向けにNVIDIAのGeForce RTX 3060 (12GB)を購入しましたが、最近のローカルLLMの性能向上により、このGPUでは物足りなくなってきました。また、メインで使用している第8世代Core

                              ローカルLLMのための最適なGPU選定:Mac Studio購入の決め手
                            • GPUの「レイトレーシング処理」改良の歴史をひもとく【Radeon RX 7000シリーズ編】

                              競合から2年遅れて「レイトレ対応GPU」を投入したAMD NVIDIAが、ハードウェアベースのレイトレーシング機能を世界で初めて搭載した「GeForce RTX 20シリーズ」を発表したのが2018年だった。 競合のAMDは2019年、新GPUアーキテクチャ「RDNA」を発表し、同アーキテクチャを採用したGPUの開発コード名が「Navi」となることを発表した。 Naviは「Radeon RX 5000シリーズ」として製品化されることになったわけだが、多くのPCゲーミングファンは「Radeon RX 5000シリーズには、きっとRTユニットが搭載されている!」と確信していた。 →AMDが次世代GPU「Radeon RX 5000」ファミリーを7月投入 ところが、ここでまさかの“肩透かし”が発生する。Radeon RX 5000シリーズはレイトレ“非対応”だったのだ。 結論からいうと、AMDの

                                GPUの「レイトレーシング処理」改良の歴史をひもとく【Radeon RX 7000シリーズ編】
                              • AMDが新型GPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表 「NVIDIA H100」よりも強い?

                                AMDは12月6日(米国太平洋時間)、HPC(ハイパフォーマンスコンピューティング)/データセンター向けのGPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表した。搭載する製品は、2024年初頭から登場する予定だ。 Instinct MI300シリーズの概要 Instinct MI300シリーズは、AMDのGPUアクセラレータ「Instinct MI」の最新モデルで、最新の「CDNA 3アーキテクチャ」のGPUコアを搭載している。先代の「Instinct MI200シリーズ」と比べると、演算ユニット(CU)は最大約40%増加し、対応するメモリ容量は最大1.5倍となり、メモリ帯域幅(ピーク時)は最大1.7倍となっている。 ラインアップは、CPUコアも備えるAPU「Instinct MI300A」、PCI Express 5.0接続のOAMモジュールとして提供される「Ins

                                  AMDが新型GPUアクセラレータ「Instinct MI300シリーズ」の詳細を発表 「NVIDIA H100」よりも強い?
                                • open版NVIDIA GPUドライバーを事故無く導入出来る様になったらしい。。。 - Qiita

                                  概要 昨年末に以下の記事でubuntu-drivers devicesコマンドでrecommended表示が付いたNVIDIA製のGPUドライバーをUbuntuにインストールするとGPUが正常に認識されず、nvidia-smiコマンドを実行すると「No devices were found.」とメッセージが出力される問題が発生すること、そしてその対処方法について投稿しました。 しかし、この方法はあくまでその場しのぎの対処方法であり、根本的な問題解決とはなっていませんでした。そこで筆者は根本原因の特定を行うため、Linuxに詳しい友人の協力を得て、根本原因の特定する調査を行いました。結果として、根本原因の特定と、解決方法を解明しましたが、現状open版のGPUドライバーはrecommendedにはなっていません。しかし、open版ドライバーには新機能が実装されていてそれを試したい時にこの方法

                                    open版NVIDIA GPUドライバーを事故無く導入出来る様になったらしい。。。 - Qiita
                                  • GitHub - philipturner/metal-benchmarks: Apple GPU microarchitecture

                                    You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                      GitHub - philipturner/metal-benchmarks: Apple GPU microarchitecture
                                    • 株式会社ハイレゾ | GPUクラウドサービス

                                      GPU PLATFORM GPU事業 GPUによる高速計算を、業界最安級のコストで使えるGPUクラウドサービス「GPUSOROBAN」を提供。画像生成AI・大規模言語処理LLMや、CAD・BIMなど幅広い分野で利用されています。 DIGITAL AD 広告事業 業界と媒体をシームレスに繋ぐワンストップのアドテクノロジーとして、自社開発にとどまらないクライアントサービスを提供しています。

                                      • Android版のChrome 121、高速なグラフィクス描画やGPUプログラミングを可能にする「WebGPU」が標準で利用可能に

                                        Android版のChrome 121、高速なグラフィクス描画やGPUプログラミングを可能にする「WebGPU」が標準で利用可能に Googleは1月17日付けでリリースしたChrome 121のAndroid版で、QualcommとARMのGPUを搭載したデバイスではWebGPUがデフォルトで有効になったことを明らかにしました。 下記はGoogle ChromeエバンジェリストFrançois Beaufort氏のポストです。 Chrome 121 is packed with WebGPU features: Now on Android! Use of DXC for shader compilation Timestamp queries in passes Default entry points to shader modules display-p3 color space

                                          Android版のChrome 121、高速なグラフィクス描画やGPUプログラミングを可能にする「WebGPU」が標準で利用可能に
                                        • 生成AI処理などを高速化したプロ向けエントリーGPU「NVIDIA RTX A400/A1000」

                                            生成AI処理などを高速化したプロ向けエントリーGPU「NVIDIA RTX A400/A1000」
                                          • Unbelievable! Run 70B LLM Inference on a Single 4GB GPU with This NEW Technique

                                            Large language models require huge amounts of GPU memory. Is it possible to run inference on a single GPU? If so, what is the minimum GPU memory required? The 70B large language model has parameter size of 130GB. Just loading the model into the GPU requires 2 A100 GPUs with 100GB memory each. During inference, the entire input sequence also needs to be loaded into memory for complex “attention” ca

                                              Unbelievable! Run 70B LLM Inference on a Single 4GB GPU with This NEW Technique
                                            • MINISFORUM UM780 XTXレビュー:最強の内蔵GPU「Radeon 780M」を搭載 | ちもろぐ

                                              Amazon.co.jpはこちらMINISFORUM(直販)はこちら巧みなマーケティング戦略を用いて、日本市場でミニPCといえばMINISFORUMと言われるほど定番化した中華ブランドです。 最近は定価10万円クラスのハイエンドミニPCを数多く販売していて、今回レビュー用に買った「UM780 XTX」もハイエンドモデルのひとつです。 CPUに「Ryzen 7 7840HS」を搭載します。台湾TSMC 4 nmプロセスで製造される最新のZen 4コアを8コア16スレッドと、現時点で最強クラスの内蔵GPU「Radeon 780M(最大2.7 GHz)」を内蔵するモバイルAPUです。 メインメモリにDDR5-5600(SODIMM)を2枚組(デュアルチャネル仕様)を、メインSSDに最大5000 MB/sの高速NVMe SSDを容量1 TB搭載しています。 10万円クラスで競合する「GEEKOM

                                                MINISFORUM UM780 XTXレビュー:最強の内蔵GPU「Radeon 780M」を搭載 | ちもろぐ
                                              • 「NVIDIAのGPUサーバーが確保できない」AI企業が悲鳴 - 日本経済新聞

                                                生成AI(人工知能)ブームが過熱する現在、基盤となる大規模言語モデル(LLM)の開発に必要なAI用GPU(画像処理半導体)インフラの確保が難しくなっている。特にパブリッククラウドを利用するユーザーがLLM開発に適したGPUサーバーのインスタンス(サーバー上の実行環境)を確保できない状態が続いており、LLMを開発する国内企業が悲鳴をあげている。このままGPUインフラを十分に確保できなければ、国内企

                                                  「NVIDIAのGPUサーバーが確保できない」AI企業が悲鳴 - 日本経済新聞
                                                • NVIDIA、2つのGPUダイを採用した新GPUアーキテクチャ「Blackwell」発表 電力効率25倍、AI性能は30倍に

                                                  米NVIDIAは3月18日(現地時間)、高度なデータセンターなどで使われるGPUの新アーキテクチャ「Blackwell」(ブラックウェル)を発表した。同技術を採用する製品は、コストとエネルギー消費を従来製品の25分の1に抑えながら、数兆規模のパラメータを持つ大規模言語モデル(LLM)による生成AIを構築、実行できるようになるという。搭載製品は2024年後半から市場に投入される予定だ。 Blackwellは、2022年に同社がリリースした「Hopper」(ホッパー)の後継に位置付けられる新アーキテクチャだ。2つのGPUダイ(半導体のチップ本体)を10TB/秒の超高速なインタフェース「NV-HBI」で接続し、1つのGPUとして振る舞う仕組みを採用している。トランジスタの数は2080億個に上る。 さらに4bit浮動小数点AI推論を実現する第2世代の「Transformer Engine」(AIト

                                                    NVIDIA、2つのGPUダイを採用した新GPUアーキテクチャ「Blackwell」発表 電力効率25倍、AI性能は30倍に
                                                  • Portainerを使ってDockerコンテナの管理環境をつくってみた|トレンドコラム|GPUサーバープラットフォームの設計/構築なら「技術力」のNTTPC

                                                    この記事では、Dockerの管理をGUIで誰でも簡単に行うことができる便利ツール「Portainer」について、インストールから使い方まで詳しく紹介します! ※本記事は2022年時点の情報に基づいたものです ※2024年6月:httpポート番号を修正しました こんな人向けの記事です Case1. 大学のプログラミング授業を行うために、学生にDockerイメージを配布しているシステム管理者 Case2. 社内外メンバーが共同で研究開発するプロジェクト用サーバーでDockerコンテナを利用しており、リソース状況の変動に常に気を配る必要がある場合 Portainerの概要 Dockerの管理をGUIで行うためのツールです。 WEBベースで動作するため、ブラウザさえあればOSや端末を問わず利用することができます。シンプルかつ直感的なUIなので、複雑なDockerコマンドを覚える必要はなく、導入後す

                                                      Portainerを使ってDockerコンテナの管理環境をつくってみた|トレンドコラム|GPUサーバープラットフォームの設計/構築なら「技術力」のNTTPC
                                                    • 【海外ITトピックス】 生成AIサービスは損失がかさむ? インフラと運用コスト高、GPU不足で苦闘

                                                        【海外ITトピックス】 生成AIサービスは損失がかさむ? インフラと運用コスト高、GPU不足で苦闘
                                                      • 野火 城@AI on X: "■GPU売りの少女 ~本当に大切な事~(1/3) https://t.co/B8vgGjP571"

                                                        • AMD GPU環境でメモリリークする問題などに対処した「Firefox 126.0.1」が公開/

                                                            AMD GPU環境でメモリリークする問題などに対処した「Firefox 126.0.1」が公開/
                                                          • 超小型ゲーミングPC「ASUS ROG NUC」レビュー、わずか2.6kgの筐体に高性能GPUやIntel Core Ultraプロセッサーなどを詰め込んだ外観チェック

                                                            ASUSが2024年7月に発売した小型PC「ASUS ROG NUC」は、最大構成でIntelの第14世代Coreプラットフォームで設計されたノートPC向けプロセッサーの「Intel Core Ultra 9 185H」や、NVIDIAのノートPC向けGPU「GeForce RTX 4070 Laptop GPU」を搭載しています。そんな「ASUS ROG NUC」を借りる機会を得られたので、まずはASUS ROG NUCの外観をチェックしてみました。 ROG NUC | Gaming desktops|ROG - Republic of Gamers|ROG 日本 https://rog.asus.com/jp/desktops/mini-pc/rog-nuc/ ASUS ROG NUCの外箱はこんな感じ。 スリーブを外すと内箱が現れます。 箱を開けるとASUS ROG NUC本体がお目

                                                              超小型ゲーミングPC「ASUS ROG NUC」レビュー、わずか2.6kgの筐体に高性能GPUやIntel Core Ultraプロセッサーなどを詰め込んだ外観チェック
                                                            • 【特集】 「黒神話:悟空」はどのぐらいのGPUが必要か検証してみた

                                                                【特集】 「黒神話:悟空」はどのぐらいのGPUが必要か検証してみた
                                                              • 「GPU」でも「APU」でも勝負 AMDが目指す“NVIDIAとの違い”

                                                                関連キーワード AMD | 人工知能 | CPU AI(人工知能)技術の活用が進む見通しの中で、AI技術の活用や開発に欠かせないプロセッサを手掛ける半導体ベンダーの動向に注目が集まる。Advanced Micro Devices(AMD)は、「GPU」(グラフィックス処理装置)の「Instinct MI300」シリーズをはじめとした製品でAI分野の強化に乗り出している。同社の最高技術責任者(CTO)マーク・ペーパーマスター氏に重点的な取り組みを聞いた。プロセッサとAI技術の動向をどう見ていて、プロセッサの提供において何を重視するようになったのか。 クラウドからノートPCまでが戦場 ―― GPUをはじめとしたハードウェアはAI技術が台頭する中でどう変わっていますか。その中でのAMDの注力点は何でしょうか。 併せて読みたいお薦め記事 連載:半導体ベンダーAMDのAI戦略 前編:技術者3000人

                                                                  「GPU」でも「APU」でも勝負 AMDが目指す“NVIDIAとの違い”
                                                                • 必要なぶんだけ GPU を使いたい。Kubernetes でやってみよう

                                                                  こんにちは、ホシイです。 貧乏性なので、仕事中はたいてい費用のことを考えています。 今回は、機械学習インフラにも関連する記事です。AI に関しては SQUARE ENIX AI 技術ブログ もありますので、ご興味がありましたらぜひご覧ください! GPU をお安く、好きなときに好きなだけ利用したい AI の話題花盛りの昨今、アプリケーションで GPU を利用する機会も増えてきました。GPU の用途もいろいろとありますが、最近でわたし周辺の需要として特に多いのは、機械学習です。ざっくり言うとタスクに対してパラメーターやデータを与えてある程度の時間、計算処理をするものです (なんでもそうと言えばそうですが)。ここでの問題は、GPU は基本的に高価で購入することに敷居があるうえに、それをホストに組み込んでかつ共有リソースとして利用するというのはなかなか難しいというものです。 今回の記事ではこれをス

                                                                    必要なぶんだけ GPU を使いたい。Kubernetes でやってみよう
                                                                  • CPUも内蔵GPUも強いのに、OCuLinkで外部GPUもつながるミニPC「MINISFORUM UM780 XTX」をライブ配信で解説! 【12月12日(火)21時より】

                                                                      CPUも内蔵GPUも強いのに、OCuLinkで外部GPUもつながるミニPC「MINISFORUM UM780 XTX」をライブ配信で解説! 【12月12日(火)21時より】
                                                                    • NVIDIA、Blackwellの次のGPUアーキテクチャ「Rubin」を2026年にと予告

                                                                      米NVIDIAのジェンスン・ファンCEOは6月2日(台湾時間)、COMPUTEX TAIPEIに先立つ基調講演で、次世代GPUアーキテクチャ「Rubin」を発表した。3月に発表した「Blackwell」の次世代として、2026年に提供する計画だ。 Rubinの前に、“近日登場予定”のBlackwellのハイエンドモデル「Blackwell Ultra」を2025年に提供する。 ファン氏は「NVIDIAは1年周期で動いている。われわれの基本理念は非常にシンプルだ。データセンター全体をスケールアップし、1年周期で部品を販売し、すべてを技術の限界まで押し上げることだ」と語った。 同氏は「生成AIは産業を再編し、イノベーションと成長の新たな機会を切り開く」とし、「「AIと高速コンピューティングにおけるNVIDIAのイノベーションにより、可能性の限界を押し広げ、技術進歩の次の波を推進していく」と語っ

                                                                        NVIDIA、Blackwellの次のGPUアーキテクチャ「Rubin」を2026年にと予告
                                                                      • AMD史上最速のモバイル向けGPU「Radeon RX 7900M」

                                                                          AMD史上最速のモバイル向けGPU「Radeon RX 7900M」
                                                                        • MediaTek、車載向けSoCにNVIDIA製GPU統合の新製品 - NVIDIAのIP供与はけっこう稀

                                                                          MediaTekは3月20日(現地時間)、NVIDIA製GPUを統合した車載向けSoCシリーズを発表した。NVIDIA DRIVE OSに対応して互換性を高め、自動車メーカーによる開発負担を低減できるとしている。 MediaTek、車載向けSoCにNVIDIA製GPU統合の新製品 - NVIDIAのIP供与はけっこう稀 エントリー向け「CV-1」、ミッドレンジ「CM-1」、ハイエンド「CY-1」、プレミアム「CX-1」として、4種類の車載向けSoCが発表されたという内容。NVIDIAからIP供与を受けたグラフィックスを搭載している点が大きな特徴で、リアルタイムレイトレーシングやDLSS 3も利用可能。チップはモノリシック仕様で、多数のカメラに対応するISPやオーディオ用DPSを内蔵。NVIDIA DRIVE OSに対応しており、自動車メーカーはこのプラットフォーム用に設計されたすべてのソフ

                                                                            MediaTek、車載向けSoCにNVIDIA製GPU統合の新製品 - NVIDIAのIP供与はけっこう稀
                                                                          • イラストをAIの学習から守る「Glaze」が強化、アニメや漫画で特に改善/MacでもGPU利用が可能に、処理時間も最大50%短く

                                                                              イラストをAIの学習から守る「Glaze」が強化、アニメや漫画で特に改善/MacでもGPU利用が可能に、処理時間も最大50%短く
                                                                            • IOWN APNで世界初 「分散GPUクラスターで生成AI学習」実証に成功|BUSINESS NETWORK

                                                                              生成AIモデルの大規模化がこのまま続けば、そのトレーニングを行うためのGPUリソースも、単一のデータセンターではまかない切れないほどに肥大化していく。そこで期待がかかるのが、複数データセンターのGPUリソースを連結して、巨大なGPUクラスターを構成するというアプローチだ。IOWN APNでこれを実現する「GPU over APN」コンセプトを掲げるNTTコミュニケーションズが、その実用化への第一歩を示した。 データセンターから企業の拠点や家庭まで、エンドツーエンドに光だけで通信するIOWN APN(オールフォトニクス・ネットワーク)。その有望なユースケースの1つと考えられているのが、データセンターの分散化だ。 これは、高速大容量かつ低遅延なAPNで遠隔地のデータセンターを接続して、1つの巨大なコンピューティングリソースとして利用しようとするコンセプトである。生成AIのトレーニングのように膨

                                                                                IOWN APNで世界初 「分散GPUクラスターで生成AI学習」実証に成功|BUSINESS NETWORK
                                                                              • 外付けGPU「ONEXGPU」でビジネスノートPCをパワーアップしてみた オンライン会議における“もっさり”の解決策になる?(ITmedia PC USER) - Yahoo!ニュース

                                                                                タスクマネージャーのパフォーマンスタブからGPUを見ると、CPU内蔵グラフィックス機能を使用しているPCではGPUメモリの全てがシステムと共有する「共有GPUメモリ」であることが分かる リモートワークで会社から貸与されたノートPCを使っている人の中には、その性能に不満を感じている人も多いのではないだろうか。例えば、作業効率アップのために外部ディスプレイを接続する場合もあるだろう。しかし、高解像度ディスプレイやマルチディスプレイの環境だと、メモリ不足などで極端に動作が重くなる場合もある。 【画像】今回試した「ONEXGPU」 とはいえ、現代のノートPCの多くは物理的にメモリの増設ができず、そもそも内部のパーツ追加や交換を会社が認めていない場合がほとんどだろう。 しかし、本記事で紹介する外付けGPU(eGPU)「ONEXGPU」を使えば、そんな会社のPCでもパワーアップさせられるかもしれない。

                                                                                  外付けGPU「ONEXGPU」でビジネスノートPCをパワーアップしてみた オンライン会議における“もっさり”の解決策になる?(ITmedia PC USER) - Yahoo!ニュース
                                                                                • GPU の機械語コードの逆アセンブリを読んでみる - RDNA2 - Qiita

                                                                                  はじめに グラフィックス全般 Advent Calendar 2023 13日目の記事になります. きっかけ GLSL で mix を使って2つの値から1つを選択する際に, a に bvec3 を直接用いずに vec3 に変換して渡しているコードを見かけた. bvec3 で渡す場合と vec3 で渡す場合の, 最終的にGPUで実行されるコードの違いが気になったので, 簡単に調べてみることにした. 関連する GLSL の mix のオーバーロード: // vecN を取るもの genType mix(genType x, genType y, genType a); // bvecN を取るもの genType mix(genType x, genType y, genBType a); 題材となる GLSL によるフラグメントシェーダ egui_glow の実装に含まれる, リニアから s

                                                                                    GPU の機械語コードの逆アセンブリを読んでみる - RDNA2 - Qiita