並び順

ブックマーク数

期間指定

  • から
  • まで

161 - 200 件 / 355件

新着順 人気順

GPUの検索結果161 - 200 件 / 355件

  • NVIDIA、4608基のH100GPUを搭載したデータセンター規模の独自開発AIスーパーコンピュータ「Eos」を披露

    NVIDIA、4608基のH100GPUを搭載したデータセンター規模の独自開発AIスーパーコンピュータ「Eos」を披露 NVIDIAは、昨年(2023年)11月に開催されたSupercomputing 2023で発表され、スーパーコンピューターTOP500リストの9位にランクインした、同社が独自に開発したデータセンター規模のスーパーコンピュータ「Eos」をブログと動画で披露しました。

      NVIDIA、4608基のH100GPUを搭載したデータセンター規模の独自開発AIスーパーコンピュータ「Eos」を披露
    • インテルCore Ultra / Meteor Lakeは12月登場。初のNPU搭載・Arc GPU統合・歴代最高効率など「過去40年最大の転換」 | テクノエッジ TechnoEdge

        インテルCore Ultra / Meteor Lakeは12月登場。初のNPU搭載・Arc GPU統合・歴代最高効率など「過去40年最大の転換」 | テクノエッジ TechnoEdge
      • AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]

          AIアプリ活用のカギはCPU、GPU、NPUそれぞれへの最適化 ~なぜ今がAI PC向けアプリ開発スタートアップに好機なのか[Sponsored]
        • Apple・Intel・AMD・NVIDIA・Qualcomm・ArmのGPUから視覚データを盗んでウェブサイトに表示される個人情報を読み取る攻撃「GPU.zip」

          Apple、Intel、AMD、NVIDIA、Qualcomm、Armといった主要なサプライヤー6社のGPUを対象とした攻撃「GPU.zip」を発見したと、テキサス大学オースティン校の研究者らが発表しました。この攻撃によって、他のウェブサイトで表示されるユーザー名やパスワードなど個人情報のビジュアルデータを悪意のあるウェブサイトが読み取れるようになるとのことです。 GPU.zip https://www.hertzbleed.com/gpu.zip/ GPU.zip: On the Side-Channel Implications of Hardware-Based Graphical Data Compression (PDFファイル)https://www.hertzbleed.com/gpu.zip/GPU-zip.pdf GPUs from all major suppliers

            Apple・Intel・AMD・NVIDIA・Qualcomm・ArmのGPUから視覚データを盗んでウェブサイトに表示される個人情報を読み取る攻撃「GPU.zip」
          • AI分野での活用も増加している「GPU」の種類と選び方を学ぼう

            1 GPUとは GPU(Graphics Processing Unit)は、PC内で画像処理などの特定のタスクを高速に処理することを目的とした専用の装置です。 主に画像処理やAI(人工知能)、科学計算などの分野で活用されています。CPU(Central Processing Unit)が一般的な演算や制御を担当するのに対し、GPUは大量のデータを並行して処理することが得意で、これにより高速な演算処理を実現しています。もともとは画像処理を目的に誕生しましたが、近年では機械学習などAI関連分野での活用が増加しており、生成AIのブームを追い風に、世界的に需要が高まっています。 2 GPUとCPUの違い GPUとCPUには以下のような違いがあります。 2.1 設計思想と役割 CPUは一般的な演算や制御を担当するために設計されていて、プログラムの実行やOS(オペレーティングシステム)の管理などPC

              AI分野での活用も増加している「GPU」の種類と選び方を学ぼう
            • NVIDIA、ボードパートナーにIntel Arcを製造しないよう要請か。拒否したらGPUの供給を制限と報じられる | ニッチなPCゲーマーの環境構築Z

              NVIDIAがボードパートナーに対して、Intel Arcグラフィックスカードを製造・販売しないよう圧力をかけていると報じられました。海外メディアのVideoCardzが報じました。 登録者数71万人のYouTubeチャンネルPRO Hi-Techは、NVIDIAが中国のボードパートナーに圧力をかけていると報じた。NVIDIAは中国のボードパートナーに対し、Intelのグラフィックス部門との協力関係は避け、Arcグラフィックスカード製品の製造・販売を拒否することを求めているという。NVIDIAの要請に従わない場合、同社製GPUの供給が制限される可能性があるという。 Intelは次世代グラフィックスカードであるArc Battlemageを製造するパートナーを中国で探している。NVIDIAの要請は、Intelのこの行動を受けてのものだ。 注意してもらいたいのは、今のところこの報道の真偽がわか

                NVIDIA、ボードパートナーにIntel Arcを製造しないよう要請か。拒否したらGPUの供給を制限と報じられる | ニッチなPCゲーマーの環境構築Z
              • 携帯型ゲームPCと組み合わせるのに最適な外付けGPUボックス「ONEXGPU」のクラウドファンディングがスタート

                携帯型ゲームPCと組み合わせるのに最適な外付けGPUボックス「ONEXGPU」のクラウドファンディングがスタート 編集部:小西利明 米国時間2023年11月28日,ONE-NETBOOKは,同社製携帯型ゲームPC「ONEXPLAYER」などに対応する外付けGPUボックス「ONEXGPU」(ワンエックスジーピーユー)のクラウドファンディングキャンペーンを,Indiegogoで開始した。USB4または「Oculink」でPCと接続できる外付けGPUボックスで,筐体内にPCI Express(以下,PCIe)接続のM.2 SSDを1枚,内蔵できるのが特徴だ。 スタートから96時間限定の最も安価なプランでは,599ドル(約8万8400円,税および送料別)で注文できる。 2023年11月30日10:30頃追記:初出時,Oculinkを独自規格と記載していましたが,正しくはPCI-SIGによる規格でし

                  携帯型ゲームPCと組み合わせるのに最適な外付けGPUボックス「ONEXGPU」のクラウドファンディングがスタート
                • GPUのコア数が10コアから9コアへ修正された「iPad Air (M2)」は、10コアGPU搭載のM2チップを採用した「iPad Pro」と比較して約9%GPU Metalスコアが低下。

                  GPUのコア数が10コアから9コアへ修正された「iPad Air (M2)」は、10コアGPUのM2チップを採用した「iPad Pro」と比較して約9%GPUスコアが低下しているそうです。詳細は以下から。 Appleは現地時間2024年06月01日、05月に発売した「iPad Air (M2)」のApple M2チップ仕様を修正し、これまで10コアだと発表していたGPUのコア数を9コアに訂正しましたが、 iPad Air (M2)発売以降、iPad Air (M2)のGPUスコアが10コアGPUを備えた旧iPad Proより低いと指摘していたRedditのBeefy_Crunch_Burritoさんらによると、やはりiPad Air (M2)のGPUスコアは、Apple M2チップを搭載した旧iPad ProやMacBook Pro, Mac miniより低くなっているようです。 Geek

                    GPUのコア数が10コアから9コアへ修正された「iPad Air (M2)」は、10コアGPU搭載のM2チップを採用した「iPad Pro」と比較して約9%GPU Metalスコアが低下。
                  • 次世代NPU「Intel AI Boost」で「DirectML」がサポートへ ~来年初めにも/「Intel Core Ultra」に搭載、今までGPUで行っていたAI処理をより高効率なNPUで

                      次世代NPU「Intel AI Boost」で「DirectML」がサポートへ ~来年初めにも/「Intel Core Ultra」に搭載、今までGPUで行っていたAI処理をより高効率なNPUで
                    • ED法の重みをGPUで並列更新したら3,000倍高速化した。 - Qiita

                      はじめに 先日、ED法の解説記事を書きました。 並列処理と相性が良さそうであると述べておきながら、GPUを使用した実装をしていなかったので、CuPyを使用して並列処理の威力を確かめてみます。 GPUを使った重みの並列更新 一層あたり32*2細胞、4096層、入力サイズ28*28、バッチサイズ64で実行したところ、計算時間は forwardで 3.02 s ± 491 ms 同時更新可能なupdateでは1.10 ms ± 290 μs となりました(RTX3070)。 シーケンシャルなforwardと比較し約3,000倍の速度という、圧倒的な並列計算の力を感じます。 同じ設定でCPUで計算した場合のタイムは以下です(Ryzen7 5700X)。 forwardで 363 ms ± 90.3 ms updateで 3.26 s ± 38.2 ms forwardの結果は逆転していますね。 一

                        ED法の重みをGPUで並列更新したら3,000倍高速化した。 - Qiita
                      • 個人でも使いやすい20億パラメータの「Stable Diffusion 3 Medium」。NVIDIA GPU向けの最適化も

                          個人でも使いやすい20億パラメータの「Stable Diffusion 3 Medium」。NVIDIA GPU向けの最適化も
                        • 初のIntel Core Ultra搭載ポータブルゲーミングPC「MSI Claw A1M」の実力をライブレポート!GPUボックスもつないでみます【4月2日(火)21時開始】

                            初のIntel Core Ultra搭載ポータブルゲーミングPC「MSI Claw A1M」の実力をライブレポート!GPUボックスもつないでみます【4月2日(火)21時開始】
                          • 【ローカルLLM】大規模言語モデルAIのあまりの遅さについカッとなってノートPCにGPUを追加する

                            「ChatGPT」が世界を席巻するなか、大規模言語モデル(LLM)について相談を受けるようになりました。企業のAI利用ニーズとしてよくある「独自データにより追加学習させたい」という話しをしていると、手元でも試してみたい衝動にかられ、「ファインチューニング」と呼ばれる追加で学習する手法を手元で動かしてみました。 今回、Pythonなどのプログラムを1行たりとも書いていませんので(笑)、「大規模言語モデル(LLM)に興味はあるけどプログラミングはよくわからない」「ごく普通のパソコンしか持ってない」という人の参考になるかと思い、作業メモを書き残します。 いろいろと迷走しますが、最終的に追加投入した費用は「10万円」です。 LLMやファインチューニングなどを試したいが、コードは書きたくない諸兄へ LLMというと多くの解説記事は「Google Colab」などのクラウドサービスを利用して、Pytho

                              【ローカルLLM】大規模言語モデルAIのあまりの遅さについカッとなってノートPCにGPUを追加する
                            • NVIDIAの測定デバイス「PCAT2」で最新GPUから旧モデルまで消費電力を測って分かったこと(前編)

                              NVIDIAの測定デバイス「PCAT2」で最新GPUから旧モデルまで消費電力を測って分かったこと(前編):準備こそがクライマックス?(1/4 ページ) PCゲームファンにとって、NVIDIAは一挙手一投足が気になってしまうほどの人気GPUメーカーである。最近でこそ、AI(人工知能)ブームの追い風もあって「GPGPU」に注力しているきらいもあるが、ともあれ多くのPCユーザーにとって、NVIDIA製GPUは欠かせない存在となっている。 そんなNVIDIAだが、時々“超マニアック”なハードウェアをリリースすることがある(多くは同社の主力製品であるGPUと関連した製品なのだが)。その1つが、ゲームの入力操作からGPUが映像を描いて表示するまでの総遅延時間を計測する「NVIDIA LDAT(Latency and Display Analysis Tool)」だ。このLDATは、主にPCゲーム業界に

                                NVIDIAの測定デバイス「PCAT2」で最新GPUから旧モデルまで消費電力を測って分かったこと(前編)
                              • DirectX 12、GPU処理をより効率化する「Work Graph」機能追加

                                  DirectX 12、GPU処理をより効率化する「Work Graph」機能追加
                                • RDNA 3世代のミドルハイGPU「Radeon RX 7800 XT」&「Radeon RX 7700 XT」の実力を探る。RX 7700 XTのコスパは良好だ

                                  RDNA 3世代のミドルハイGPU「Radeon RX 7800 XT/7700 XT」の実力を探る AMD Radeon RX 7800 XT ASRock Radeon RX 7700 XT Challenger 12GB OC Text by 宮崎真一 既報のとおり,AMDは,ミドルハイ市場向けとなるRDNA 3世代の新型GPU「Radeon RX 7800 XT」(以下,RX 7800 XT)と「Radeon RX 7700 XT」(以下,RX 7700 XT)を発表した。名称から分かるとおり,ハイエンド市場向けの「Radeon RX 7900 XT」とミドルクラス市場向け「Radeon RX 7600」の間を埋める製品で,これにより,ハイエンドからミドルクラスGPUまで,RDNA 3世代のラインナップが揃ったことになる。 Radeon RX 7800 XTリファンレンスカード(左

                                    RDNA 3世代のミドルハイGPU「Radeon RX 7800 XT」&「Radeon RX 7700 XT」の実力を探る。RX 7700 XTのコスパは良好だ
                                  • GPU計測やArm版Windowsにも対応した「Cinebench 2024」

                                      GPU計測やArm版Windowsにも対応した「Cinebench 2024」
                                    • Google、GPUを使わずCPUだけで生成AIアプリを開発する方法を解説

                                      Google、GPUを使わずCPUだけで生成AIアプリを開発する方法を解説:オープンソースツール「localllm」を利用 Google Cloudは、Google Cloudのフルマネージド開発環境「Cloud Workstation」や「クオンタイズドモデル(量子化されたモデル)」と、新しいオープンソースツール「localllm」を組み合わせることで、GPUを使わずに、LLM(大規模言語モデル)ベースのAIアプリケーションを開発する方法を公式ブログで紹介した。

                                        Google、GPUを使わずCPUだけで生成AIアプリを開発する方法を解説
                                      • 【レビュー】 メモリ16GBが魅力の準ハイエンドGPU「GeForce RTX 4070 Ti SUPER」

                                          【レビュー】 メモリ16GBが魅力の準ハイエンドGPU「GeForce RTX 4070 Ti SUPER」
                                        • 半導体の好況は「NVIDIAのGPU祭り」による錯覚? 本格回復は2025年以降か

                                          2021年から2022年にかけてコロナ特需が起き、世界半導体市場は急成長した。ところが、2022年後半にコロナ特需が終焉(終えん)したため、2023年は史上最悪クラスの大不況に陥った。しかし、その大不況は2023年で底打ち、ことし(2024年)には本格回復すると期待されている。 そして、半導体市況が本格回復するかどうかはメモリの動向にかかっていると考えていた(拙著『2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?』)。 実際、種類別の半導体の四半期出荷額を見ると、Logicは既にコロナ特需のピークを超えて過去最高を更新している。また、Mos MicroとAnalogは、コロナ特需の終焉による落ち込みは大きくないため、2024年に過去最高を更新する可能性が高い(図1)。 その中で、Mos Memoryは大きく落ち込んだ後、2023年第1四半期(Q1)で底を打ち

                                            半導体の好況は「NVIDIAのGPU祭り」による錯覚? 本格回復は2025年以降か
                                          • NTT版LLM「tsuzumi」 図表読解、GPU不要の超軽量版も

                                              NTT版LLM「tsuzumi」 図表読解、GPU不要の超軽量版も
                                            • GPU使う攻撃、8文字の複雑なパスワードも1時間で解読 - 日本経済新聞

                                              ウェブサーバーなどからパスワードが盗まれたり漏洩したりする事件が後を絶たない。通常、パスワードはそのままの形(平文)では保存されていない。ハッシュ値と呼ばれる文字列に変換されてサーバーに保存されているので、そのままでは悪用できない。だが安心はできない。進化が著しい画像処理半導体(GPU)を利用すれば、「力業」でハッシュ値から元のパスワードを推測できる。セキュリティーベンダーの米ハイブシステムズ

                                                GPU使う攻撃、8文字の複雑なパスワードも1時間で解読 - 日本経済新聞
                                              • NVIDIAのGPU不足「ボトルネックはパッケージング」 - 日本経済新聞

                                                前例のない需要がある──。米エヌビディア幹部は現状のGPU(画像処理半導体)のニーズをこう説明する。生成AI(人工知能)ブームで一気に需給バランスが崩れ、GPU不足が顕在化。半導体争奪戦が勃発した。同社は「増産に向けて懸命に努力している」と言うが供給は追いついていない。「AIに関わる全ての企業がプレッシャーにさらされている」。イスラエルのAIスタートアップ、AI21ラボのオリ・ゴシェン最高経営

                                                  NVIDIAのGPU不足「ボトルネックはパッケージング」 - 日本経済新聞
                                                • 「できるだけ多くのGPU提供」を要請 岸田首相、NVIDIAフアンCEOと面会

                                                  米半導体大手NVIDIAのジェンスン・フアン最高経営責任者(CEO)は12月4日、岸田文雄首相と面会し、首相から日本国内での「できるだけ多くの」GPUの提供を要請されたと明らかにした。フアン氏は「できる限り提供できるようにしていきたい」と答えた。面会後、官邸で記者団に述べた。 フアンCEOによると、同社製AI用半導体を利用してソフトバンク、さくらインターネット、NEC、NTTなどの日本企業と提携していく。生成AIと日本の製造業の専門知識、経験を組み合わせることで強みを生かせるとも訴えた。 日本語による生成AIについては、日本語のデータベース、言語モデルを持つ日本が立ち上げることになるとの見通しを示した。 関連記事 NVIDIA、生成AI向け半導体供給で日本に「全面協力」 日米の連携加速 日本が米半導体大手NVIDIAから、生成AIの開発に使えるGPU(画像処理半導体)の供給について全面的な

                                                    「できるだけ多くのGPU提供」を要請 岸田首相、NVIDIAフアンCEOと面会
                                                  • 【Hothotレビュー】 ビデオメモリ、多い方が幸せ。新GPU「Radeon RX 7700 XT/7800 XT」をGeForceと比較した

                                                      【Hothotレビュー】 ビデオメモリ、多い方が幸せ。新GPU「Radeon RX 7700 XT/7800 XT」をGeForceと比較した
                                                    • さくらインターネット、生成AIのニーズに向けてNVIDIA H100 GPUのベアメタルクラウド「高火力 PHY」を発表 | IT Leaders

                                                      IT Leaders トップ > テクノロジー一覧 > サーバー > 新製品・サービス > さくらインターネット、生成AIのニーズに向けてNVIDIA H100 GPUのベアメタルクラウド「高火力 PHY」を発表 サーバー サーバー記事一覧へ [新製品・サービス] さくらインターネット、生成AIのニーズに向けてNVIDIA H100 GPUのベアメタルクラウド「高火力 PHY」を発表 2024年1月24日(水)日川 佳三(IT Leaders編集部) リスト さくらインターネットは2024年1月24日、生成AI向けベアメタルクラウドサービス「高火力 PHY(ファイ)」を発表した。同社の石狩データセンターで同年1月31日から提供する。生成AIの用途で需要が大きい「NVIDIA H100 Tensor コア GPU」をサーバー1台あたり8基搭載している。料金(税込み)は月額304万6120円(

                                                        さくらインターネット、生成AIのニーズに向けてNVIDIA H100 GPUのベアメタルクラウド「高火力 PHY」を発表 | IT Leaders
                                                      • AMDはWQHD向けGPU「Radeon RX 7700 XT/ RX 7800 XT」で優勢を取れるか?【前編】 (1/5)

                                                        AMDはWQHD向けGPU「Radeon RX 7700 XT/ RX 7800 XT」で優勢を取れるか?【前編】 Radeon RX 7700 XTとRX 7800 XTが国内で9月8日に発売! 2023年9月6日、AMDはWQHDゲーミング向けの新GPU「Radeon RX 7700 XT/ RX 7800 XT」の販売をグローバルで解禁した。本邦における発売日は9月8日11:00に解禁となる。 北米における予想価格はRX 7700 XTが449ドル、RX 7800 XTが499ドルと発表されているが、同じWQHDゲーミング向けGPUである「GeForce RTX 4070」が599ドルスタートだったことを考えると、今回もコストパフォーマンスを売りにしたGPUといえる。 国内ではリファレンスカードは発売されず、各ベンダー製品が販売されるが、原稿執筆時にASRockから頂いた情報によると

                                                          AMDはWQHD向けGPU「Radeon RX 7700 XT/ RX 7800 XT」で優勢を取れるか?【前編】 (1/5)
                                                        • NVIDIAが数兆パラメータ規模のAIモデルを実現するGPUアーキテクチャ「Blackwell」と新GPU「B200」を発表

                                                          NVIDIAが技術カンファレンス「GTC 2024」の中で、2年ぶりの新たなGPUアーキテクチャ「Blackwell」と、BlackwellアーキテクチャベースのGPU「B200」を発表しました。Blackwellにより、あらゆる組織がコストとエネルギー消費を25分の1に抑え、数兆パラメータの大規模言語モデル(LLM)によるリアルタイム生成AIを構築・実行可能になるとNVIDIAは述べています。 生成 AI のための Blackwell アーキテクチャ | NVIDIA https://www.nvidia.com/ja-jp/data-center/technologies/blackwell-architecture/ Blackwellアーキテクチャは、2022年に発表されたHopperアーキテクチャの後継です。名前は、アメリカ科学アカデミーにアフリカ系アメリカ人として初めて殿堂入り

                                                            NVIDIAが数兆パラメータ規模のAIモデルを実現するGPUアーキテクチャ「Blackwell」と新GPU「B200」を発表
                                                          • Meteor LakeのGPU性能はRaptor Lakeの2倍 インテル CPUロードマップ (1/3)

                                                            今回でMeteor Lakeの話はいったん終了である。残るのはGPUとSoCまわりとなる。まずはGPUから説明しよう。 Xe-LPGはXe LPの強化版? Xe LPと比較して2倍の性能と言うけれど…… Meteor Lakeに搭載されるGPUはXe-LPGとなる。Raptor LakeまでのGPUはXe LPベースであり、その意味では新アーキテクチャーの搭載になる。 Meteor Lakeに搭載されるGPUのXe-LPG。Xe LPと比較して2倍の性能というのは嘘ではないが、正確でもない。このあたりは後述する Xe LPGは連載579回のロードマップには存在しない。構造的にはXe LPの強化版というよりはXe HPGの低消費電力向けという扱いになるかと思われるのだが、インテル的にはXe LPの強化版という説明の仕方をしている。

                                                              Meteor LakeのGPU性能はRaptor Lakeの2倍 インテル CPUロードマップ (1/3)
                                                            • 中国のGPUメーカー「Moore Threads」がAIトレーニングやデータセンター向けGPU「MTT S4000」を発表

                                                              中国の新興GPUメーカー「Moore Threads」が、2023年12月19日にAIのトレーニングやデータセンター向けGPU「MTT S4000」を発表しました。公式発表によると、MTT S4000のMUSIFYツールはNVIDIAのCUDAとの完全な互換性があるとのことです。 摩尔线程首个千卡智算中心落地,从算力到生态全面加速大模型发展 | 摩尔线程 https://www.mthreads.com/news/146 Nvidia's biggest Chinese competitor unveils cutting-edge new AI GPUs — Moore Threads S4000 AI GPU and Intelligent Computing Center server clusters using 1,000 of the new AI GPUs | Tom's H

                                                                中国のGPUメーカー「Moore Threads」がAIトレーニングやデータセンター向けGPU「MTT S4000」を発表
                                                              • NVIDIA製GPUドライバーに7件の脆弱性 ~最新「GeForce」ドライバーへの更新を/「CVSS v3.1」のベーススコアは最大で「8.2」

                                                                  NVIDIA製GPUドライバーに7件の脆弱性 ~最新「GeForce」ドライバーへの更新を/「CVSS v3.1」のベーススコアは最大で「8.2」
                                                                • 95ドルのAMD CPUが16GB GPUになり、AIソフトウェアを実行する - 自作ユーザーが解説するゲーミングPCガイド

                                                                  3年前のAPUをAI用にリサイクル 新しいRyzen 5 5600G(Cezanne)は、Ryzen 5 4600G(Renoir)に代わって、ゲームに最適なCPUの1つとなった。 しかし、あるトリックがRyzen 5 4600Gに新たな命を吹き込み、格安のZen 2 APUをLinux上でAIアプリケーションを実行するための16GBグラフィックカードに変身させた。 誰もがAIを試すためにNvidia H100(Hopper)を購入したりレンタルしたりする予算があるわけではない。 AIに特化したグラフィックス・カードに対する現在の需要では、お金があっても手に入れることができないかもしれない。 幸運なことに、高価なH100やA100(Ampere)、AIに最適なグラフィックカードは必要ない。あるRedditorは、95ドルで販売されているRyzen 5 4600Gで、さまざまなAIワークロー

                                                                  • USB4搭載なら普通のノートでもGPU性能が3倍になる?「ONEXGPU」国内発売。SSDも内蔵可

                                                                      USB4搭載なら普通のノートでもGPU性能が3倍になる?「ONEXGPU」国内発売。SSDも内蔵可
                                                                    • X-Silicon、一つのコアでCPUとGPUの両方を実現できる「C-GPU」アーキテクチャ ~ 命令にはRISC-Vを活用 - Nishiki-Hub

                                                                      3行まとめ 米国のスタートアップであるX-Siliconは、非常に面白い構想と展開を明らかにしました。それは、CPUとGPUの両方の処理を行えるアーキテクチャ「C-GPU」です。 C-GPU コアの構造 動作 オープン 関連リンク C-GPU 今回明かされたのは「C-GPU」(Unified Compute Graphics Engine)の計画です。このC-GPUは、GPUの命令もCPUと同じ命令にしてしまって、単一のコアでCPUとGPU両方(あるいはその他のアクセラレータ全て)の処理を行えたら良いことあるやん。というものになります。つまり、C-GPUアーキテクチャでのコアは「何でも屋」になるわけです。あるいは、CPUにもなれる、分割可能なFPGAとしても正しいでしょうか。 具体的に説明します。現在普及しているシステムにおいて、CPUとGPUは別々のアーキテクチャとして設計されています。

                                                                        X-Silicon、一つのコアでCPUとGPUの両方を実現できる「C-GPU」アーキテクチャ ~ 命令にはRISC-Vを活用 - Nishiki-Hub
                                                                      • 画像生成AIを快適に動かすならこれを買え!『Stable Diffusion XL 1.0』編【リフレッシュレートから選ぶGPUの最適解⑦】 DOS/V POWER REPORT 2023年秋号の記事を丸ごと掲載!

                                                                          画像生成AIを快適に動かすならこれを買え!『Stable Diffusion XL 1.0』編【リフレッシュレートから選ぶGPUの最適解⑦】 DOS/V POWER REPORT 2023年秋号の記事を丸ごと掲載!
                                                                        • GPU 不足は意図的なものなのか?:Mostly Harmless:オルタナティブ・ブログ

                                                                          なんだか凄いニュースが飛び込んできました。数百兆円って、いったいいくらくらいなんでしょうか ^^; OpenAIのサム・アルトマンCEOが数百兆円という桁外れの資金調達を計画し「半導体業界の再構築」を目指している、すでに孫正義やUAEの有力者と会談しているとの報道も サム・アルトマンCEOが目指す「半導体業界の再構築」とは、AI処理用のGPUやAI専用チップなどの生産体制を根底から作り直そうという計画のようです。5-7.5兆ドル(750-1000兆円)をかけ、数年以内に数十の半導体工場を建設、とあります。だからこそ数百兆円必要なのでしょうが、それにしても巨額です。 AIの処理には膨大な演算が必要になることは、このブログでもご紹介してきました。ChatGPTの運用には1日70万ドルがかかっているそうです。生成AIは以前のAIモデルよりも100倍~1000倍以上の規模になるため、必要になる演算

                                                                            GPU 不足は意図的なものなのか?:Mostly Harmless:オルタナティブ・ブログ
                                                                          • NVIDIAがGPUリソース管理ツールの開発企業「Run:ai」を買収

                                                                            NVIDIAが2024年4月24日に、AIハードウェアの最適化と管理を行うツールを手がけるイスラエルのスタートアップ・Run:aiを買収したことを発表しました。 NVIDIA to Acquire GPU Orchestration Software Provider Run:ai | NVIDIA Blog https://blogs.nvidia.com/blog/runai/ Nvidia acquires AI workload management startup Run:ai for $700M, sources say | TechCrunch https://techcrunch.com/2024/04/24/nvidia-acquires-ai-workload-management-startup-runai/ テルアビブを拠点とするRun:aiは、AIインフラストラク

                                                                              NVIDIAがGPUリソース管理ツールの開発企業「Run:ai」を買収
                                                                            • 「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット

                                                                              「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット 米NVIDIAは2月13日(現地時間)、同社製グラフィックス向けのソフトウェア「NVIDIA Chat with RTX」を公開した。すでにデモ版としてリリースされており、ダウンロードして使用可能。ただしLLMを用いる都合ファイルがかなり大きく、筆者の手元で確認したところ35.1GBのzipファイルをダウンロードする必要がある。 「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット NVIDIA GeForce RTXシリーズは強力なTensorコアを内蔵しており、さまざまなAI機能を利用可能。これまでNVIDIAは音声再生におけるノイズキャンセリングや動画再生に

                                                                                「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット
                                                                              • 生成AIが「爆速化」、30倍高速のNVIDIAの次世代GPU「Blackwell」がもたらすヤバさ

                                                                                GPT-4を超える大規模言語モデル(LLM)が乱立する「ポストGPT-4」フェーズに突入した生成AI市場だが、生成AIを爆速化する次世代GPUの開発競争にも拍車がかかっている。トップを走るNVIDIAは、次世代GPU「Blackwell(ブラックウェル)」を発表。前世代と比べ、最大30倍のパフォーマンス向上を実現するとともに、コストとエネルギー消費を1/25に抑えることに成功したという。一方、スタートアップの動きも活発化しており、GroqはChatGPTを13倍高速化できるGPUの開発を終え、すでに販売拡大に乗り出している。激化するGPU開発競争、その最前線を追ってみたい。 バークリー音大提携校で2年間ジャズ/音楽理論を学ぶ。その後、通訳・翻訳者を経て24歳で大学入学。学部では国際関係、修士では英大学院で経済・政治・哲学を専攻。国内コンサルティング会社、シンガポールの日系通信社を経てLiv

                                                                                  生成AIが「爆速化」、30倍高速のNVIDIAの次世代GPU「Blackwell」がもたらすヤバさ
                                                                                • 第三のプロセッサ「DPU」とは? CPU、GPUとの違い

                                                                                  ダウンロードはこちら 最も広く使われているプロセッサは、コンピュータ全体の制御をつかさどる「CPU」(中央処理装置)だ。ただし普及したプロセッサはCPUだけではない。「GPU」(グラフィックス処理装置)や「DPU」(データ処理装置)といった新しいプロセッサが使用を広げているのだ。 複数のプロセッサコア(演算装置)を搭載したCPUを使えば、あらゆるタスクを処理することはできる。それでもGPUやDPUといった他のプロセッサを併用することには意味があるという。それはどういうことなのか。CPU、GPU、DPUそれぞれの特徴や役割は何か。本資料で、これら3つのプロセッサの基本を理解しよう。 中身を読むには、「中身を読む」ボタンを押して無料ブックレットをダウンロードしてください。 連載:「CPU」「GPU」「DPU」はどう違うのか

                                                                                    第三のプロセッサ「DPU」とは? CPU、GPUとの違い