並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 357件

新着順 人気順

GPUの検索結果201 - 240 件 / 357件

  • NVIDIAがGPUリソース管理ツールの開発企業「Run:ai」を買収

    NVIDIAが2024年4月24日に、AIハードウェアの最適化と管理を行うツールを手がけるイスラエルのスタートアップ・Run:aiを買収したことを発表しました。 NVIDIA to Acquire GPU Orchestration Software Provider Run:ai | NVIDIA Blog https://blogs.nvidia.com/blog/runai/ Nvidia acquires AI workload management startup Run:ai for $700M, sources say | TechCrunch https://techcrunch.com/2024/04/24/nvidia-acquires-ai-workload-management-startup-runai/ テルアビブを拠点とするRun:aiは、AIインフラストラク

      NVIDIAがGPUリソース管理ツールの開発企業「Run:ai」を買収
    • 「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット

      「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット 米NVIDIAは2月13日(現地時間)、同社製グラフィックス向けのソフトウェア「NVIDIA Chat with RTX」を公開した。すでにデモ版としてリリースされており、ダウンロードして使用可能。ただしLLMを用いる都合ファイルがかなり大きく、筆者の手元で確認したところ35.1GBのzipファイルをダウンロードする必要がある。 「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット NVIDIA GeForce RTXシリーズは強力なTensorコアを内蔵しており、さまざまなAI機能を利用可能。これまでNVIDIAは音声再生におけるノイズキャンセリングや動画再生に

        「NVIDIA Chat with RTX」公開 - 手元のRTX 30/40 GPUでローカル動作するNVIDIAお手製AIチャットボット
      • 生成AIが「爆速化」、30倍高速のNVIDIAの次世代GPU「Blackwell」がもたらすヤバさ

        GPT-4を超える大規模言語モデル(LLM)が乱立する「ポストGPT-4」フェーズに突入した生成AI市場だが、生成AIを爆速化する次世代GPUの開発競争にも拍車がかかっている。トップを走るNVIDIAは、次世代GPU「Blackwell(ブラックウェル)」を発表。前世代と比べ、最大30倍のパフォーマンス向上を実現するとともに、コストとエネルギー消費を1/25に抑えることに成功したという。一方、スタートアップの動きも活発化しており、GroqはChatGPTを13倍高速化できるGPUの開発を終え、すでに販売拡大に乗り出している。激化するGPU開発競争、その最前線を追ってみたい。 バークリー音大提携校で2年間ジャズ/音楽理論を学ぶ。その後、通訳・翻訳者を経て24歳で大学入学。学部では国際関係、修士では英大学院で経済・政治・哲学を専攻。国内コンサルティング会社、シンガポールの日系通信社を経てLiv

          生成AIが「爆速化」、30倍高速のNVIDIAの次世代GPU「Blackwell」がもたらすヤバさ
        • 第三のプロセッサ「DPU」とは? CPU、GPUとの違い

          ダウンロードはこちら 最も広く使われているプロセッサは、コンピュータ全体の制御をつかさどる「CPU」(中央処理装置)だ。ただし普及したプロセッサはCPUだけではない。「GPU」(グラフィックス処理装置)や「DPU」(データ処理装置)といった新しいプロセッサが使用を広げているのだ。 複数のプロセッサコア(演算装置)を搭載したCPUを使えば、あらゆるタスクを処理することはできる。それでもGPUやDPUといった他のプロセッサを併用することには意味があるという。それはどういうことなのか。CPU、GPU、DPUそれぞれの特徴や役割は何か。本資料で、これら3つのプロセッサの基本を理解しよう。 中身を読むには、「中身を読む」ボタンを押して無料ブックレットをダウンロードしてください。 連載:「CPU」「GPU」「DPU」はどう違うのか

            第三のプロセッサ「DPU」とは? CPU、GPUとの違い
          • 次世代の「Core Ultraプロセッサ」に採用! リアルタイムレイトレに対応したIntel内蔵GPUの“秘密”に迫る

            次世代の「Core Ultraプロセッサ」に採用! リアルタイムレイトレに対応したIntel内蔵GPUの“秘密”に迫る:Intel Innovation 2023(1/6 ページ) Intelが12月15日(米国太平洋時間)に発表する「Core Ultraプロセッサ」には、Xe-LPGアーキテクチャベースのGPUが内蔵される。このGPUについて、技術的な詳細を解説するセッションが開催されたので、本稿で詳しく紹介する。 Intelが12月15日(米国太平洋時間)に発表する予定のモバイル向け新型CPU「Core Ultraプロセッサ」(開発コード名:Meteor Lake)について、2本の記事で技術面の解説を行ってきた。 →技術解説(前編) →技術解説(後編) 同社が9月に開催したイベント「Intel Innovation 2023」では、Core Ultraプロセッサの内蔵GPUのアーキテク

              次世代の「Core Ultraプロセッサ」に採用! リアルタイムレイトレに対応したIntel内蔵GPUの“秘密”に迫る
            • The first conformant M1 GPU driver

              Conformant OpenGL® ES 3.1 drivers are now available for M1- and M2-family GPUs. That means the drivers are compatible with any OpenGL ES 3.1 application. Interested? Just install Linux! For existing Asahi Linux users, upgrade your system with dnf upgrade (Fedora) or pacman -Syu (Arch) for the latest drivers. Our reverse-engineered, free and open source graphics drivers are the world’s only conform

              • COMPUTEXで判明したZen 5以降のプロセッサー戦略 AMD CPU/GPUロードマップ (1/3)

                COMPUTEX/TAIPEI 2024におけるAMDの新発表に関しては、すでにKTU氏のレポートCPU編とGPU編が上がっているので御覧になった読者も多いだろう。ここではKTU氏のレポートを補足する形で、いくつか説明を追加したい。

                  COMPUTEXで判明したZen 5以降のプロセッサー戦略 AMD CPU/GPUロードマップ (1/3)
                • PCテクノロジートレンド 2024 - GPU編

                  2024年の幕開けに、パーソナルコンピュータのハードウェア技術の動向を占う毎年恒例の特集記事「PCテクノロジートレンド」をお届けする。本稿はGPU編だ。ゲーム用途のみならず、生成AIの圧倒的追い風で過去最高に勢いに乗るNVIDIAと、それを積極的に追うAMD、そしてArc投入後の動きが気になるIntelの、2024年の動向を探っていきたい。 ◆関連記事リンク (2024年1月1日掲載) PCテクノロジートレンド 2024 - プロセス編 (2024年1月2日掲載) PCテクノロジートレンド 2024 - CPU編 (本稿) PCテクノロジートレンド 2024 - GPU編 (2024年1月4日掲載) PCテクノロジートレンド 2024 - Memory編 (2024年1月5日掲載) PCテクノロジートレンド 2024 - Storage編 (2024年1月6日掲載) PCテクノロジートレン

                    PCテクノロジートレンド 2024 - GPU編
                  • 【MLIR】GPU上で走る自作言語のコンパイラを作っている話

                    この記事は、KCS アドベントカレンダー 23 日目の記事です。 22 日目・24 日目 GPU 上で走る自作言語のコンパイラ こんにちは、lemolatoon です。 最近は、夏に自作 OS ゼミでセキュキャンに参加したりして、また低レイヤへの気持ちを高めたりしていました。 自作 OS も一段落ついた頃、MLIRというものを知り、何やら面白そうだぞということで色々調べて手を動かしたりしていたのですが、ある程度 MLIR の利点を生かしたいい感じのものができつつあるので紹介したいと思います。 まず最初に自作言語を作る手順を、LLVM IR に変換するところまで説明します。 その後、GPU 上で走らせる部分について書きます。 実装は、すべて以下のリポジトリにあります。LLVM IR への変換は少なくともch6ブランチに、GPU 上で走らせる部分の実装はlower-to-gpuブランチにありま

                      【MLIR】GPU上で走る自作言語のコンパイラを作っている話
                    • 画像生成AIモデルを使ってGPUの速度を比べてみた | IIJ Engineers Blog

                      地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 我が課に検証マシンが入りまして それまでGeForce RTX 3060で細々とやってた検証が少しばかりやれることが増えてきまして。 そしたらよりやれることを増やしたくなるのがエンヂニヤの性・・・・・・・・・ってやつではないでせうか? メーカー製の製品をおとなしく使う・・・・訳がなく、自前だったり社内で暇してるGPU等をかき集めたりしながら、色々検証内容としてやれることを増やしていこうとしていた時の話です。 デバイスもそこそこに増えてきて、まぁやっぱり色々検証してみたいんですね、これ

                        画像生成AIモデルを使ってGPUの速度を比べてみた | IIJ Engineers Blog
                      • 「iPhone 15 Pro」搭載のA17チップの仕様が判明 周波数やGPUコア数アップ、メモリはA16と同じ6GB:リーカー報告 - こぼねみ

                        Appleが「iPhone 15 Pro」と「iPhone 15 Pro Max」に搭載するA17チップのスペックがリークされています。 リーカーUnknownz21 (@URedditor)によると、6コアCPUと6コアGPUが搭載されており、現行のA16チップは6コアCPUと5コアGPUと比べて、GPUコアが増加していることになります。 Apple A17チップのイメージA17チップの最大周波数は3.70GHzとなり、A16チップの3.46GHzからアップしています。さらに、今回の情報によると、iPhone 15 ProにはiPhone 14 Proと同じ6GBのメモリ(詳しくはLPDDR5 DRAM)が搭載されます。以前の噂では、iPhone 15 ProとPro Maxには8GBのメモリが搭載されると言われていたが、Unknownz21は8GBは可能性は低いとしながらも、まったくな

                          「iPhone 15 Pro」搭載のA17チップの仕様が判明 周波数やGPUコア数アップ、メモリはA16と同じ6GB:リーカー報告 - こぼねみ
                        • AMDがRDNA 3ベースのGPUと「Ryzen AI」(一部)搭載のデスクトップ向けAPU「Ryzen 8000G」を投入 「Ryzen 5000」にも追加モデルあり

                          内蔵GPUを強化した「Ryzen 8000Gシリーズ」 Ryzen 8000Gシリーズは、2022年9月に初登場したデスクトップ向け「Ryzen 7000シリーズ」の改良版で、CPUソケットもLGAタイプの「Socket AM5」で変わりない。TDP(熱設計電力)は全モデルで65Wとなっている。 改良ポイントの1つが内蔵GPUの強化だ。従来のRyzen 7000シリーズではRDNA 2アーキテクチャの「Radeon Graphics」(2コア)を搭載していたが、Ryzen 8000Gシリーズはモバイル向けのRyzen 7040シリーズやRyzen 8040シリーズと同じRDNA 3アーキテクチャベースの「Radeon 700Mシリーズ」(4~12コア)に変更されている。 これにより、タイトルや設定にもよるが、外部GPUなしでHD(1280×720ピクセル)/フルHD(1920×1080ピク

                            AMDがRDNA 3ベースのGPUと「Ryzen AI」(一部)搭載のデスクトップ向けAPU「Ryzen 8000G」を投入 「Ryzen 5000」にも追加モデルあり
                          • さくらインターネット、NVIDIAのGPUを搭載した生成AI向けクラウドサービス「高火力」の第2弾「高火力 DOK」を提供開始 | さくらインターネット

                            さくらインターネット、NVIDIAのGPUを搭載した生成AI向けクラウドサービス「高火力」の第2弾「高火力 DOK」を提供開始 〜最長3か月の無償利用キャンペーンも開始〜 デジタルインフラサービスを提供するさくらインターネット株式会社(本社:大阪府大阪市、代表取締役社長:田中 邦裕、以下「さくらインターネット」)は、生成AI向けクラウドサービス「高火力」の第2弾としてコンテナシリーズ「高火力 DOK(ドック)」を2024年6月27日(木)より提供開始します。 このたび提供開始する「高火力 DOK」は、NVIDIAのGPUを使用してお客さまが事前に用意したDockerイメージの実行ができる、コンテナ型クラウドサービスです。イメージ内に実行環境をパッケージングすることで、毎回の環境構築の手間をかけずにサービス利用することができます。 また、利用時間に応じた時間課金制でコスト削減にもつながります

                              さくらインターネット、NVIDIAのGPUを搭載した生成AI向けクラウドサービス「高火力」の第2弾「高火力 DOK」を提供開始 | さくらインターネット
                            • AMD、GPU非内蔵でZen 3+コア採用のRyzen 7000シリーズ

                                AMD、GPU非内蔵でZen 3+コア採用のRyzen 7000シリーズ
                              • NVIDIA、NTTドコモと協力し世界に先駆けて GPU アクセラレーテッド 5G ネットワーク オープン RAN を構築 | NVIDIA

                                NVIDIA、NTTドコモと協力し世界に先駆けて GPU アクセラレーテッド 5G ネットワーク オープン RANを構築 by Soma Velayutham · September 27, 2023 高性能なソフトウェア デファインド無線ネットワークを日本に展開 生成 AI に対する高い関心が多くの企業の役員を席巻する中、世界の通信会社は、5G や今後登場する 6G ネットワークを通じて、こうした多くの新しい AI アプリケーションをエッジにコスト効率よく提供する方法を模索しています。 通信事業者は、2025 年までに世界中で 1,700 万以上の 5G のマイクロセルやタワーを配備する計画です。これにより、サービス品質を維持し、顧客体験を最大化しながら、新しいインフラを構築、管理、最適化することは、業界の次なる大きな課題です。 本日、NTTドコモ (以下、ドコモ) はGPU アクセラレ

                                  NVIDIA、NTTドコモと協力し世界に先駆けて GPU アクセラレーテッド 5G ネットワーク オープン RAN を構築 | NVIDIA
                                • GPU最新情報

                                  輸出禁止に伴い中国では大量のGeForce RTX 4090が備蓄され、AI用途向けに改造が施されている模様

                                  • NTT Comが稼働中の液冷サーバー初公開 高発熱なGPUサーバーのコロケーションも可能に (1/3)

                                    NTTコミュニケーションズ(以下、NTT Com)は、神奈川県川崎市の Nexcenter Lab.において、稼働状態にある液冷サーバーを初めて公開した。生成AIブームで需要がうなぎ登りとなっているGPUサーバーを効率的に冷却できる液冷サーバー。同社では、検証の成果をもとに、国内初となる液冷方式サーバーに対応した超省エネ型コロケーションサービス「Green Nexcenter」を提供する。 空冷のデータセンターに比べ、消費電力は約30%削減 NTT Comが展開するGreen Nexcenterは、液冷方式を採用することで、GPUを活用した生成AIなどの高発熱サーバーに対応。高い冷却効果を実現しながらも、国内最高レベルのPUE1.15を実現しているのが特徴だ。空冷方式のデータセンターに比べて、消費電力は約30%の削減が可能になる。1ラックあたり最大80kWの冷却が可能であり、約10倍の冷却

                                      NTT Comが稼働中の液冷サーバー初公開 高発熱なGPUサーバーのコロケーションも可能に (1/3)
                                    • B100は1ダイあたりの性能がH100を下回るがAI性能はH100の5倍 NVIDIA GPUロードマップ (1/3)

                                      消え去ったI/F史は中断し、今回と次回は、3月18日からサンノゼで開催されたGTC 2024におけるNVIDIAの発表、特にBlackwellについて解説したい。 B100のダイサイズは850平方mm前後? 2023年10月に行なわれた投資家向けカンファレンスで示されたのが下の画像にあるロードマップである。今回GTC 2024で発表されたのはB100、つまりH200の後継となる新サーバー向けチップとこれを利用した派生型である。 昨年発表されたNVIDIAのロードマップ。H100とH200は同じ2023年に発表はされているが、発売は2024年ということでこのロードマップになっている。B100も今年中に発売される予定で、X100は2025年になる 最初にお断りしておくと、本稿ではB100とひとくくりに説明しているが、これは上の画像で"B100"と記されているのでこれを使っているだけで、実際には

                                        B100は1ダイあたりの性能がH100を下回るがAI性能はH100の5倍 NVIDIA GPUロードマップ (1/3)
                                      • あらゆるゲームに超解像(Super Resolution)を ~「DirectSR」のプレビューが開始/AMD、Intel、NVIDIAと協力して、GPUベンダーの超解像技術を統合

                                          あらゆるゲームに超解像(Super Resolution)を ~「DirectSR」のプレビューが開始/AMD、Intel、NVIDIAと協力して、GPUベンダーの超解像技術を統合
                                        • LoRAで生成AIを効率的にファインチューニング、GPUメモリー使用量などを削減

                                          LoRA(ローラ、ロラ、Low-Rank Adaptation)とはLLM(大規模言語モデル)や画像生成AI(人工知能)を効率良く調整する手法の1つだ。ある特定のタスクやジャンルに寄せた出力をするようにカスタマイズする「ファインチューニング」を行う際に用いる。 具体的にはLLMのパラメーターを固定したまま、別のパラメーターを「横付け」してその部分だけファインチューニングする。オプションパーツのようなイメージだ。 例えば文章を生成するAIに、ある特定の作者のような文体で文章を生成させたいとする。この場合、LLMのパラメーターを全てファインチューニングするには大量の計算が必要だ。そこで前述の手法を用いると、計算コストや、計算するためのGPU(画像処理半導体)に関するコストなどを現実的な範囲に抑えることができる。 この他にも「保険業界特有の専門用語を使った文章を生成したい」「この作者のような絵柄

                                            LoRAで生成AIを効率的にファインチューニング、GPUメモリー使用量などを削減
                                          • Workers AI: serverless GPU-powered inference on Cloudflare’s global network

                                            Workers AI: serverless GPU-powered inference on Cloudflare’s global network09/27/2023 This post is also available in 简体中文, 日本語, 한국어, Français, Deutsch and Español. If you're anywhere near the developer community, it's almost impossible to avoid the impact that AI’s recent advancements have had on the ecosystem. Whether you're using AI in your workflow to improve productivity, or you’re shipping AI

                                              Workers AI: serverless GPU-powered inference on Cloudflare’s global network
                                            • AMDの2023年決算は売上高3兆3500億円でAMD Instinct GPU・EPYC CPU・Ryzenが好調

                                              半導体メーカー・AMDが2023年第4四半期(2023年10月~12月)と通期の決算報告を行いました。リサ・スーCEOによると、AMD Instinct GPUとEPYC CPUが記録的な売上高だったほか、AMD Ryzenプロセッサも好調で、2023年はいい成績で終えることができたとのことです。 AMD Reports Fourth Quarter and Full Year 2023 Financial Results :: Advanced Micro Devices, Inc. (AMD) https://ir.amd.com/news-events/press-releases/detail/1180/amd-reports-fourth-quarter-and-full-year-2023-financial AMD earnings report Q4 2023 https:

                                                AMDの2023年決算は売上高3兆3500億円でAMD Instinct GPU・EPYC CPU・Ryzenが好調
                                              • CPUとGPUの計算処理をリアルタイム切り替え、全体の処理を効率化 富士通が世界初

                                                富士通は、複数のプログラム処理を実行中に、GPUが必要なプログラムとCPUでいいプログラムを区別し、優先度の高い処理に対してリアルタイムにGPUを割り振る「アダプティブGPUアロケーター技術」を開発したと発表した。 富士通は11月9日、複数のプログラム処理を実行中に、GPUが必要なプログラムとCPUでいいプログラムを区別し、優先度の高い処理に対してリアルタイムにGPUを割り振る「アダプティブGPUアロケーター技術」を開発したと発表した。世界初の技術という。GPU利用を効率化でき、世界的なGPU不足に対応できるとしている。 例えば、3つのプログラム処理をCPU×1台、GPU×2台で効率的に行いたい場合、まず「プログラム1」(以下「1」)と「プログラム2」(以下「2」)にGPUを割り振る。その後、「プログラム3」(以下「3」)のリクエストに応じ、GPUの割り当てを「1」から「3」に切り替えてG

                                                  CPUとGPUの計算処理をリアルタイム切り替え、全体の処理を効率化 富士通が世界初
                                                • 「データセンターGPU市場の98%をNVIDIAが占めている」Wells Fargoのアナリストが報告 | Ledge.ai

                                                  サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

                                                    「データセンターGPU市場の98%をNVIDIAが占めている」Wells Fargoのアナリストが報告 | Ledge.ai
                                                  • 消費者向けGPUでも高性能GPUに近いパフォーマンスでLLMを動かす手法「PowerInfer」 | AIDB

                                                    参照論文情報 タイトル:PowerInfer: Fast Large Language Model Serving with a Consumer-grade GPU 著者:Yixin Song, Zeyu Mi, Haotong Xie, Haibo Chen 所属:Shanghai Jiao Tong University URL:https://doi.org/10.48550/arXiv.2312.12456 GitHub:https://github.com/SJTU-IPADS/PowerInfer 本記事の関連研究:Microsoftの研究者ら、比較的小さなサイズでもタスクによってはOpenAIのGPT-4を凌駕する言語モデル『Orca2』を開発 大規模言語モデル(LLM)運用上の課題 LLMを効率的に運用する上では課題があります。代表的な課題の一つは、モデルを動かすためには

                                                      消費者向けGPUでも高性能GPUに近いパフォーマンスでLLMを動かす手法「PowerInfer」 | AIDB
                                                    • GPU上の推論サーバーのパフォーマンスチューニング方法

                                                      またスループットが計算時間 (compute input + compute infer + compute output) の逆数と近い値になっていることに注目してください。これは下図のようにGPUがリクエストをすき間なく直列的に処理していることを示しています。仮にGPUが遊んでいる時間があるとするとスループットは計算時間の逆数より小さくなるはずです。このようにGPUがすき間なくリクエストを処理している状況で、低精度計算によって計算時間が減ればその分、スループットが上昇することが見て取れると思います。 この節のように、レスポンスタイムとスループットの両方の改善は、システムパフォーマンスの観点から見てもいいことずくめです。数値誤差が問題にならないことが確認できていれば低精度計算をぜひ活用すべきでしょう。一方で次節の内容はレスポンスタイムの悪化を許容した上でスループットの改善を目指す内容にな

                                                        GPU上の推論サーバーのパフォーマンスチューニング方法
                                                      • NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表

                                                        現地時間2024年2月12日、NVIDIAが小型ワークステーション向けGPUとして「NVIDIA RTX 2000 Ada Generation」を発表しました。NVIDIA RTX 2000 Ada Genrationはアーキテクチャに「Ada Lovelaceアーキテクチャ」を採用することで、前モデルの「NVIDIA RTX A2000」と比較して最大1.6倍ものパフォーマンスを発揮することが可能とされています。 NVIDIA RTX 2000 Ada Generation GPU Brings Performance, Versatility for Next Era of AI-Accelerated Design and Visualization | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-2000-ada/ nvidia.c

                                                          NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表
                                                        • NVIDIA、Amazon EC2でH100 GPUを利用可能に

                                                          7月27日、NVIDIAはAWS CloudでNVIDIA H100 GPUsを利用できるようになったことを発表しました。 これにより、AWSユーザーは高性能なAIアプリケーションをスケーリングし、新しい生成AIのユースケースを開発することができます。 詳細は以下の通りです。 7月27日、NVIDIAはAWSのAmazon EC2 P5インスタンスでNVIDIA H100 GPUを利用可能になったことを発表しました。これにより、AWSユーザーは高性能なAIアプリケーションをスケーリングし、新しい生成AIのユースケースを開発することができるようになりました。 P5インスタンスはAIタスクに最適化 Amazon EC2 P5インスタンスは、AIのトレーニングや推論などの高度なタスクに最適なインスタンスです。 特に大規模な言語モデルやコンピュータビジョンモデルのトレーニングや推論に使用されます。

                                                            NVIDIA、Amazon EC2でH100 GPUを利用可能に
                                                          • さくらインターネット、GPUクラウド強化を前倒し 生成AI意識

                                                            さくらインターネットは、生成AI向けのサービスを提供するとしてGPUクラウドへの投資計画を発表。同社が北海道で運営する「石狩データセンター」に、米NVIDIAのGPU「NVIDIA H100 Tensor コア GPU」を2000基以上導入する計画などを明らかにしている。 関連記事 ディープラーニング向けGPUサーバを1時間267円で さくらインターネットが提供 米NVIDIAの「TITAN X」や「Tesla P100」を搭載したサーバを1時間から使用できる。 さくら、生成AI向けのクラウドサービス提供へ 「NVIDIA H100」を2000基投入 さくらインターネットが、生成AI向けのクラウドサービスを、2024年1月以降に提供すると発表した。データセンターに「NVIDIA H100 Tensor コア GPU」を2000基以上導入するという。 さくらインターネット、「高火力コンピュー

                                                              さくらインターネット、GPUクラウド強化を前倒し 生成AI意識
                                                            • GitHub - XiongjieDai/GPU-Benchmarks-on-LLM-Inference: Multiple NVIDIA GPUs or Apple Silicon for Large Language Model Inference?

                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                GitHub - XiongjieDai/GPU-Benchmarks-on-LLM-Inference: Multiple NVIDIA GPUs or Apple Silicon for Large Language Model Inference?
                                                              • 生成AI向けGPU「Instinct MI300X」はNVIDIAと十分競合できる性能 AMD GPUロードマップ (1/3)

                                                                AMDは米国時間の12月6日に、"Advancing AI"イベントを開催し、ここでいくつかの新製品や新情報を発表した。タイトルのとおりAIに絡んだ話ではあるが、そのAI向けの新CPUなども一緒に情報解禁されたので、このあたりをまとめて解説しよう。 "Hawk Point"ことRyzen 8040シリーズを発表 Meteor Lakeを牽制か? まずはクライアント側であるが、Hawk PointことRyzen 8040シリーズが発表された。 Hawk PointことRyzen 8040シリーズ。Zen 4コアにRDNA 3、それとXDNAで、既存のPhoenixこと7040シリーズと構成は一緒

                                                                  生成AI向けGPU「Instinct MI300X」はNVIDIAと十分競合できる性能 AMD GPUロードマップ (1/3)
                                                                • Python: PyTorch で Apple Silicon GPU を使ってみる - CUBE SUGAR CONTAINER

                                                                  PyTorch v1.12 以降では、macOS において Apple Silicon あるいは AMD の GPU を使ったアクセラレーションが可能になっているらしい。 バックエンドの名称は Metal Performance Shaders (MPS) という。 意外と簡単に使えるようなので、今回は手元の Mac で試してみた。 使った環境は次のとおり。 GPU が 19 コアの Apple M2 Pro を積んだ Mac mini を使用している。 $ sw_vers ProductName: macOS ProductVersion: 14.4.1 BuildVersion: 23E224 $ sysctl machdep.cpu.brand_string machdep.cpu.brand_string: Apple M2 Pro $ pip list | grep -i tor

                                                                    Python: PyTorch で Apple Silicon GPU を使ってみる - CUBE SUGAR CONTAINER
                                                                  • Meteor LakeのNPU性能はGPUの7割程度だが消費電力が圧倒的に少ない インテル CPUロードマップ (1/3)

                                                                    今回はMeteor LakeのAI周りについて解説しよう。といっても、これまでも何回か紹介している。連載686回で説明したようにMeteor Lakeに搭載されるものは、2022年まではIntel VPUと称しており、Meteor Lakeに先立ちRaptor LakeにはAI M.2モジュールとして提供されてここでアプリケーションの先行開発が行なわれることになっていた。 映像処理時のCPU/GPU負荷を下げる Intel VPU そのNPUというかVPU、元になったのはインテルが2016年に買収したMovidiusのMyriadシリーズVPUである。もともとMyriadシリーズはVision Processor Unit、つまり映像処理用プロセッサーとして発表されており、2011年には最初のMyriad 1が発表される。 2014年には後継となるMyriad 2がやはり映像処理用のプロセ

                                                                      Meteor LakeのNPU性能はGPUの7割程度だが消費電力が圧倒的に少ない インテル CPUロードマップ (1/3)
                                                                    • 今後のMacはどうなる!? 新型「iMac」に見るGPUを強化したM3チップの実力

                                                                      Appleのi新しい「Mac」は、基本設計こそ先代(M1チップ搭載)モデルと同じだが、性能はまさに“デスクトップ機”として十分なものを備えている。とりわけ、GPU性能の向上には目を見張るものがある。M2チップをスキップしてM3チップが搭載されたことで、Intelプロセッサ搭載iMacからの買い替えが進むだろう。 ……と、先に結論めいたことを述べてしまったが、有意に向上したCPU性能、高い電力効率に加え、大幅なGPU性能(正確には機能)の改善は、期待を裏切らないものだった。発売に先駆けて、その一端に触れてみよう。 旧iMac(特にIntel CPUモデル)の愛用者に向けたインプレッション 過去のラインアップを前提に考えると、新たに発表されたiMacに「27インチモデルが用意されるのではないか?」という淡い期待を持っている人もいるかもしれない。 27インチiMacは、一体型ならではの“Appl

                                                                        今後のMacはどうなる!? 新型「iMac」に見るGPUを強化したM3チップの実力
                                                                      • さくらインターネット、NVIDIA H100 GPUを搭載した生成AI向けクラウドサービス「高火力」の第一弾を2024年1月31日より提供開始 | さくらインターネット

                                                                        さくらインターネット、NVIDIA H100 GPUを搭載した生成AI向けクラウドサービス「高火力」の第一弾を2024年1月31日より提供開始 クラウドコンピューティングサービスを提供するさくらインターネット株式会社(本社:大阪府大阪市、代表取締役社長:田中 邦裕)は、「NVIDIA H100 Tensor コア GPU」を搭載した、生成AI向けクラウドサービス「高火力」の第一弾として、ベアメタルシリーズ「高火力 PHY(ファイ)」を2024年1月31日(水)より提供を開始します。 当社は2023年6月16日(金)に、経済安全保障推進法に基づく特定重要物資である「クラウドプログラム」の供給確保計画に関する経済産業省の認定を受けました。AIに関わるコンピューティングリソースを安定供給確保することは、日本のデジタル社会を発展させるために必要不可欠であると考え、生成AI向けクラウドサービス「高火

                                                                          さくらインターネット、NVIDIA H100 GPUを搭載した生成AI向けクラウドサービス「高火力」の第一弾を2024年1月31日より提供開始 | さくらインターネット
                                                                        • うみゆき@AI研究 @umiyuki_ai OpenAIの理念「敢えてAI研究しまくる事で人類をAIから守る」 ①TransformerはGPU資源があればあるほど強くなるから、AI開発は死ぬほど金がないと最前線に立てない。大学や研究所はあんま金ないから、金持ってる大企業がリードする戦場。 ②だからサム氏はマイクロソフトから資金調達しまくるし、GPTのAPIやChatGPTで金を儲けまくらなきゃ最前線のAI開発は続けられない。優秀な人を雇うにもとにかく金が要る ③潤沢な資金にモノ言わせてトレーニングしたク

                                                                          • 自前GPUを使ったKaggle環境をローカルのVSCode(Cursor)に作るのに手こずった話 - Qiita

                                                                            みなさん、お久しぶりです。A7です。ここ数か月いろいろと忙しくてなかなか記事を書けてませんでした。 松尾研LLM講座の記事もそのうちだすのでお待ちください そして今もまだ忙しいので、今回の記事もまたぱっとまとめます。笑 自己紹介 データサイエンティストを目指して日々勉強している、慶應義塾大学大学院理工学研究科1年生(2024.05.01時点) 取得資格、コンペ優勝経験など、リアルタイムの情報は👇👇👇をみてね X: @A7_data←普段はXで活動しています。ありがたいことに、フォロワーは6500人を超えました😌 プロフィールページ👇👇👇 X👇👇👇 背景 Kaggleやりたい!ってなってた。 Kaggleはデータサイエンティストなら知らない人はいない、世界一のデータサイエンスコンペティションプラットフォーム。 世界の第一線で働くデータサイエンティストの方も多く参加されてお

                                                                              自前GPUを使ったKaggle環境をローカルのVSCode(Cursor)に作るのに手こずった話 - Qiita
                                                                            • GeForce RTX 4070搭載のThunderbolt 3外付けGPUボックス

                                                                                GeForce RTX 4070搭載のThunderbolt 3外付けGPUボックス
                                                                              • NVIDIAのGPUはコモディティー化するか、快進撃の裏でよみがえる「Ciscoの悪夢」

                                                                                時価総額が2.6兆ドル(約410兆円)を超え、2.9兆ドルで世界2位の米Apple(アップル)の背中が見えてきた米NVIDIA(エヌビディア)。エヌビディアの専売特許であるGPU(画像処理半導体)の今後を占う連載の第2回は、2つめの死角「コモディティー化」の可能性を検討する。 GPUにとって2つめの死角は低価格化だ。コモディティー化ともいえる。市場参入時には高付加価値を持っていた製品が、市場の活性化や競合の出現などによって他の製品との機能・サービスの差がなくなり、価格競争を余儀なくされる状態を指す。 例えば2010年代に日系電機メーカーが苦しんだ薄型テレビはその典型だろう。当時、売れ筋だった40インチの薄型テレビの店頭実売価格は2009年には14万円程度だったが、3年後の2012年には6万円台と半額以下になった。「3年で半額」という法則はDVDやブルーレイディスクのレコーダーにも当てはまっ

                                                                                  NVIDIAのGPUはコモディティー化するか、快進撃の裏でよみがえる「Ciscoの悪夢」
                                                                                • フォートナイトをフルHD・120fps超えで動かせるGPU内蔵CPU「Ryzen 8000G」シリーズの海外レビューまとめ

                                                                                  AMDのGPU内蔵CPU「Ryzen 8000G」シリーズが2024年2月2日に発売されます。Ryzen 8000GシリーズはZen 4アーキテクチャのCPUとRDNA3アーキテクチャのGPUを組み合わせたAPUで、AMDは重量級ゲームを1080pで快適に動作させられるとアピールしています。そんなRyzen 8000Gシリーズを一足先に入手した海外メディアがレビュー記事を公開していたので、各種性能をまとめてみました。 AMD Ryzen 7 8700G and Ryzen 5 8600G Review: Zen 4 APUs with RDNA3 Graphics https://www.anandtech.com/show/21242/amd-ryzen-7-8700g-and-ryzen-5-8600g-review/ AMD Ryzen 5 8600G review: The ult

                                                                                    フォートナイトをフルHD・120fps超えで動かせるGPU内蔵CPU「Ryzen 8000G」シリーズの海外レビューまとめ