並び順

ブックマーク数

期間指定

  • から
  • まで

201 - 240 件 / 356件

新着順 人気順

GPUの検索結果201 - 240 件 / 356件

  • PCテクノロジートレンド 2024 - GPU編

    2024年の幕開けに、パーソナルコンピュータのハードウェア技術の動向を占う毎年恒例の特集記事「PCテクノロジートレンド」をお届けする。本稿はGPU編だ。ゲーム用途のみならず、生成AIの圧倒的追い風で過去最高に勢いに乗るNVIDIAと、それを積極的に追うAMD、そしてArc投入後の動きが気になるIntelの、2024年の動向を探っていきたい。 ◆関連記事リンク (2024年1月1日掲載) PCテクノロジートレンド 2024 - プロセス編 (2024年1月2日掲載) PCテクノロジートレンド 2024 - CPU編 (本稿) PCテクノロジートレンド 2024 - GPU編 (2024年1月4日掲載) PCテクノロジートレンド 2024 - Memory編 (2024年1月5日掲載) PCテクノロジートレンド 2024 - Storage編 (2024年1月6日掲載) PCテクノロジートレン

      PCテクノロジートレンド 2024 - GPU編
    • 【MLIR】GPU上で走る自作言語のコンパイラを作っている話

      この記事は、KCS アドベントカレンダー 23 日目の記事です。 22 日目・24 日目 GPU 上で走る自作言語のコンパイラ こんにちは、lemolatoon です。 最近は、夏に自作 OS ゼミでセキュキャンに参加したりして、また低レイヤへの気持ちを高めたりしていました。 自作 OS も一段落ついた頃、MLIRというものを知り、何やら面白そうだぞということで色々調べて手を動かしたりしていたのですが、ある程度 MLIR の利点を生かしたいい感じのものができつつあるので紹介したいと思います。 まず最初に自作言語を作る手順を、LLVM IR に変換するところまで説明します。 その後、GPU 上で走らせる部分について書きます。 実装は、すべて以下のリポジトリにあります。LLVM IR への変換は少なくともch6ブランチに、GPU 上で走らせる部分の実装はlower-to-gpuブランチにありま

        【MLIR】GPU上で走る自作言語のコンパイラを作っている話
      • 画像生成AIモデルを使ってGPUの速度を比べてみた | IIJ Engineers Blog

        地方拠点の一つ、九州支社に所属しています。サーバ・ストレージを中心としたSI業務に携わってましたが、現在は技術探索・深堀業務を中心に対応しています。 2018年に難病を患ったことにより、定期的に入退院を繰り返しつつ、2023年には男性更年期障害の発症をきっかけに、トランスジェンダーとしての道を歩み始めてます。 我が課に検証マシンが入りまして それまでGeForce RTX 3060で細々とやってた検証が少しばかりやれることが増えてきまして。 そしたらよりやれることを増やしたくなるのがエンヂニヤの性・・・・・・・・・ってやつではないでせうか? メーカー製の製品をおとなしく使う・・・・訳がなく、自前だったり社内で暇してるGPU等をかき集めたりしながら、色々検証内容としてやれることを増やしていこうとしていた時の話です。 デバイスもそこそこに増えてきて、まぁやっぱり色々検証してみたいんですね、これ

          画像生成AIモデルを使ってGPUの速度を比べてみた | IIJ Engineers Blog
        • 「iPhone 15 Pro」搭載のA17チップの仕様が判明 周波数やGPUコア数アップ、メモリはA16と同じ6GB:リーカー報告 - こぼねみ

          Appleが「iPhone 15 Pro」と「iPhone 15 Pro Max」に搭載するA17チップのスペックがリークされています。 リーカーUnknownz21 (@URedditor)によると、6コアCPUと6コアGPUが搭載されており、現行のA16チップは6コアCPUと5コアGPUと比べて、GPUコアが増加していることになります。 Apple A17チップのイメージA17チップの最大周波数は3.70GHzとなり、A16チップの3.46GHzからアップしています。さらに、今回の情報によると、iPhone 15 ProにはiPhone 14 Proと同じ6GBのメモリ(詳しくはLPDDR5 DRAM)が搭載されます。以前の噂では、iPhone 15 ProとPro Maxには8GBのメモリが搭載されると言われていたが、Unknownz21は8GBは可能性は低いとしながらも、まったくな

            「iPhone 15 Pro」搭載のA17チップの仕様が判明 周波数やGPUコア数アップ、メモリはA16と同じ6GB:リーカー報告 - こぼねみ
          • 画像生成AIを快適に動かすならこれを買え!『Stable Diffusion XL 1.0』編【リフレッシュレートから選ぶGPUの最適解⑦】 DOS/V POWER REPORT 2023年秋号の記事を丸ごと掲載!

              画像生成AIを快適に動かすならこれを買え!『Stable Diffusion XL 1.0』編【リフレッシュレートから選ぶGPUの最適解⑦】 DOS/V POWER REPORT 2023年秋号の記事を丸ごと掲載!
            • AMDがRDNA 3ベースのGPUと「Ryzen AI」(一部)搭載のデスクトップ向けAPU「Ryzen 8000G」を投入 「Ryzen 5000」にも追加モデルあり

              内蔵GPUを強化した「Ryzen 8000Gシリーズ」 Ryzen 8000Gシリーズは、2022年9月に初登場したデスクトップ向け「Ryzen 7000シリーズ」の改良版で、CPUソケットもLGAタイプの「Socket AM5」で変わりない。TDP(熱設計電力)は全モデルで65Wとなっている。 改良ポイントの1つが内蔵GPUの強化だ。従来のRyzen 7000シリーズではRDNA 2アーキテクチャの「Radeon Graphics」(2コア)を搭載していたが、Ryzen 8000Gシリーズはモバイル向けのRyzen 7040シリーズやRyzen 8040シリーズと同じRDNA 3アーキテクチャベースの「Radeon 700Mシリーズ」(4~12コア)に変更されている。 これにより、タイトルや設定にもよるが、外部GPUなしでHD(1280×720ピクセル)/フルHD(1920×1080ピク

                AMDがRDNA 3ベースのGPUと「Ryzen AI」(一部)搭載のデスクトップ向けAPU「Ryzen 8000G」を投入 「Ryzen 5000」にも追加モデルあり
              • NVIDIA、NTTドコモと協力し世界に先駆けて GPU アクセラレーテッド 5G ネットワーク オープン RAN を構築 | NVIDIA

                NVIDIA、NTTドコモと協力し世界に先駆けて GPU アクセラレーテッド 5G ネットワーク オープン RANを構築 by Soma Velayutham · September 27, 2023 高性能なソフトウェア デファインド無線ネットワークを日本に展開 生成 AI に対する高い関心が多くの企業の役員を席巻する中、世界の通信会社は、5G や今後登場する 6G ネットワークを通じて、こうした多くの新しい AI アプリケーションをエッジにコスト効率よく提供する方法を模索しています。 通信事業者は、2025 年までに世界中で 1,700 万以上の 5G のマイクロセルやタワーを配備する計画です。これにより、サービス品質を維持し、顧客体験を最大化しながら、新しいインフラを構築、管理、最適化することは、業界の次なる大きな課題です。 本日、NTTドコモ (以下、ドコモ) はGPU アクセラレ

                  NVIDIA、NTTドコモと協力し世界に先駆けて GPU アクセラレーテッド 5G ネットワーク オープン RAN を構築 | NVIDIA
                • AMD、GPU非内蔵でZen 3+コア採用のRyzen 7000シリーズ

                    AMD、GPU非内蔵でZen 3+コア採用のRyzen 7000シリーズ
                  • GPU最新情報

                    輸出禁止に伴い中国では大量のGeForce RTX 4090が備蓄され、AI用途向けに改造が施されている模様

                    • NTT Comが稼働中の液冷サーバー初公開 高発熱なGPUサーバーのコロケーションも可能に (1/3)

                      NTTコミュニケーションズ(以下、NTT Com)は、神奈川県川崎市の Nexcenter Lab.において、稼働状態にある液冷サーバーを初めて公開した。生成AIブームで需要がうなぎ登りとなっているGPUサーバーを効率的に冷却できる液冷サーバー。同社では、検証の成果をもとに、国内初となる液冷方式サーバーに対応した超省エネ型コロケーションサービス「Green Nexcenter」を提供する。 空冷のデータセンターに比べ、消費電力は約30%削減 NTT Comが展開するGreen Nexcenterは、液冷方式を採用することで、GPUを活用した生成AIなどの高発熱サーバーに対応。高い冷却効果を実現しながらも、国内最高レベルのPUE1.15を実現しているのが特徴だ。空冷方式のデータセンターに比べて、消費電力は約30%の削減が可能になる。1ラックあたり最大80kWの冷却が可能であり、約10倍の冷却

                        NTT Comが稼働中の液冷サーバー初公開 高発熱なGPUサーバーのコロケーションも可能に (1/3)
                      • B100は1ダイあたりの性能がH100を下回るがAI性能はH100の5倍 NVIDIA GPUロードマップ (1/3)

                        消え去ったI/F史は中断し、今回と次回は、3月18日からサンノゼで開催されたGTC 2024におけるNVIDIAの発表、特にBlackwellについて解説したい。 B100のダイサイズは850平方mm前後? 2023年10月に行なわれた投資家向けカンファレンスで示されたのが下の画像にあるロードマップである。今回GTC 2024で発表されたのはB100、つまりH200の後継となる新サーバー向けチップとこれを利用した派生型である。 昨年発表されたNVIDIAのロードマップ。H100とH200は同じ2023年に発表はされているが、発売は2024年ということでこのロードマップになっている。B100も今年中に発売される予定で、X100は2025年になる 最初にお断りしておくと、本稿ではB100とひとくくりに説明しているが、これは上の画像で"B100"と記されているのでこれを使っているだけで、実際には

                          B100は1ダイあたりの性能がH100を下回るがAI性能はH100の5倍 NVIDIA GPUロードマップ (1/3)
                        • あらゆるゲームに超解像(Super Resolution)を ~「DirectSR」のプレビューが開始/AMD、Intel、NVIDIAと協力して、GPUベンダーの超解像技術を統合

                            あらゆるゲームに超解像(Super Resolution)を ~「DirectSR」のプレビューが開始/AMD、Intel、NVIDIAと協力して、GPUベンダーの超解像技術を統合
                          • LoRAで生成AIを効率的にファインチューニング、GPUメモリー使用量などを削減

                            LoRA(ローラ、ロラ、Low-Rank Adaptation)とはLLM(大規模言語モデル)や画像生成AI(人工知能)を効率良く調整する手法の1つだ。ある特定のタスクやジャンルに寄せた出力をするようにカスタマイズする「ファインチューニング」を行う際に用いる。 具体的にはLLMのパラメーターを固定したまま、別のパラメーターを「横付け」してその部分だけファインチューニングする。オプションパーツのようなイメージだ。 例えば文章を生成するAIに、ある特定の作者のような文体で文章を生成させたいとする。この場合、LLMのパラメーターを全てファインチューニングするには大量の計算が必要だ。そこで前述の手法を用いると、計算コストや、計算するためのGPU(画像処理半導体)に関するコストなどを現実的な範囲に抑えることができる。 この他にも「保険業界特有の専門用語を使った文章を生成したい」「この作者のような絵柄

                              LoRAで生成AIを効率的にファインチューニング、GPUメモリー使用量などを削減
                            • Workers AI: serverless GPU-powered inference on Cloudflare’s global network

                              Workers AI: serverless GPU-powered inference on Cloudflare’s global network09/27/2023 This post is also available in 简体中文, 日本語, 한국어, Français, Deutsch and Español. If you're anywhere near the developer community, it's almost impossible to avoid the impact that AI’s recent advancements have had on the ecosystem. Whether you're using AI in your workflow to improve productivity, or you’re shipping AI

                                Workers AI: serverless GPU-powered inference on Cloudflare’s global network
                              • AMDの2023年決算は売上高3兆3500億円でAMD Instinct GPU・EPYC CPU・Ryzenが好調

                                半導体メーカー・AMDが2023年第4四半期(2023年10月~12月)と通期の決算報告を行いました。リサ・スーCEOによると、AMD Instinct GPUとEPYC CPUが記録的な売上高だったほか、AMD Ryzenプロセッサも好調で、2023年はいい成績で終えることができたとのことです。 AMD Reports Fourth Quarter and Full Year 2023 Financial Results :: Advanced Micro Devices, Inc. (AMD) https://ir.amd.com/news-events/press-releases/detail/1180/amd-reports-fourth-quarter-and-full-year-2023-financial AMD earnings report Q4 2023 https:

                                  AMDの2023年決算は売上高3兆3500億円でAMD Instinct GPU・EPYC CPU・Ryzenが好調
                                • CPUとGPUの計算処理をリアルタイム切り替え、全体の処理を効率化 富士通が世界初

                                  富士通は、複数のプログラム処理を実行中に、GPUが必要なプログラムとCPUでいいプログラムを区別し、優先度の高い処理に対してリアルタイムにGPUを割り振る「アダプティブGPUアロケーター技術」を開発したと発表した。 富士通は11月9日、複数のプログラム処理を実行中に、GPUが必要なプログラムとCPUでいいプログラムを区別し、優先度の高い処理に対してリアルタイムにGPUを割り振る「アダプティブGPUアロケーター技術」を開発したと発表した。世界初の技術という。GPU利用を効率化でき、世界的なGPU不足に対応できるとしている。 例えば、3つのプログラム処理をCPU×1台、GPU×2台で効率的に行いたい場合、まず「プログラム1」(以下「1」)と「プログラム2」(以下「2」)にGPUを割り振る。その後、「プログラム3」(以下「3」)のリクエストに応じ、GPUの割り当てを「1」から「3」に切り替えてG

                                    CPUとGPUの計算処理をリアルタイム切り替え、全体の処理を効率化 富士通が世界初
                                  • 「データセンターGPU市場の98%をNVIDIAが占めている」Wells Fargoのアナリストが報告 | Ledge.ai

                                    サインインした状態で「いいね」を押すと、マイページの 「いいね履歴」に一覧として保存されていくので、 再度読みたくなった時や、あとでじっくり読みたいときに便利です。

                                      「データセンターGPU市場の98%をNVIDIAが占めている」Wells Fargoのアナリストが報告 | Ledge.ai
                                    • 消費者向けGPUでも高性能GPUに近いパフォーマンスでLLMを動かす手法「PowerInfer」 | AIDB

                                      参照論文情報 タイトル:PowerInfer: Fast Large Language Model Serving with a Consumer-grade GPU 著者:Yixin Song, Zeyu Mi, Haotong Xie, Haibo Chen 所属:Shanghai Jiao Tong University URL:https://doi.org/10.48550/arXiv.2312.12456 GitHub:https://github.com/SJTU-IPADS/PowerInfer 本記事の関連研究:Microsoftの研究者ら、比較的小さなサイズでもタスクによってはOpenAIのGPT-4を凌駕する言語モデル『Orca2』を開発 大規模言語モデル(LLM)運用上の課題 LLMを効率的に運用する上では課題があります。代表的な課題の一つは、モデルを動かすためには

                                        消費者向けGPUでも高性能GPUに近いパフォーマンスでLLMを動かす手法「PowerInfer」 | AIDB
                                      • GPU上の推論サーバーのパフォーマンスチューニング方法

                                        またスループットが計算時間 (compute input + compute infer + compute output) の逆数と近い値になっていることに注目してください。これは下図のようにGPUがリクエストをすき間なく直列的に処理していることを示しています。仮にGPUが遊んでいる時間があるとするとスループットは計算時間の逆数より小さくなるはずです。このようにGPUがすき間なくリクエストを処理している状況で、低精度計算によって計算時間が減ればその分、スループットが上昇することが見て取れると思います。 この節のように、レスポンスタイムとスループットの両方の改善は、システムパフォーマンスの観点から見てもいいことずくめです。数値誤差が問題にならないことが確認できていれば低精度計算をぜひ活用すべきでしょう。一方で次節の内容はレスポンスタイムの悪化を許容した上でスループットの改善を目指す内容にな

                                          GPU上の推論サーバーのパフォーマンスチューニング方法
                                        • NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表

                                          現地時間2024年2月12日、NVIDIAが小型ワークステーション向けGPUとして「NVIDIA RTX 2000 Ada Generation」を発表しました。NVIDIA RTX 2000 Ada Genrationはアーキテクチャに「Ada Lovelaceアーキテクチャ」を採用することで、前モデルの「NVIDIA RTX A2000」と比較して最大1.6倍ものパフォーマンスを発揮することが可能とされています。 NVIDIA RTX 2000 Ada Generation GPU Brings Performance, Versatility for Next Era of AI-Accelerated Design and Visualization | NVIDIA Blog https://blogs.nvidia.com/blog/rtx-2000-ada/ nvidia.c

                                            NVIDIAがAda Lovelaceアーキテクチャ採用のワークステーション向けGPU「NVIDIA RTX 2000 Ada Generation」を発表
                                          • NVIDIA、Amazon EC2でH100 GPUを利用可能に

                                            7月27日、NVIDIAはAWS CloudでNVIDIA H100 GPUsを利用できるようになったことを発表しました。 これにより、AWSユーザーは高性能なAIアプリケーションをスケーリングし、新しい生成AIのユースケースを開発することができます。 詳細は以下の通りです。 7月27日、NVIDIAはAWSのAmazon EC2 P5インスタンスでNVIDIA H100 GPUを利用可能になったことを発表しました。これにより、AWSユーザーは高性能なAIアプリケーションをスケーリングし、新しい生成AIのユースケースを開発することができるようになりました。 P5インスタンスはAIタスクに最適化 Amazon EC2 P5インスタンスは、AIのトレーニングや推論などの高度なタスクに最適なインスタンスです。 特に大規模な言語モデルやコンピュータビジョンモデルのトレーニングや推論に使用されます。

                                              NVIDIA、Amazon EC2でH100 GPUを利用可能に
                                            • さくらインターネット、GPUクラウド強化を前倒し 生成AI意識

                                              さくらインターネットは、生成AI向けのサービスを提供するとしてGPUクラウドへの投資計画を発表。同社が北海道で運営する「石狩データセンター」に、米NVIDIAのGPU「NVIDIA H100 Tensor コア GPU」を2000基以上導入する計画などを明らかにしている。 関連記事 ディープラーニング向けGPUサーバを1時間267円で さくらインターネットが提供 米NVIDIAの「TITAN X」や「Tesla P100」を搭載したサーバを1時間から使用できる。 さくら、生成AI向けのクラウドサービス提供へ 「NVIDIA H100」を2000基投入 さくらインターネットが、生成AI向けのクラウドサービスを、2024年1月以降に提供すると発表した。データセンターに「NVIDIA H100 Tensor コア GPU」を2000基以上導入するという。 さくらインターネット、「高火力コンピュー

                                                さくらインターネット、GPUクラウド強化を前倒し 生成AI意識
                                              • 約480万円の「NVIDIA H100 Tensor Core GPU」が店頭入荷、すでに売り切れ

                                                  約480万円の「NVIDIA H100 Tensor Core GPU」が店頭入荷、すでに売り切れ
                                                • GitHub - XiongjieDai/GPU-Benchmarks-on-LLM-Inference: Multiple NVIDIA GPUs or Apple Silicon for Large Language Model Inference?

                                                  You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                    GitHub - XiongjieDai/GPU-Benchmarks-on-LLM-Inference: Multiple NVIDIA GPUs or Apple Silicon for Large Language Model Inference?
                                                  • 生成AI向けGPU「Instinct MI300X」はNVIDIAと十分競合できる性能 AMD GPUロードマップ (1/3)

                                                    AMDは米国時間の12月6日に、"Advancing AI"イベントを開催し、ここでいくつかの新製品や新情報を発表した。タイトルのとおりAIに絡んだ話ではあるが、そのAI向けの新CPUなども一緒に情報解禁されたので、このあたりをまとめて解説しよう。 "Hawk Point"ことRyzen 8040シリーズを発表 Meteor Lakeを牽制か? まずはクライアント側であるが、Hawk PointことRyzen 8040シリーズが発表された。 Hawk PointことRyzen 8040シリーズ。Zen 4コアにRDNA 3、それとXDNAで、既存のPhoenixこと7040シリーズと構成は一緒

                                                      生成AI向けGPU「Instinct MI300X」はNVIDIAと十分競合できる性能 AMD GPUロードマップ (1/3)
                                                    • Python: PyTorch で Apple Silicon GPU を使ってみる - CUBE SUGAR CONTAINER

                                                      PyTorch v1.12 以降では、macOS において Apple Silicon あるいは AMD の GPU を使ったアクセラレーションが可能になっているらしい。 バックエンドの名称は Metal Performance Shaders (MPS) という。 意外と簡単に使えるようなので、今回は手元の Mac で試してみた。 使った環境は次のとおり。 GPU が 19 コアの Apple M2 Pro を積んだ Mac mini を使用している。 $ sw_vers ProductName: macOS ProductVersion: 14.4.1 BuildVersion: 23E224 $ sysctl machdep.cpu.brand_string machdep.cpu.brand_string: Apple M2 Pro $ pip list | grep -i tor

                                                        Python: PyTorch で Apple Silicon GPU を使ってみる - CUBE SUGAR CONTAINER
                                                      • Meteor LakeのNPU性能はGPUの7割程度だが消費電力が圧倒的に少ない インテル CPUロードマップ (1/3)

                                                        今回はMeteor LakeのAI周りについて解説しよう。といっても、これまでも何回か紹介している。連載686回で説明したようにMeteor Lakeに搭載されるものは、2022年まではIntel VPUと称しており、Meteor Lakeに先立ちRaptor LakeにはAI M.2モジュールとして提供されてここでアプリケーションの先行開発が行なわれることになっていた。 映像処理時のCPU/GPU負荷を下げる Intel VPU そのNPUというかVPU、元になったのはインテルが2016年に買収したMovidiusのMyriadシリーズVPUである。もともとMyriadシリーズはVision Processor Unit、つまり映像処理用プロセッサーとして発表されており、2011年には最初のMyriad 1が発表される。 2014年には後継となるMyriad 2がやはり映像処理用のプロセ

                                                          Meteor LakeのNPU性能はGPUの7割程度だが消費電力が圧倒的に少ない インテル CPUロードマップ (1/3)
                                                        • 今後のMacはどうなる!? 新型「iMac」に見るGPUを強化したM3チップの実力

                                                          Appleのi新しい「Mac」は、基本設計こそ先代(M1チップ搭載)モデルと同じだが、性能はまさに“デスクトップ機”として十分なものを備えている。とりわけ、GPU性能の向上には目を見張るものがある。M2チップをスキップしてM3チップが搭載されたことで、Intelプロセッサ搭載iMacからの買い替えが進むだろう。 ……と、先に結論めいたことを述べてしまったが、有意に向上したCPU性能、高い電力効率に加え、大幅なGPU性能(正確には機能)の改善は、期待を裏切らないものだった。発売に先駆けて、その一端に触れてみよう。 旧iMac(特にIntel CPUモデル)の愛用者に向けたインプレッション 過去のラインアップを前提に考えると、新たに発表されたiMacに「27インチモデルが用意されるのではないか?」という淡い期待を持っている人もいるかもしれない。 27インチiMacは、一体型ならではの“Appl

                                                            今後のMacはどうなる!? 新型「iMac」に見るGPUを強化したM3チップの実力
                                                          • さくらインターネット、NVIDIA H100 GPUを搭載した生成AI向けクラウドサービス「高火力」の第一弾を2024年1月31日より提供開始 | さくらインターネット

                                                            さくらインターネット、NVIDIA H100 GPUを搭載した生成AI向けクラウドサービス「高火力」の第一弾を2024年1月31日より提供開始 クラウドコンピューティングサービスを提供するさくらインターネット株式会社(本社:大阪府大阪市、代表取締役社長:田中 邦裕)は、「NVIDIA H100 Tensor コア GPU」を搭載した、生成AI向けクラウドサービス「高火力」の第一弾として、ベアメタルシリーズ「高火力 PHY(ファイ)」を2024年1月31日(水)より提供を開始します。 当社は2023年6月16日(金)に、経済安全保障推進法に基づく特定重要物資である「クラウドプログラム」の供給確保計画に関する経済産業省の認定を受けました。AIに関わるコンピューティングリソースを安定供給確保することは、日本のデジタル社会を発展させるために必要不可欠であると考え、生成AI向けクラウドサービス「高火

                                                              さくらインターネット、NVIDIA H100 GPUを搭載した生成AI向けクラウドサービス「高火力」の第一弾を2024年1月31日より提供開始 | さくらインターネット
                                                            • うみゆき@AI研究 @umiyuki_ai OpenAIの理念「敢えてAI研究しまくる事で人類をAIから守る」 ①TransformerはGPU資源があればあるほど強くなるから、AI開発は死ぬほど金がないと最前線に立てない。大学や研究所はあんま金ないから、金持ってる大企業がリードする戦場。 ②だからサム氏はマイクロソフトから資金調達しまくるし、GPTのAPIやChatGPTで金を儲けまくらなきゃ最前線のAI開発は続けられない。優秀な人を雇うにもとにかく金が要る ③潤沢な資金にモノ言わせてトレーニングしたク

                                                              • 自前GPUを使ったKaggle環境をローカルのVSCode(Cursor)に作るのに手こずった話 - Qiita

                                                                みなさん、お久しぶりです。A7です。ここ数か月いろいろと忙しくてなかなか記事を書けてませんでした。 松尾研LLM講座の記事もそのうちだすのでお待ちください そして今もまだ忙しいので、今回の記事もまたぱっとまとめます。笑 自己紹介 データサイエンティストを目指して日々勉強している、慶應義塾大学大学院理工学研究科1年生(2024.05.01時点) 取得資格、コンペ優勝経験など、リアルタイムの情報は👇👇👇をみてね X: @A7_data←普段はXで活動しています。ありがたいことに、フォロワーは6500人を超えました😌 プロフィールページ👇👇👇 X👇👇👇 背景 Kaggleやりたい!ってなってた。 Kaggleはデータサイエンティストなら知らない人はいない、世界一のデータサイエンスコンペティションプラットフォーム。 世界の第一線で働くデータサイエンティストの方も多く参加されてお

                                                                  自前GPUを使ったKaggle環境をローカルのVSCode(Cursor)に作るのに手こずった話 - Qiita
                                                                • GeForce RTX 4070搭載のThunderbolt 3外付けGPUボックス

                                                                    GeForce RTX 4070搭載のThunderbolt 3外付けGPUボックス
                                                                  • NVIDIAのGPUはコモディティー化するか、快進撃の裏でよみがえる「Ciscoの悪夢」

                                                                    時価総額が2.6兆ドル(約410兆円)を超え、2.9兆ドルで世界2位の米Apple(アップル)の背中が見えてきた米NVIDIA(エヌビディア)。エヌビディアの専売特許であるGPU(画像処理半導体)の今後を占う連載の第2回は、2つめの死角「コモディティー化」の可能性を検討する。 GPUにとって2つめの死角は低価格化だ。コモディティー化ともいえる。市場参入時には高付加価値を持っていた製品が、市場の活性化や競合の出現などによって他の製品との機能・サービスの差がなくなり、価格競争を余儀なくされる状態を指す。 例えば2010年代に日系電機メーカーが苦しんだ薄型テレビはその典型だろう。当時、売れ筋だった40インチの薄型テレビの店頭実売価格は2009年には14万円程度だったが、3年後の2012年には6万円台と半額以下になった。「3年で半額」という法則はDVDやブルーレイディスクのレコーダーにも当てはまっ

                                                                      NVIDIAのGPUはコモディティー化するか、快進撃の裏でよみがえる「Ciscoの悪夢」
                                                                    • フォートナイトをフルHD・120fps超えで動かせるGPU内蔵CPU「Ryzen 8000G」シリーズの海外レビューまとめ

                                                                      AMDのGPU内蔵CPU「Ryzen 8000G」シリーズが2024年2月2日に発売されます。Ryzen 8000GシリーズはZen 4アーキテクチャのCPUとRDNA3アーキテクチャのGPUを組み合わせたAPUで、AMDは重量級ゲームを1080pで快適に動作させられるとアピールしています。そんなRyzen 8000Gシリーズを一足先に入手した海外メディアがレビュー記事を公開していたので、各種性能をまとめてみました。 AMD Ryzen 7 8700G and Ryzen 5 8600G Review: Zen 4 APUs with RDNA3 Graphics https://www.anandtech.com/show/21242/amd-ryzen-7-8700g-and-ryzen-5-8600g-review/ AMD Ryzen 5 8600G review: The ult

                                                                        フォートナイトをフルHD・120fps超えで動かせるGPU内蔵CPU「Ryzen 8000G」シリーズの海外レビューまとめ
                                                                      • 最強GPU「GeForce RTX 4090」をノートPCで。GIGABYTEからeGPUボックス発売

                                                                          最強GPU「GeForce RTX 4090」をノートPCで。GIGABYTEからeGPUボックス発売
                                                                        • Apple、iPad Air搭載のM2の仕様を変更 GPUが10コアから9コアにスペックダウン - こぼねみ

                                                                          Appleが先月発売したM2搭載の新型iPad Air。 その製品仕様がこっそりと変更されていることを9to5Macが伝えています。 Appleは当初iPad AirのM2チップは10コアGPUを搭載としていましたが、現在は一部のページで9コアGPUと記載しており、GPUのスペックが下げられています。 更新6月4日:一部リンクが間違っていましたので訂正しました iPad Air M2Appleはこの変更について何も説明せずに、新しいM2 iPad Airの米国の製品仕様を更新し、GPUコアを10コアから9コアにダウングレードしています。9to5Macによると、この変更は直近10日以内に行われています。 iPad Air M2:製品ページ内の仕様一方、米国以外のたとえば日本の製品仕様を確認すると、依然として10コアGPUのままです。また、サポートページ内の技術仕様(米国版)(日本版)や、発表

                                                                            Apple、iPad Air搭載のM2の仕様を変更 GPUが10コアから9コアにスペックダウン - こぼねみ
                                                                          • NVIDIAが2023年にAIやNVIDIA製GPUが活躍した場面11選を発表

                                                                            半導体やAIフレームワークを提供するNVIDIAが、2023年にAIやNVIDIA製の半導体が活躍したケースを公式ブログにまとめています。 11 Ways AI Made the World Better in 2023 | NVIDIA Blog https://blogs.nvidia.com/blog/ai-better-world-omniverse-jetson/ ◆01:カリフォルニア州の山火事監視 アメリカのカリフォルニア州では、近年の気候変動による夏の酷暑の影響もあり、山の乾燥した葉が自然発火して大規模な山火事に発展するケースが増えています。 カリフォルニア州に本社を構えるインターネットサービスプロバイダーのDigitalPathは、カリフォルニア大学サンディエゴ校とカリフォルニア州消防署山火事局と協力し、山火事を早期発見する畳み込みニューラルネットワークを開発しているとの

                                                                              NVIDIAが2023年にAIやNVIDIA製GPUが活躍した場面11選を発表
                                                                            • 経産省が生成AI開発支援 東大やSakana.aiなど採択 GoogleもGPU搭載スパコン提供

                                                                              経済産業省と新エネルギー・産業技術総合開発機構(NEDO)は2月2日、大量のデータを事前学習したAIモデル「基盤モデル」の開発支援事業について、採択先を決定した。元米Googleの著名な研究者、リオン・ジョーンズ氏とデビッド・ハー氏らが東京で立ち上げたAI企業Sakana.ai(東京都港区)や東京大学など7組織を選んだ。 東京大学やSakana.aiの他には、Preferred Networksの子会社Preferred Elements(東京都千代田区)、AIスタートアップのストックマーク(東京都港区)、情報・システム研究機構、自動運転EVスタートアップのTuring(千葉県柏市)、ABEJAを採択。対象組織は、GPU「NVIDIA H100」を搭載したGoogleのスーパーコンピュータ「A3」の利用料補助などを6カ月間受ける。 今回の開発支援事業は2023年11月に発表したもの。経産省

                                                                                経産省が生成AI開発支援 東大やSakana.aiなど採択 GoogleもGPU搭載スパコン提供
                                                                              • スタンフォード大学の研究グループがGPUを高速に動作させるAI用のドメイン固有言語「ThunderKittens」をリリース

                                                                                スタンフォード大学のクリストファー・レ教授率いる研究チームがGPUを最大限に活用して一定時間当たりの演算量を最大化するためのドメイン固有言語(DSL)「ThunderKittens」をリリースしました。 ThunderKittens: A Simple Embedded DSL for AI kernels · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-quick-tk GPUs Go Brrr · Hazy Research https://hazyresearch.stanford.edu/blog/2024-05-12-tk 研究チームはNVIDIA H100を使用し、GPU使用率の最大化に取り組みました。H100はTensorコアを使用する半精度行列乗算計算の性能が989TFLOPSであり、その他

                                                                                  スタンフォード大学の研究グループがGPUを高速に動作させるAI用のドメイン固有言語「ThunderKittens」をリリース
                                                                                • 経産省・NEDOが生成AIの「基盤モデル」開発支援へ GoogleもGPU搭載スパコン提供

                                                                                  経済産業省と新エネルギー・産業技術総合開発機構(NEDO)が、さまざまなタスクに適応可能な大規模AIモデル「基盤モデル」の開発支援事業を始めた。 経済産業省と新エネルギー・産業技術総合開発機構(NEDO)は11月10日、大量のデータでトレーニングし、さまざまなタスクに適応可能な大規模AIモデル「基盤モデル」の開発支援事業を始めた。採択した企業を対象に、GPU「NVIDIA H100」を搭載した米Googleのスーパーコンピュータ「A3」の利用料を補助する。 NEDOによる研究開発支援事業「NEDOポスト5G情報通信システム基盤強化研究開発事業」の一環として、同日から12月11日にかけて公募する。採択された場合、A3をクラウド経由で利用でき、中小企業であれば一定額を、大企業の場合は一律で半額を補助するという。補助が受け取れる期間は研究開発の開始から半年間。スパコンの利用料金だけでなく、AIモ

                                                                                    経産省・NEDOが生成AIの「基盤モデル」開発支援へ GoogleもGPU搭載スパコン提供