並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 1535件

新着順 人気順

GPUの検索結果1 - 40 件 / 1535件

  • CPUとGPUのマルチスレッディングの違いについて - arutema47's blog

    "Locality is efficiency, Efficiency is power, Power is performance, Performance is King", Bill Dally マルチスレッディングとは? CPUとGPUのマルチスレッディングの違いをブログにまとめていたけど例によって誰も興味なさそう— arutema47 (@arutema47) 2021年8月16日 つぶやいたら読みたい方が多そうだったので完成させました。 マルチスレッディングとはメモリ遅延を隠蔽しスループットを上げるハードウェアのテクニックです。 ただCPUとGPUで使われ方がかなり異なるため、その違いについて考えてみる記事です。 (SIMDについて並列プログラミングの観点から触れるべきでしたが、時間無いマルチスレッディングに注目するため初版では省きました。) 本記事について 本記事はCPUとG

      CPUとGPUのマルチスレッディングの違いについて - arutema47's blog
    • 1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も

      1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も 2024.02.28 Updated by Ryo Shimizu on February 28, 2024, 16:46 pm JST 2月は中国では春節というお正月があり、春節にはみんな休む。 それもあってか、12月から1月にかけて怒涛の論文発表が行われて毎日「デイリーAIニュース」を配信している筆者は忙殺されていた。 春節中にはOpenAIがSoraを、GoogleがGemini1.5を発表したのは、その合間を縫ってのことだった。もはやAI最前線の戦いは研究が行われる場所の文化や風土に影響を受けるところまで来ている。 そして春節もあけた今週、さっそくAlibabaがとんでもないトーキングヘッドモデルを引っ提げて登場したかと思えば、Microsoftの中国チームがとてつもないLLMをリリース

        1ビットLLMの衝撃! 70Bで8.9倍高速 全ての推論を加算のみで!GPU不要になる可能性も
      • なぜもっとたくさんのコアを搭載したCPUを作らないのでしょうか?2000コアのGPUなんかそこら辺にありますが、なぜCPUでは同じようにできないのでしょうか?

        回答 (9件中の1件目) 質問に間違いがありますね。 2000個のコアが入ったGPUなんかありません。企業の広報は違った(間違った)方法で計算して数字を大きく見せています。 Radion 6900XTの本当のコア数(DCU)は、5120個ではなく、40個です。こちらでダイの写真を確認でき、4*5のコアが2グループあります。 各コア(DCU)には32レーンのSIMDユニットが4つあり、各コアには並列に動作する32 bitの浮動小数点演算ユニット(FMA)が128個あり、チップ全体としては32 bitのFMAが5120個同時に動きます。 Zen2とZen3のCPUコアはどちらも256...

          なぜもっとたくさんのコアを搭載したCPUを作らないのでしょうか?2000コアのGPUなんかそこら辺にありますが、なぜCPUでは同じようにできないのでしょうか?
        • 【特集】 約30年でGPUはどのぐらい速くなったの?歴史を振り返りつつぜ~んぶ計算してみた

            【特集】 約30年でGPUはどのぐらい速くなったの?歴史を振り返りつつぜ~んぶ計算してみた
          • ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能

            OpenAIの対話型AI「ChatGPT」は史上最も急速な成長で「月間1億ユーザー」をわずか2カ月で達成するなど、大いに注目を集めています。それに伴い、GoogleがChatGPTのライバルとなる会話型AI「Bard」を発表したり、中国企業が続々とChatGPT風AIを開発していると報道されている一方で、OpenAIはChatGPTのコードを公開していないためChatGPTを効果的に複製することは難しくなっています。AIのディープラーニングトレーニングを最適化するオープンソースプラットフォームのColossal-AIが、ChatGPTトレーニングプロセスをわずか1.6ギガバイトのGPUメモリで7.73倍高速なトレーニングに再現したと告知し、オープンソースで公開しています。 Open-source replication of ChatGPT implementation process!

              ChatGPTをオープンソースで再現、わずか1.6GBのGPUメモリですぐに使用でき7.73倍高速なトレーニングが可能
            • やはり予想を超えてこなかったGPT-4と、GPUの未来、ホビイストへの手紙

              やはり予想を超えてこなかったGPT-4と、GPUの未来、ホビイストへの手紙 2023.03.16 Updated by Ryo Shimizu on March 16, 2023, 08:00 am JST 3月14日の早朝、GPT-4が公開され、筆者は早速試した。 その後、開けて3月15日の早朝、APIも部分的に解放され、筆者はそれも試した。 その上で、先週書いた記事の内容についての確信が深まった。 やはり、GPT-4は期待を超えてはこなかった。 GPT-4は、ChatGPT Plusに入会すると誰でもすぐに使うことができる。APIだけは招待制だが、それも筆者と同じくらいのタイミングでアンロックされた方も少なくないのではないか。 100倍規模のパラメータがあっても、アプローチには限界があるのである。 また、ChatGPTが注目を集めたことで、これまで下火になっていた他の大規模言語モデル(

                やはり予想を超えてこなかったGPT-4と、GPUの未来、ホビイストへの手紙
              • 「AI研究の6カ月停止」を要請したイーロン・マスク、自分は1万個のGPUを買い込み独自のAIプロジェクトを進めていることが判明

                by JD Lasica from Pleasanton, CA, US イーロン・マスク氏率いるTwitterが約1万個ものGPUを買い入れて、膨大なツイートで学習した独自のジェネレーティブAIの開発を進めていることが報じられました。マスク氏は、AIが制御不能となり社会と人類に深刻なリスクをもたらすと主張し、最先端のAIプロジェクトの6カ月停止を要求した書簡に署名をしたばかりです。 Elon Musk reportedly bought thousands of GPUs for a Twitter AI project | Engadget https://www.engadget.com/elon-musk-reportedly-bought-thousands-of-gpus-for-a-twitter-ai-project-214535382.html 伝えられるところによると、

                  「AI研究の6カ月停止」を要請したイーロン・マスク、自分は1万個のGPUを買い込み独自のAIプロジェクトを進めていることが判明
                • 【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ

                  AIイラスト(Stable Diffusion)におすすめなグラボを検証検証方法:AIイラストの生成速度をテストする AIイラスト(Stable Diffusion)に適したグラフィックボードをテストする方法はシンプルです。 実際にAIイラストを何枚か描かせて、処理にかかった時間と生成速度を記録します。AIイラストの生成速度が速いグラフィックボードが、AIイラストに適したグラボです。 今回のStable Diffusionベンチマークでは、以下の2つの数値を「性能」として扱います。 ログに表示される生成速度(Iterations per Second)リザルトに表示される描写時間(Time taken) 生成速度は「it/s」と表示され、1秒あたりのステップ回数らしいです。正直ちょっと直感的に分かりづらいので、よく分からない人は描写時間に注目しましょう。 リザルト画面に表示される「Time

                    【Stable Diffusion】AIイラストにおすすめなグラボをガチで検証【GPU別の生成速度】 ちもろぐ
                  • ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦

                    ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦 2023.08.19 Updated by Ryo Shimizu on August 19, 2023, 16:47 pm JST そろそろ業界の最深部でしか知られてなかった事実がニュースになって来始めているのでここで本当の問題を明らかにしておきたい。 AI開発に必須なのは、計算資源である。そしてこれは現在のところ、事実上NVIDIAが一社独占している。 NVIDIA以外の半導体がいくら「AIに特化しています」と能書きを垂れていてもごくわずかな例外を除いてはほとんど全部が誇大広告である。 たとえばApple Silliconは、「ニューラルエンジン」と称するモジュールを内蔵しているが、これを使ってAIの学習をすると、なんとCPUよりも遅い。信じられないかもしれないが、これが残酷な事実なのである

                      ChatGPT開発に必要なGPUは3万基、日本の国策AI基盤は1千基。目前に迫る日本のAI敗戦
                    • 【レビュー】 至って普通のノートPCでもゲームがサクサク動く!ドック機能を備えた超小型GPUボックス「GPD G1」を試す

                        【レビュー】 至って普通のノートPCでもゲームがサクサク動く!ドック機能を備えた超小型GPUボックス「GPD G1」を試す
                      • ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました - 勝間和代が徹底的にマニアックな話をアップするブログ

                        最近よく、今話題のAIお絵かきソフト、Stable Diffusionで遊んでいるのですが、問題は、デスクトップパソコンしか強いGPUを積んでいないので、いちいち、デスクトップまで戻らないとできないことです。 でも仕事はだいたいノートパソコンの方でやっていますので、それだとちょっと仕事の合間に遊ぶということができません。 私のノートパソコンには、GTX 1650とかGTX 1660ぐらいの弱いGPUは載っているのですが、ちょっと絵を作らせると1枚1分ぐらいかかってしまうので、あまり試行錯誤かできないので、実用的ではないです。 デスクトップのRTX2060Superなら、だいたい512×512で1枚の絵を4秒くらいでかけますので、それらいのGPUがノートにもほしいなーーー、と思いました。 しかし、そのクラスのノートパソコンを買おうと思うと、それこそ30万円コースでとてつもなく、高いです。しか

                          ごくごく普通のノートパソコンにGPUボックスとRTX3060をつないで、お絵かきソフト(Stable Diffusion)を動かしてみました - 勝間和代が徹底的にマニアックな話をアップするブログ
                        • GPUでZIPパスワードを解析する - Qiita

                          企業間のファイルのやり取りにZIPファイルの暗号化がされていることが多いのですが、その暗号は意味がなかったり、弱かったり、余計にセキュリティリスクが高くなっています。ZIPの暗号化が使えないことを証明するにはパスワードを解析するのが一番です。 パスワードが解析できるなら、もうあとからパスワードを送る必要はないのです。 用意するもの Windows PC Windows10を使いました。 GPU できる限り早いやつ ノートPCなので、外付けGPUケースにThunderbolt3でGPUを接続しています。 GTX 2080とケースで 10万円ぐらいかかっています。 CUDA Toolkit あらかじめ入れておきましょう。 hashcat hashcatのWindows版で公式サイトからダウンロードしたもので、バージョンが5.1.0の場合は古いので対応していません。 Windows版のJohn

                            GPUでZIPパスワードを解析する - Qiita
                          • クラウド最安のGPUについて | やねうら王 公式サイト

                            渡辺名人が購入した130万円のパソコン、クラウドでそれと同じ性能のもの、1時間50円で使えるよとツイートしたらえらくバズった。 上のツイートは、決して渡辺名人の研究を揶揄するものではなく、書き方次第で最低にも最高にも聞こえるという、そういう物事の二面性みたいなのって面白いよねという意味でツイートしたわけである。 しかし「クラウドの料金そんなに安くねーだろ」「それってGPUだけの値段ですよね?」「値段一桁間違えてない?」「クラウド使ったことない奴の妄想乙」みたいなツッコミをたくさん頂戴している。

                            • 「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる

                              AIの開発に欠かせない機械学習には、GPUやNPU、TPUなどの処理チップが用いられていますが、それぞれの違いは分かりにくいものです。そんなCPUやGPU、NPU、TPUの違いをGoogleやクラウドストレージサービスを展開するBackblazeがまとめています。 AI 101: GPU vs. TPU vs. NPU https://www.backblaze.com/blog/ai-101-gpu-vs-tpu-vs-npu/ Cloud TPU の概要  |  Google Cloud https://cloud.google.com/tpu/docs/intro-to-tpu?hl=ja ◆CPUとは? CPUは「Central Processing Unit」の略称で、PCでの文書作成やロケットの進路計算、銀行の取引処理など多様な用途に用いられています。CPUでも機械学習を行うこ

                                「CPU」「GPU」「NPU」「TPU」の違いを分かりやすく説明するとこうなる
                              • Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応

                                  Windows 10プレビューでついにLinuxのGUIアプリが動作。オーディオやGPUも対応
                                • Apple、GPUを1チップに統合して驚異的な性能を発揮する「M1 Pro」、「M1 Max」

                                    Apple、GPUを1チップに統合して驚異的な性能を発揮する「M1 Pro」、「M1 Max」
                                  • Apple、M1後継を多数準備中か Intelハイエンド上回る32高性能コア、NVIDIAやAMDの数倍性能のGPUも

                                    Appleの半導体担当エンジニアらは、M1チップ搭載Macの後継となる幾つかのプロセッサの開発に取り組んでおり、期待通りならIntel製チップを搭載した最新機種をパフォーマンスで大幅に上回る可能性があると、計画の非公開を理由に複数の関係者が匿名を条件に明らかにしたと、Bloombergが伝えている。 プロセッサの次期シリーズは2021年の春と秋のリリースが計画されており、MacBook Proのアップグレード版やiMacのエントリーレベル用に、16個もの高性能コアと4個の高効率コアを備えた設計に取り組んでいるそうで、製造状況次第で8個か12個の高性能コアのみが有効になるバリエーションも用意する予定だと関係者は話しているそうだ。 2021年後半に計画されているハイエンドデスクトップコンピュータと2022年までに発売が計画されている新しいハーフサイズのMac Pro向けに、32個もの高性能コア

                                      Apple、M1後継を多数準備中か Intelハイエンド上回る32高性能コア、NVIDIAやAMDの数倍性能のGPUも
                                    • 事件はGPUで起きているんじゃない メモリで起きているんだ

                                      「AI処理のボトルネックは演算ではなく、メモリアクセスにある」。そんなタイトルでインテル主催の「Intel Connection 2024」で講演を行なったのは、東京大学 特別教授の黒田忠広氏だ。AIの課題である電力消費とボトルネックを解消すべく、インテルのような北米企業と日本の企業、アカデミアはいま何をすべきか。黒田氏は持論を展開した。 GDP比0.6%の第三期成長期に向かうAI時代の半導体産業 Intel Connection 2024のセッションにおいて、スーパーコンピューター富岳プロジェクトのリーダーである松岡聡センター長からマイクを引き継いだのは、東京大学教授で半導体研究者でもある黒田忠広氏だ。最初に説明したのは、半導体産業の成長について。家電で用いられていた程度だった半導体の市場は1990年代はGDP比0.2%程度だったが、PC市場やインターネットが勃興した1995年頃に0.4

                                        事件はGPUで起きているんじゃない メモリで起きているんだ
                                      • 「CPU最強 vs. GPU最強」──進化する将棋AIのいま プロに勝利した「Ponanza」から「水匠」「dlshogi」まで

                                        「CPU最強 vs. GPU最強」──進化する将棋AIのいま プロに勝利した「Ponanza」から「水匠」「dlshogi」まで:プロ棋士向け最強将棋AIマシンを組む!(1/4 ページ) 将棋のプロ棋士である広瀬章人八段向けに「最強の将棋AIマシン」を組むべく奔走する本連載。前回は、プロ棋士の間でコンピュータを使った研究が本格化していること、必要な演算装置には多コアCPUである米AMDの「Ryzen Threadripper」や並列計算の多いAI処理に向いたGPUがあることを紹介した。 今回注目するのは、「CPU計算による将棋ソフト」と「GPU計算による将棋ソフト」のいまの実力と、それにつながる技術的な変遷についてだ。 コンピュータ将棋がプロに勝った日 その技術は“AIブーム”にあらず コンピュータ将棋の歴史は長く、コンピュータ将棋協会が主催する「世界コンピュータ将棋選手権」の第1回は19

                                          「CPU最強 vs. GPU最強」──進化する将棋AIのいま プロに勝利した「Ponanza」から「水匠」「dlshogi」まで
                                        • 角刈りオジサンから美少女ボイス 「GPU不要で超低遅延」なリアルタイム音声変換ソフトを見てきた

                                          ブースは、韓国の音声AI企業Supertoneが出展したもの。角刈りオジサンの美少女ボイスは、リアルタイム音声変換ソフト「SHIFT」のデモによるものだった。このSHIFT、少女だけでなく少年、成人女性、成人男性、渋いおじいさん、悪魔などさまざまな声がプリセットされており、リアルタイムかつ高精度に声を変換できるのが特徴。 独自の音声合成基盤モデル「NANSY」(Neural Analysis & Synthesis)を採用しており、ユーザーの声の事前学習も、10秒程度のサンプルスクリプトを読み上げるだけで完了。ユーザーとキャラクターの音声の混合比率や感情の表現度合い、音の高低なども細かく調整可能だ。 同様の技術として「RVC」(Realtime Voice Changer)などが有名だが、快適に利用するにはNVIDIAの高性能なGPUを必要とする。一方、SHIFTはCPUのみで47ミリ秒と

                                            角刈りオジサンから美少女ボイス 「GPU不要で超低遅延」なリアルタイム音声変換ソフトを見てきた
                                          • 女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"

                                            M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7

                                              女性 on Twitter: "M2 も性能上がってない(GPU のクロック増加*コア増加ぐらいで CPU は一切手つけてない)し、 Apple の CPU 部門まじでなんかあったっぽいね。 M2 の製品寿命も 1.5 年だとすれば 3 年間一切性能上がらないと… https://t.co/IvcsjVDcn7"
                                            • 【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境

                                              はじめに WSL2(Windows Subsystem for Linux 2)は、Microsoft Windows上でLinuxカーネルを直接実行できるようにする機能です。 この記事ではWSL2環境にDockerを導入しGPUを用いた機械学習環境を構築する手順を紹介します。 構築イメージは以下の図の通りです。NvidiaGPUを搭載したマシンにWSL2環境を構築します。Dockerを用いてコンテナを用意し、CUDAは各コンテナ内のCUDA Toolkitを用いて利用します。 今回開発するPCのスペックは以下の通りです。 Windows 11 Windows version: 22H2 GPU:NVIDIA Geforce RTX 3060 12GB 設定 1. WSL2を有効化 デフォルトではWSL2環境が無効化されている可能性があるので、始めに有効化しておきましょう。 「コントロール

                                                【2024年版】WSL2+Ubuntu24.04+Docker+GPUでつくる機械学習環境
                                              • 最強CPU将棋ソフト『水匠』VS最強GPU将棋ソフト『dlshogi』長時間マッチ観戦記 第一譜『水匠』杉村達也の挑戦

                                                取材・文/白鳥士郎 「……まさか?」 『水匠』開発者・杉村達也は、自身の開発した将棋ソフトの読み筋にその文字を見つけた瞬間、血の気が引いていくのを感じた。 『それ』が存在することを、杉村は事前に知ってはいた。 同時に、極めて再現性が低いということも知っていた。ある棋士はその出現率を「2年で3~4回」と語っていたのだから……。 『それ』について、『やねうら王』の開発者である磯崎元洋(やねうらおのペンネームで知られる)もやはり「再現性がない」という理由で、大して取り合ってくれなかった。 つまり、いつ出るかわからないし、出る確率も極めて低いということである。 しかしそれが今、水匠の読み筋の中にはっきりと出現していた。 「え!? こ、ここで出るのか……」 しかも『それ』が出たのは、水匠だけではなかった。 検討のために別のパソコンを使って走らせていた、別のソフトでも……その『バグ』が出現していたのだ

                                                  最強CPU将棋ソフト『水匠』VS最強GPU将棋ソフト『dlshogi』長時間マッチ観戦記 第一譜『水匠』杉村達也の挑戦
                                                • NEC、「標準的GPU 1基で動く」世界トップクラスの日本語LLM

                                                    NEC、「標準的GPU 1基で動く」世界トップクラスの日本語LLM
                                                  • 【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(2)。緑のたぬきと赤いきつねのバトルで育まれたGPU技術たち

                                                      【西川善司のグラフィックスMANIAC】 ためになる3Dグラフィックスの歴史(2)。緑のたぬきと赤いきつねのバトルで育まれたGPU技術たち
                                                    • GPUに比べて最大15倍高速な市販CPU向けのディープラーニングアルゴリズムが開発される

                                                      近年のAIは、人間が手を加えなくてもコンピューターが自動的に大量のデータからそのデータの特徴を発見する「ディープラーニング(深層学習)」という学習手法で動いています。このディープラーニングは、コンピューターゲームに代表されるリアルタイム画像処理に特化した演算装置・プロセッサであるGPUで処理されるというのが通例ですが、ライス大学のコンピューター科学者がIntelと共同で「GPUに比べて最大15倍も高速にディープラーニングできるCPU向けソフトウェア」を開発しました。 ACCELERATING SLIDE DEEP LEARNING ON MODERN CPUS:VECTORIZATION, QUANTIZATIONS, MEMORY OPTIMIZATIONS, AND MORE (PDFファイル)https://proceedings.mlsys.org/paper/2021/file/

                                                        GPUに比べて最大15倍高速な市販CPU向けのディープラーニングアルゴリズムが開発される
                                                      • ビットコインが暴落してマイニングしてた人達が中古GPUを投げ売り→「お前らのせいでGPUが値上がりしてたんだよ誰が買うか」と怨嗟の声が上がる

                                                        henomohesan🍚へのごはん @henomohesan 暗号通貨の暴落で中古GPUが投げ売りされてるけど、そういうの買っちゃダメと断じるPC記事。 マイニングに対するものすごい敵意が見える😅 g-pc.info/archives/25921/ pic.twitter.com/TrDQlylAmh 2022-06-17 19:49:58

                                                          ビットコインが暴落してマイニングしてた人達が中古GPUを投げ売り→「お前らのせいでGPUが値上がりしてたんだよ誰が買うか」と怨嗟の声が上がる
                                                        • 「NVIDIA最新GPUの20倍速い」史上最速を謳うAIチップ「Sohu」

                                                          米AIスタートアップ「Etched」は6月25日(現地時間)、ChatGPTなど最新のAI技術の基盤となっている「Transformer」アーキテクチャーに特化したチップ「Sohu」を発表した。この発表は、現在NVIDIAが支配的な地位を占めるAIチップ市場に、新たな競争をもたらす可能性がある。 Transformer処理に特化 AIチップ市場は現在NVIDIAが圧倒的なシェアを持つ。同社の汎用GPUは様々なAIモデルを効率的に処理できる柔軟性から市場の約80%を占めている。 多くの大手テクノロジー企業がAI開発のためにNVIDIAのチップに数十億ドルを投資しているのが現状だ。 Etchedの「Sohu」は、ASIC(Application-Specific Integrated Circuit:特定用途向け集積回路)と呼ばれる、特定の用途に最適化された集積回路だ。汎用性は低いものの、特定

                                                            「NVIDIA最新GPUの20倍速い」史上最速を謳うAIチップ「Sohu」
                                                          • Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理

                                                            Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理 GoogleのChrome開発チームは、WebブラウザでGPUプログラミングを可能にするWeb標準「WebGPU」が、4月26日にリリース予定のChrome 113で正式な機能として提供されることを明らかにしました。 WebGPU, one of the biggest additions to the Web platform is finally shipping in Chrome! Many thanks to all Chromium contributors in making this possible.https://t.co/26vmxtQWi1 https://t.co/FKGC3M3FVD — Chrome Developers

                                                              Webブラウザ上でGPUプログラミングを可能にする「WebGPU」、Chrome 113で正式版に。3Dレンダリングや機械学習など高速処理
                                                            • 【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?

                                                                【西川和久の不定期コラム】 ローカルで画像生成AIや大規模言語モデルを動かしたい!Google ColabからRTX 3070 Ti+GPU Boxへ乗り換え!?
                                                              • GPUの性能比較がひと目で行えるヒエラルキー図公開―Nvidia「RTX 4090」全条件でTOPという結果に | Game*Spark - 国内・海外ゲーム情報サイト

                                                                  GPUの性能比較がひと目で行えるヒエラルキー図公開―Nvidia「RTX 4090」全条件でTOPという結果に | Game*Spark - 国内・海外ゲーム情報サイト
                                                                • 中島聡さん、NVIDIAのGPUが用済みになるって本当ですか?AI開発の行列乗算をなくす「MatMul-free LM」で気がかりなこと - まぐまぐニュース!

                                                                  エヌビディアの強みであるGPUの優位性を揺るがすかもしれないAI関連の注目論文とは?人気急上昇中のメルマガ『週刊 Life is beautiful』より読者Q&Aをご紹介。著者の中島さんは「Windows95の父」として知られる日本人エンジニア。メルマガでは毎号、読者からの質問に丁寧に回答しています。 ※本記事のタイトル・見出しはMAG2NEWS編集部によるものです プロフィール:中島聡(なかじま・さとし) ブロガー/起業家/ソフトウェア・エンジニア、工学修士(早稲田大学)/MBA(ワシントン大学)。NTT通信研究所/マイクロソフト日本法人/マイクロソフト本社勤務後、ソフトウェアベンチャーUIEvolution Inc.を米国シアトルで起業。現在は neu.Pen LLCでiPhone/iPadアプリの開発。 1ビットの高速推論AIチップ 米国より先に中国が開発する可能性も 読者からの質

                                                                    中島聡さん、NVIDIAのGPUが用済みになるって本当ですか?AI開発の行列乗算をなくす「MatMul-free LM」で気がかりなこと - まぐまぐニュース!
                                                                  • 「WSL 2」が今後の主流に? LinuxのGUIアプリも動作可能? ~「WSL」のこれからに注目/「WSL」の有効化もコマンド一発で簡単に。GPUコンピューティングやAIも「WSL」で【やじうまの杜】

                                                                      「WSL 2」が今後の主流に? LinuxのGUIアプリも動作可能? ~「WSL」のこれからに注目/「WSL」の有効化もコマンド一発で簡単に。GPUコンピューティングやAIも「WSL」で【やじうまの杜】
                                                                    • テキストから画像を生成できるオープンソースのStable Diffusionアプリ「Diffusers for Mac」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍に。

                                                                        テキストから画像を生成できるオープンソースのStable Diffusionアプリ「Diffusers for Mac」がGPU/Neural Engine選択に対応し、Apple Silicon Macでは生成速度が最大2倍に。
                                                                      • Asahi Linux開発者のVTuberが「AppleのM1 GPUをLinuxで動作させるためのドライバー開発」について語る

                                                                        Apple独自開発のSoCであるM1チップを搭載したMacでの動作を目指すLinuxディストリビューション・Asahi Linuxの開発に携わる開発者兼VTuberの朝日リナ氏が、M1 GPUのドライバー開発についてAsahi Linux公式ブログで解説しています。 Tales of the M1 GPU - Asahi Linux https://asahilinux.org/2022/11/tales-of-the-m1-gpu/ リナ氏によれば、近年のGPUはほぼすべて、以下のようなメインコンポーネントで構成されているとのこと。 ・ユーザー定義のプログラムを実行して三角形(頂点データ)とピクセル(フラグメントデータ)を処理する「シェーダーコア」 ・三角形を画面上のピクセルに変換する「ラスタライズユニット」「テクスチャサンプラー」「レンダー出力ユニット」、およびシェーダーと一緒に動作す

                                                                          Asahi Linux開発者のVTuberが「AppleのM1 GPUをLinuxで動作させるためのドライバー開発」について語る
                                                                        • Unity、ゲームの最適化に関する電子書籍を無料公開。「モバイル」「コンソール/PC」向け2冊で、ボトルネックの特定方法やメモリ・GPU最適化などを解説|ゲームメーカーズ

                                                                          Unity Technologiesがゲームの最適化について解説する電子書籍を無料で公開 メモリやGPU管理、ボトルネック特定の方法などを解説したPDF資料 モバイル向けとコンソール/PC向けの2冊があり、各デバイス向け解説も Unity Technologiesは2023年12月6日、Unityにおけるゲームの最適化を解説する2冊の電子書籍を公開しました。 公開されたのは、モバイル向け開発ガイド『OPTIMIZE YOUR MOBILE GAME PERFORMANCE』と、コンソール/PC向け開発ガイド『OPTIMIZE YOUR GAME PERFORMANCE FOR CONSOLES AND PC』です。 各ガイドには、ボトルネックの特定方法やメモリ管理、プログラミングやアセット管理など、さまざまなカテゴリーにおける最適化が解説されています。また、各ガイドそれぞれに、対象デバイス

                                                                            Unity、ゲームの最適化に関する電子書籍を無料公開。「モバイル」「コンソール/PC」向け2冊で、ボトルネックの特定方法やメモリ・GPU最適化などを解説|ゲームメーカーズ
                                                                          • 【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」

                                                                              【特集】 自作GeForce NOW?ゲーミングPCを複数人で共有、ゲームサーバーにする「EASY-GPU-PV」と「Parsec」
                                                                            • これが日本のAIデータセンターだ、GPUサーバーを稼働できる18社・32施設

                                                                              生成AI(人工知能)に欠かせない高性能のGPU(画像処理半導体)を搭載したサーバーを大量に運用できる「AIデータセンター」は、日本にどれだけ存在するのか。日経クロステックが国内にある49社のデータセンター事業者を対象に調査したところ、18社による計画中を含む32施設があることが分かった。 今回、日経クロステックがデータセンター事業者に質問したのは、大規模言語モデル(LLM)のトレーニング(訓練)や推論に使う高性能GPUサーバーが稼働できるような施設と、その詳細だ。現時点では国内に18社が運営する26施設があり、今後さらに6施設が増える計画だ。 消費電力10kW超えのGPUサーバーを1ラックで複数台稼働 LLMのトレーニングには、米NVIDIA(エヌビディア)のAI用GPUである「H100」や「H200」を8個搭載する高性能GPUサーバーが向いているとされる。NVIDIA自身がH100を8個

                                                                                これが日本のAIデータセンターだ、GPUサーバーを稼働できる18社・32施設
                                                                              • Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ

                                                                                この記事を書いたところ、たくさんの方から「リモートデスクトップを使えばいいしゃん」とツッコミを受けたので、比較してみました katsumakazuyo.hatenablog.com 結論から言いますと私の14インチのノートパソコンだと画面が、NMKDのGUIの画面が小さすぎてちょっといろいろ工夫が必要でした。デフォルトだと、こんな感じ。 リモートデスクトップの画面が当たり前ですが、通常のノートより一回り小さくて、さらにその内周にNMKDがはいるので、フォントの文字が極小サイズになってしまいます。 デスクトップ側の画面を175%とかにしたら、ギリいける感じでしたので、たぶん、そういった工夫が必要みたいです。 あと、Promptに文字を入れるのも、日本語モードになっていると、キーボード入力受け付けないみたいです。これ、気をつけないと。 あと、超当たり前ですが、できあがったファイルもリモート側に

                                                                                  Stable DiffusionのリモートデスクトップとGPUボックスの使い勝手の違い - 勝間和代が徹底的にマニアックな話をアップするブログ
                                                                                • GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?

                                                                                  GPT-1は1億1700万個のパラメーターを持つ言語モデルで、GPT-2では15億、GPT-3では1750億とパラメーター数が増加するにつれて言語モデルの性能が上がってきています。しかしパラメーター数が増加するにつれてトレーニングに必要なデータの数やトレーニング中に使用するメモリの量も増加し、トレーニングのコストが大きく増加してしまいます。そんな中、メモリの消費量を激減させつつ少ないデータでトレーニングできる手法「QLoRA」が登場しました。 [2305.14314] QLoRA: Efficient Finetuning of Quantized LLMs https://arxiv.org/abs/2305.14314 artidoro/qlora: QLoRA: Efficient Finetuning of Quantized LLMs https://github.com/art

                                                                                    GPUメモリが小さくてもパラメーター数が大きい言語モデルをトレーニング可能になる手法「QLoRA」が登場、一体どんな手法なのか?