並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 117件

新着順 人気順

CUDAの検索結果41 - 80 件 / 117件

  • CUDAなんてない!Ryzen + RADEONのAMD環境でもStable

    いま一部で話題のStable Diffusion。 ちょっと前から出ているMidjourneyと同じく、「画像生成AIが言葉から連想して絵を書いてくれる」というツール。 今はツールだけど、そのうち色々なアプリ、サービスのいち機能に自然な形で組み込まれると思います。 それが自分のPCでも動くらしい! それなら無駄にありあまるGPUパワー(というほどでもないけど)を使ってみたい!! と思い立ち触ってみたけれど、基本NVIDIA=CUDA推奨。 誰かRADEON=AMDでやってる奴いるでしょ! と思ったら意外と日本の記事が出てこなくて苦労しましたとさ。 バイブル基本この動画の通りにやっただけです。 が、これ系の知識が全く無かったので何回もやり直しました。 初めて動いた時は声がでたレベル。 当環境&必要なものCPU:AMD Ryzen 9 5900XGPU:AMD RADEON 6800XTMEM

      CUDAなんてない!Ryzen + RADEONのAMD環境でもStable
    • 深層学習、機械学習の環境を自動インストール OpenCvとCudaの自動化 - Qiita

      Help us understand the problem. What is going on with this article?

        深層学習、機械学習の環境を自動インストール OpenCvとCudaの自動化 - Qiita
      • GitHub - karpathy/llm.c: LLM training in simple, raw C/CUDA

        LLMs in simple, pure C/CUDA with no need for 245MB of PyTorch or 107MB of cPython. Current focus is on pretraining, in particular reproducing the GPT-2 and GPT-3 miniseries, along with a parallel PyTorch reference implementation in train_gpt2.py. You'll recognize this file as a slightly tweaked nanoGPT, an earlier project of mine. Currently, llm.c is a bit faster than PyTorch Nightly (by about 7%)

          GitHub - karpathy/llm.c: LLM training in simple, raw C/CUDA
        • 【Stable Diffusion Web UI】RuntimeError: CUDA out of memory.が起こった場合の対処法

          【Stable Diffusion Web UI】RuntimeError: CUDA out of memory.が起こった場合の対処法

            【Stable Diffusion Web UI】RuntimeError: CUDA out of memory.が起こった場合の対処法
          • GitHub - vosen/ZLUDA: CUDA on non-NVIDIA GPUs

            You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

              GitHub - vosen/ZLUDA: CUDA on non-NVIDIA GPUs
            • AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上)|まゆひら

              AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上) ※本記事のLoRAは、あまり性能が良いとは言えませんのでご了承ください(お試しで学習方法を学びたい、程度であれば現在でも有効ですが、古い記事なので操作方法が変わっている可能性があります)。別のLoRAについて記事を公開した際は、こちらでお知らせします。 ※DreamBoothのextensionが古いままの状態で本体をアップデートすると、本体が起動できなくなる場合があります。ご注意ください。 ※東北ずん子さんの公式画像を学習した例が、「5. 学習例」にあります。先にそちらをご覧いただいても結構です。 ※LoRAは多少の動作確認しかできておらず、適切な設定や詳細については分かりませんし、内容も誤り等があるかもしれません。ご了承く

                AUTOMATIC1111版Stable Diffusion web UI上でLoRAを利用する手順(Windows、VRAM 8GB以上、CUDA 11.6以上)|まゆひら
              • Apple M1のMacを使ってJetson用のaarch64 CUDA込みのバイナリをビルドする - Qiita

                #Apple M1チップをロボット開発で活用する! MacBook Airを購入した理由はまさにこれです。 そして、前記事(こちら)でParallels環境でいかに快適にUbuntuを使用するようにできるか、頑張ったのはまさにこれが理由です。 ###aarch64っていうことはJetsonとかRaspberry Pi 4と一緒では? これが全ての発端です。ロボットの開発などで、ROSのパッケージなどをビルドするとき、実機に搭載するJetsonやRaspberry Pi上でビルドしないといけなくて皆さんお困りではないでしょうか? やはりクロスコンパイルして、それをデプロイしたいところです。 しかし、一般的に使われているツールで実機にデプロイできる環境としては、私は知る限り以下の2つくらいしかしりません。 Isaac SDK MATLAB/Simulink まずはIsaac SDKですが、最近

                  Apple M1のMacを使ってJetson用のaarch64 CUDA込みのバイナリをビルドする - Qiita
                • How Nvidia’s CUDA Monopoly In Machine Learning Is Breaking – OpenAI Triton And PyTorch 2.0

                  How Nvidia’s CUDA Monopoly In Machine Learning Is Breaking – OpenAI Triton And PyTorch 2.0 Over the last decade, the landscape of machine learning software development has undergone significant changes. Many frameworks have come and gone, but most have relied heavily on leveraging Nvidia’s CUDA and performed best on Nvidia GPUs. However, with the arrival of PyTorch 2.0 and OpenAI’s Triton, Nvidia’

                    How Nvidia’s CUDA Monopoly In Machine Learning Is Breaking – OpenAI Triton And PyTorch 2.0
                  • Ubuntu 16.04.6 LTS (GNU/Linux, x86_64) のGPUマシンの設定・TF1.13.1 / CUDA10.0 / cuDNN7.4.2 - 閃き- blog

                    - 最終更新:2019/11/07 クリーンブートしたUbuntu16.04LTS マシンに,NVIDIA GPUを導入し,CuDA・cuDNNをセットアップしました. おもにtensorflow-gpuを使うためです.導入過程で色々とつまづいたので,得た知識をこのポストにまとめておきます. 実行環境 1. OS 2. HDD 2.1. HDDデバイスの確認 3. メモリ 3.1. メモリデバイスの確認 3.2. 仮想メモリの状態確認 4. CPU 4.1. CPUデバイスの確認 5. GPU 5.1. GPUデバイスの確認 5.2. NVIDIA ドライバ 5.3. CUDA 10.0をマシンにインストール 5.4. cuDNN 7.4.2をマシンにインストール 5.5. cuDNNの動作確認 5.6. cuDNNの確認 5.7. cuDNNの保存場所 5.9. CUDA(/usr/lo

                      Ubuntu 16.04.6 LTS (GNU/Linux, x86_64) のGPUマシンの設定・TF1.13.1 / CUDA10.0 / cuDNN7.4.2 - 閃き- blog
                    • GitHub - Rust-GPU/Rust-CUDA: Ecosystem of libraries and tools for writing and executing fast GPU code fully in Rust.

                      You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                        GitHub - Rust-GPU/Rust-CUDA: Ecosystem of libraries and tools for writing and executing fast GPU code fully in Rust.
                      • GPUの型番にあったCUDAバージョンの選び方

                        はじめに GPUを利用したディープラーニング環境を構築する際、これまではNvidia DriverやCUDAのバージョンを何となくで選んでいました… そこで、どのようにこれらのバージョンを選定すべきか整理しましたので紹介します。また後半にはこれら環境が整ったDockerイメージを紹介します。 手順 1. Compute Capability まずは使用するGPUのCompute Capabilityを調べる必要があります。 Compute Capabilityとは、NVIDIAのCUDAプラットフォームにおいて、GPUの機能やアーキテクチャのバージョンを示す指標です。この値によって、特定のGPUがどのCUDAにサポートしているかが決まります。Compute Capabilityは、7.x, 8.xといったようにバージョン管理されています。 GPU毎のCompute Capabilityは、

                          GPUの型番にあったCUDAバージョンの選び方
                        • WSL2のUbuntuにCUDAをインストールしてPyTorchを動かす

                          タイトル通りですが、WSL2のUbuntuにCUDAをインストールして、PyTorchでCUDAを利用する方法を紹介します。 そこまで難しい設定はありませんが、2021年4月17日時点ではWindows Insider Programに参加して、Windows10のビルドバージョンを20145以上にする必要があります。 多少面倒なのとdev版のビルドバージョンを利用する必要がありますが、WSLでGPUを使えるようになるのは便利すぎます。 実行環境 Windows10 Pro (OSビルド 21359)Ubuntu 20.04 on WSL2GeForce MX350CUDA Toolkit 11.3Python 3.8PyTorch 1.8.1 さらっと書きましたが、GeForce MX350でCUDA&PyTorchを使おうとする人ってどのくらいいるのでしょうか、、、 Windows10

                            WSL2のUbuntuにCUDAをインストールしてPyTorchを動かす
                          • MI300X vs H100 vs H200 Benchmark Part 1: Training – CUDA Moat Still Alive

                            Intro SemiAnalysis has been on a five-month long quest to settle the reality of MI300X. In theory, the MI300X should be at a huge advantage over Nvidia’s H100 and H200 in terms of specifications and Total Cost of Ownership (TCO). However, the reality is that the on paper specs as given below are not representative of performance that can be expected in a real-world environment. If AMD could delive

                              MI300X vs H100 vs H200 Benchmark Part 1: Training – CUDA Moat Still Alive
                            • google colabのpythonとcudaのバージョンを変更する - Qiita

                              Deleted articles cannot be recovered. Draft of this article would be also deleted. Are you sure you want to delete this article?

                                google colabのpythonとcudaのバージョンを変更する - Qiita
                              • TensorFlow2.1でCuda10.1なのにGPUが認識されない問題の解決法

                                先日TensorFlow2.1がリリースされました。大きな変更点の1つとして「CPU版とGPU版の統合」があります。今までは環境に応じてinstall tensorflowとinstall tensorflow-gpuを使い分けていたのですが、全てtensorflowで一括管理されるようになりました。これは嬉しい! というわけなので、早速私の環境にもTensorFlow2.1を入れてみました。conda install tensorflow=2.1を実行し、GPUを確認してみましょう^^ >from tensorflow.python.client import device_lib >device_lib.list_local_devices()[name: “/device:CPU:0” device_type: “CPU” memory_limit: 268435456 locali

                                  TensorFlow2.1でCuda10.1なのにGPUが認識されない問題の解決法
                                • 停止していた GPU インスタンス(Deep Learning AMI GPU CUDA)の料金が高かったので調べてみた | DevelopersIO

                                  GPU インスタンス(g5.xlarge)を使った検証のためバージニア北部で動かしていました。GPU インスタンスは高価なのでちゃんと「停止」してから一週間後検証を再開しました。GPU インスタンスの起動代は気にしていたので料金を確認してみると思いのほか EBS 代が高かったです。停止していても想定より高い金額だった原因と、事前に確認すべきだったポイントを紹介します。 確認結果 Deep Learning AMI GPU CUDA を選択すると EBS(gp3)のデフォルト設定値が最高パフォーマンス設定 EC2 作成ウィザードからポチポチ押して作成すると見落としやすい GPU インスタンスを停止しても高パフォーマンスな EBS の課金は止まらない 作成したインスタンスを振り返ってみる OS は Amzon Linux2 を選択し AMI は Deep Learning AMI シリーズから

                                    停止していた GPU インスタンス(Deep Learning AMI GPU CUDA)の料金が高かったので調べてみた | DevelopersIO
                                  • Windows10にPyTorch1.10とCUDA11.3の環境を作る

                                    前書き 皆さんお久しぶりです。アドベントカレンダー以来ですね。 今まではDocker Desktopで開発をしてたんですが、いちいちDockerを立ち上げたり終了したり、ローカルで実行できなかったりと面倒くさいことがたくさんありました。 そこで今回は、Window10に直にPyTorch1.10とCUDA11.3をインストールしてみたいと思います! 環境 今回の実装環境は次の通りです。 OS:windows10 GPU:RTX2060super CPU:intel core i5 8500 インストール開始 とりあえずPyTorchのサイトに行ってみる 何はともあれPyTorchをインストールするのですから、PyTorchのサイトに訪れるのが普通でしょう。 ということで、 からいろいろ情報を得ます。 なるほど・・・。condaとCUDA11.3がいるんですね。準備しましょう。 CUDA11

                                      Windows10にPyTorch1.10とCUDA11.3の環境を作る
                                    • 「NVIDIA CUDA Toolkit」に脆弱性 ~任意のコード実行やDoS、情報漏洩につながる恐れ/修正版のv11.1.1をリリース

                                        「NVIDIA CUDA Toolkit」に脆弱性 ~任意のコード実行やDoS、情報漏洩につながる恐れ/修正版のv11.1.1をリリース
                                      • CUDAコア数2万超えのモンスターGPU、NVIDIA「GeForce RTX 5090」の実力を探る - エルミタージュ秋葉原

                                        エルミタ的速攻撮って出しレビュー Vol.1498 CUDAコア数2万超えのモンスターGPU、NVIDIA「GeForce RTX 5090」の実力を探る 2025.01.23 更新 文:編集部 池西 樹/撮影:松枝 清顕 2022年10月に登場した「Ada Lovelace」以来となる、NVIDIA Corporation(本社:アメリカ・カリフォルニア州)の最新アーキテクチャ「Blackwell」を採用するフラッグシップGPU「GeForce RTX 5090」の発売がまもなく開始される。そこで今回は、先日のファーストインプレッションに続き「GeForce RTX 5090 Founders Edition」を使用し、注目の実力を検証していこう。CUDAコア数20,000オーバーのモンスターGPUはどんなパフォーマンスを見せてくれるのだろうか。 コア数の増加やGDDR7の採用により性能

                                          CUDAコア数2万超えのモンスターGPU、NVIDIA「GeForce RTX 5090」の実力を探る - エルミタージュ秋葉原
                                        • WSL2にUbuntu22.04とCUDAをインストールしてJupyterLab上でStable Diffusionを動かしたメモ

                                          はじめに 話題のStable Diffusionをローカル環境で動かすまでに行った作業のメモです。ついでにJupyterLabでも使えるようにしました。 作業環境 OS:Windows 11(21H2 Build 22000.856) GPU:RTX3070 手順 基本的にはこちらに書いてある内容と一緒です。 WSL2を有効にする Ubuntuを入れる Microsoft StoreからWSL用のUbuntuをインストール。Ubuntu 22.04.4 LTSを入れた。 インストールしたあとはとりあえず一度起動しておく。 初期状態でバックアップとっておく やってもやらなくてもよいが、まっさらなOSを保存しておくとあとでなにかと便利。

                                            WSL2にUbuntu22.04とCUDAをインストールしてJupyterLab上でStable Diffusionを動かしたメモ
                                          • NVIDIA Jetson nanoで 4Kカメラは扱えるか? GPU(CUDA)を使った魚眼レンズ補正処理の性能を徹底検証

                                            はじめに 広い範囲を撮影したい場合に利用する魚眼レンズですが、魚眼レンズで撮影した動画は四隅が歪んでしまいます。物体検出や動体検知の精度を上げるためには、この歪みを補正する必要があり、歪み補正の処理のことをキャリブレーション(calibration)と呼びます。 このキャリブレーション処理、動画の各フレームごとに複雑な行列計算をする必要があるので、結構な処理量となります。これを4K動画に行うとなると大変です。「Gstreamerのcameracalibrateを使って、簡単に魚眼レンズの歪み補正を行う方法」や「OpenCV&Pythonで、簡単に魚眼レンズの歪み補正(Calibration)を行う方法」で紹介した、CPUを使った処理では、4K動画に対する30FPSでの処理は困難でした。 そこで、今回はJetson nanoに搭載のGPUを使って、このキャリブレーション処理を行い、Jetso

                                            • 【PyTorch】「CUDA error: device-side assert triggered」 解決の手引き

                                              はじめに PyTorchにて, “RuntimeError: CUDA error: device-side assert triggered"というエラーに出くわすことがある ネットに転がってるモデルで発生すると特に厄介である (自分が作った沼ではないので…) またMAEでのマスク処理のような, テクニカルな処理を行う場合などにも頻発 再現性が取れず, 出力されるエラー内容も二転三転. 一定確率で上記のエラーが発生する. 今まではうまく行ってたのに急にエラーが頻発することなども多々あり ということで, 金輪際このエラーに立ち往生しないよう, “CUDA error: device-side assert triggered"に終止符を打とう! ネットに転がってる議論は入力のshapeが云々・loss関数が云々と具体的で狙い撃ち的すぎる なので, より実践的な解決の手引きをメモ程度にまとめ

                                                【PyTorch】「CUDA error: device-side assert triggered」 解決の手引き
                                              • 「NVIDIA GeForce RTX 3050 6GB」がこっそり登場。CUDAコア数もメモリバス幅も減少、補助電源が不要に

                                                「NVIDIA GeForce RTX 3050 6GB」がこっそり登場。CUDAコア数もメモリバス幅も減少、補助電源が不要に NVIDIAは2月2日(現地時間)、これまで展開してきた「GeForce RTX 3050 8GB」の新しいバリアントとして「GeForce RTX 3050 6GB」を投入した。NVIDIAのメーカー想定売価は169ドル(海外ソース)とされており、より廉価に設定されている。 「NVIDIA GeForce RTX 3050 6GB」がこっそり登場 - CUDAコア数もメモリバス幅も減少、補助電源が不要に RTX 3050にはすでに8GBモデルが展開されてきており、今回投入されたのはいわゆる廉価版バリアント。NVIDIA Ampereアーキテクチャを採用するGA107-325コアを搭載しており、GPUメモリにGDDR6 6GBを搭載。ベースクロックは1,042MH

                                                  「NVIDIA GeForce RTX 3050 6GB」がこっそり登場。CUDAコア数もメモリバス幅も減少、補助電源が不要に
                                                • 歴史をたどってディープラーニングを学ぶ 第十九回 GPGPU入門 CUDAによる画像フィルタ編 - Sansan Tech Blog

                                                  こんにちはニューラルネット老人こと糟谷勇児です。 このようなブログをやっていてなんですが、私自身はほとんどディープラーニングを実務で使っていません。 ディープラーニングがはまるということは、学習データが豊富で、説明力はある程度弱くてもよく、GPUマシンを使っても元が取れるぐらいの価値がある案件です。このような場合、ディープラーニングを使おうが使うまいがある程度成功する案件ということになります。こういう案件なら若手に任せて、老人はみんながさじを投げた案件を頑張るのも役割分担かもしれませんね。 とはいえ基礎知識は重要ということで今回もGPGPUをしていきましょう。 今回はコンボリューショナルネットに必要不可欠な画像のフィルタをCUDAで行う方法について学んでいきます。 行列計算と同じ手は使えない。テクスチャメモリの使用 さて、前回はCUDAで行列の掛け算をやりました。 buildersbox.

                                                    歴史をたどってディープラーニングを学ぶ 第十九回 GPGPU入門 CUDAによる画像フィルタ編 - Sansan Tech Blog
                                                  • 「CUDA」 ~マンガでプログラミング用語解説

                                                    CodeZine編集部では、現場で活躍するデベロッパーをスターにするためのカンファレンス「Developers Summit」や、エンジニアの生きざまをブーストするためのイベント「Developers Boost」など、さまざまなカンファレンスを企画・運営しています。

                                                      「CUDA」 ~マンガでプログラミング用語解説
                                                    • CUDA+cuDNNをインストールしPyTorchでGPUを認識させるまでの手順(Window11)

                                                      概要 WIndows11にCUDA+cuDNNをインストールし、 PyTorchでGPUを認識をするまでの手順まとめ。 環境 OS : Windows11 GPU : NVIDIA GeForce RTX 3080 Ti インストール 最新のGPUドライバーをインストール 下記リンクから、使用しているGPUのドライバをダウンロード&インストール。 最新の NVIDIA 公式ドライバーをダウンロード CUDA Toolkitのインストール 下記リンクから、最新(11.7)の CUDA Toolkit をダウンロード。 CUDA Toolkit 11.7 Downloads ダウンロードが完了したらインストール開始。 インストール時の設定はすべてデフォルト。 インストール完了後、環境変数でパスが通っているかを確認。 下記コマンドを実行し正常にインストールされていることを確認。 nvcc -V

                                                        CUDA+cuDNNをインストールしPyTorchでGPUを認識させるまでの手順(Window11)
                                                      • DeepSeek's AI breakthrough bypasses industry-standard CUDA for some functions, uses Nvidia's assembly-like PTX programming instead

                                                        Nvidia's PTX (Parallel Thread Execution) is an intermediate instruction set architecture designed by Nvidia for its GPUs. PTX sits between higher-level GPU programming languages (like CUDA C/C++ or other language frontends) and the low-level machine code (streaming assembly, or SASS). PTX is a close-to-metal ISA that exposes the GPU as a data-parallel computing device and, therefore, allows fine-g

                                                          DeepSeek's AI breakthrough bypasses industry-standard CUDA for some functions, uses Nvidia's assembly-like PTX programming instead
                                                        • Windows 10 Build 20150、WSL上でCUDAが利用可能に | スラド Linux

                                                          Microsoftは17日、Windows 10 Insider Preview「Build 20150」を公開した。このBuild 20150では「Windows Subsystem for Linux」(WSL)の機能強化が行われている。要望の多かったCUDAやDirectMLといったGPUコンピューティングをサポートすることで、機械学習・AI開発やデータサイエンスなどが実行可能となった(ZDnet、窓の杜、PC Watch、@IT、Slashdot)。 GPUコンピューティングのサポートでは、要望の多かったNVIDIAの「CUDA」のサポートと、Microsoftの低レベルAPI「DirectML」のサポートが含まれている。NVIDIA以外にもAMDおよびIntel製GPIについてもサポートされている。 これに合わせてAMD、Intel、Nvidiaは、WSL上のDirectML T

                                                          • NVIDIA ドライバ,NVIDIA CUDA ツールキット 11.8(CUDA のインストールで winget を使用),NVIDIA cuDNN v8.9.7 のインストール手順(Windows 上)

                                                            NVIDIA ドライバ,NVIDIA CUDA ツールキット 11.8(CUDA のインストールで winget を使用),NVIDIA cuDNN v8.9.7 のインストール手順(Windows 上) 【要約】 Windows環境におけるNVIDIAドライバ,CUDAツールキット11.8,cuDNN v8.9.7のインストールは,以下の手順に基づく.始めに,NVIDIAの公式サイトより最新のドライバをダウンロードし,これをインストールする.続いて,CUDAツールキットのインストールを行う.この過程では,他のウィンドウを全て閉じることが推奨される.ツールキットのインストールのために,ユーザ環境変数 TEMP を「C:\TEMP」のように設定する.この設定は,Windows のユーザ名が日本語である場合に,nvccが適切に動作せぬエラーを防ぐためである.最後に,NVIDIA cuDNNのイ

                                                            • AWS Batch で CUDA コンテナの実行環境を作って Hello World を実行してみた | DevelopersIO

                                                              AWS Batch 実行環境の準備 AWS Batch 設定の要所をキャプチャを交えて紹介します。 コンピューティング ecsInstanceRoleの IAM ポリシーは AWS 管理の AmazonEC2ContainerServiceforEC2Role ポリシーが付与されています。 ポリシー内容は折りたたみ { "Version": "2012-10-17", "Statement": [ { "Effect": "Allow", "Action": [ "ec2:DescribeTags", "ecs:CreateCluster", "ecs:DeregisterContainerInstance", "ecs:DiscoverPollEndpoint", "ecs:Poll", "ecs:RegisterContainerInstance", "ecs:StartTelemet

                                                                AWS Batch で CUDA コンテナの実行環境を作って Hello World を実行してみた | DevelopersIO
                                                              • Ubuntu 20.04へのCUDAインストール方法 - Qiita

                                                                Ubuntu 20.04 に NVIDIA の CUDA のインストール方法です。私は主に Google Cloud や Amazon EC2 の GPU インスタンスを使っているので、それ前提で書きます。ストレージは20GB程度必要です。Python からしか使わない場合は Anconda 内蔵の CUDA を使用するのがお勧めです。 Ubuntu の他のバージョンはこちらをご覧ください。 Ubuntu 16.04 https://qiita.com/yukoba/items/3692f1cb677b2383c983 Ubuntu 18.04 https://qiita.com/yukoba/items/4733e8602fa4acabcc35 前準備 CUDA 10や11をNVIDIAのリポジトリからインストール Ubuntu 18.04 向けが https://developer.n

                                                                  Ubuntu 20.04へのCUDAインストール方法 - Qiita
                                                                • Unity上のGPUリソースを直接CUDAから扱う - Qiita

                                                                  Unityで開発中に、Unity上で管理しているGPUリソース(Texture2D, GraphicsBuffer等)をCUDAで実装されたライブラリで高速に処理して、それをさらにUnityに戻して利用したい、みたいな場面が極々々々稀に存在します。 かなりニッチな需要だと感じたので、備忘録的な意味でも実際に存在した場面でどうやったのかを紹介できればと思います。 前提知識 C++を使用したNative Plugin周り 多少のCUDAの知識 環境 筆者側で動作確認できた環境なので、その他の環境でも動く可能性はあります(さすがにGPUはNVIDIA必須ですが) Windows 10以上 Unity2020.1以上 D3D11 Pascal世代以降のNVIDIA GPU CUDA 11.3 そもそもなぜCUDA? そもそもな話Unityは、Textureや、頂点データ等を含むGraphicsBu

                                                                    Unity上のGPUリソースを直接CUDAから扱う - Qiita
                                                                  • PyTorch 1.10の新機能「CUDA Graphs」のパフォーマンスを測定してみる - まったり勉強ノート

                                                                    はじめに 10/21にPyTorch 1.10がリリースされ、今回も面白そうな機能が追加されました。個人的には楽しみにしていた「CUDA Graphs」のAPIのベータ版が追加されたということで早速試してみました。今回はこの試した結果の記事になります。 CUDA Graphsとは? CUDA GraphsはCUDA 10で追加されたCUDAの機能の一つで、複数のCUDA Kernelの実行にかかるオーバーヘッドを減らすための機能です。 基本的には依存関係表すことができるグラフにCUDA Kernelを登録して、依存関係を考慮して順番にCUDA Kernelを実行するという仕組みです。このCUDA Graphsを通して実行すると普通にCUDA Knernelを実行するのに比べてCUDA Kernelの実行オーバーヘッドを減らすことができます。 詳しくはNVIDIA Developer Blo

                                                                    • AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - ページ 3 / 3 - まぐまぐニュース!

                                                                      人工知能の研究者たちに瞬く間に広まった4つの情報 なぜ彼が、OpenCLではなくCUDAを採用したかについては、本人と会う機会があったら是非とも聞いてみたいところですが、この事件は、人工知能の研究者たちに大きなインパクトを与えました。具体的に言えば、 長く続いていた「人工知能の冬」がようやく終わった ニューラルネットは、そのサイズがものを言う ニューラルネットの計算は、GPUを使うと桁違いの高速化が出来る GPUを使いこなすには、CUDAを使えば良い という情報が、瞬く間に広まったのです。4番目は、OpenCLでも良かったはずなのですが、たまたまAlexNetがCUDAを採用していたため、「ニューラルネットの高速化にはCUDAを使うべし」という情報が研究者の間に瞬く間に広まってしまったのです。 この事件をきっかけに、CUDAが人工知能の研究者たちの間に瞬く間に広まったとは言え、CUDAはN

                                                                        AI時代に一人勝ち。NVIDIAの「CUDA」がIntelやAppleを蹴散らし業界の“実質的なスタンダード”になった背景を中島聡が徹底解説 - ページ 3 / 3 - まぐまぐニュース!
                                                                      • Nvidiaから出ているJetPack(NVIDIA SDK Manager)を使ってOpenCvやCudaの簡単なインストールを目指す - Qiita

                                                                        apt-cacheでそのPCにインストールできるNvidiaドライバがわかる。 NVIDIA SDK ManagerはCuda10.0がインストールされる。NVIDIAドライバは410以上がインストールされる。 NVIDIAドライバ410以上に対応したWindows機を利用するかJatsonを利用する。 NVIDIAドライバが未対応ならNVIDIA SDK Managerをあきらめ、Cudaのバージョンを下げ手動インストールにする https://docs.nvidia.com/cuda/cuda-toolkit-release-notes/index.html 古いPCのGpuのドライバは410以下のため、Cuda10.0は動作しない 仮想環境ソフトを利用する Parallels DesktopやVMWareなど ここではparallels-desktopを使います 追記 仮想環境だとG

                                                                          Nvidiaから出ているJetPack(NVIDIA SDK Manager)を使ってOpenCvやCudaの簡単なインストールを目指す - Qiita
                                                                        • nvidia-smiとnvccで表示されるCUDAバージョンが異なる件

                                                                          CUDA 10.2のバージョンを指定してインストールしようとしたら、nvidia-smiとnvccコマンドで表示されたバージョンが異なり混乱したので情報整理。 環境 Amazon EC2 g4dnインスタンス Ubuntu 18.04 LTS インストール方法 Cuda10以降は下記ダウンロードページからCudaをダウンロードできる。 今回インストールタイプは、NVIDIAのパッケージリポジトリを登録してパッケージマネージャ経由でインストールをするdeb(network)を指定した。 表示されているコマンドのままだと最新版がインストールされてしまうため最後の行だけ変更。 $ wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1804/x86_64/cuda-ubuntu1804.pin $ sudo mv

                                                                            nvidia-smiとnvccで表示されるCUDAバージョンが異なる件
                                                                          • EC2 G4インスタンスのAmazon Linux 2にNVIDIA CUDAをインストールしてみた | DevelopersIO

                                                                            NVIDIA T4 Tensor Core GPUを備えたEC2インスタンス(G4)上のAmazon Linux 2にNVIDIA TESLA GPUドライバーとCUDA 11.0をインストールしてみました。 EC2 G4 インスタンスは NVIDIA Turing アーキテクチャの NVIDIA T4 Tensor コア GPU を搭載するGPU系インスタンスです。 費用対効果に優れ、機械学習推論やグラフィックスを多用するアプリケーションに向いています。 今回は、このG4にNVIDIA TeslaドライバーとCUDA環境を構築する方法を紹介します。 インストール方針 CUDA をインストールするには、主に以下の3通りがあります。 インストール済みAMIを利用 RPMパッケージからインストール インストーラー(runfile)からインストール 上のものほど、環境を簡単に用意でき、運用負荷も

                                                                              EC2 G4インスタンスのAmazon Linux 2にNVIDIA CUDAをインストールしてみた | DevelopersIO
                                                                            • GitHub - NVIDIA/cuda-samples: Samples for CUDA Developers which demonstrates features in CUDA Toolkit

                                                                              You signed in with another tab or window. Reload to refresh your session. You signed out in another tab or window. Reload to refresh your session. You switched accounts on another tab or window. Reload to refresh your session. Dismiss alert

                                                                                GitHub - NVIDIA/cuda-samples: Samples for CUDA Developers which demonstrates features in CUDA Toolkit
                                                                              • GREENLIGHT 1/64 1971 Plymouth 'Cuda THE BROADMOOR PIKES PEAK INTERNATIONAL HILL CLIMB  "GRAN TURISMO" RACE TO THE CLOUDS - usunonooのブログ@トミカ倉庫

                                                                                【当ブログではアフィリエイト広告・PRが表示されています。】 皆様、こんばんは。 usunonooです。 今夜は グリーンライト 1/64スケール パイクスピーク インターナショナル ヒルクライム 1971 プリムス クーダ をご紹介致します。 こちらはグリーンライトとレースゲームのグランツーリスモとのコラボモデルとして、2023年7月頃からトイザらスなどでも入手可能なミニカーとして発売されていました。 リンク アメリカ・コロラド州にあるロッキー山脈の東端に聳える山、パイクス・ピーク。 その山の標高2800mのスタート地点からおよそ20kmにも及ぶ一本道を、山頂がある標高4301mを目指しひた走るレースが『パイクスピーク・インターナショナル・ヒルクライム』と呼ばれています。 アメリカ国内においては、インディ500に次ぐ歴史と人気を誇るモータースポーツとして認知されており、1916年から毎年

                                                                                  GREENLIGHT 1/64 1971 Plymouth 'Cuda THE BROADMOOR PIKES PEAK INTERNATIONAL HILL CLIMB  "GRAN TURISMO" RACE TO THE CLOUDS - usunonooのブログ@トミカ倉庫
                                                                                • Visual Studio Code Dev Containers でシンプルに Python w/ CUDA を動かす

                                                                                  はじめに なるべく少ない設定でDev Container上でPythonを動かす方法を検討してみました。 2024年11月末現在、Python 環境のセットアップには uv を使うのがよさそうな雰囲気です。そこで、Dev Container 側では uv をセットアップするにとどめ、Python やそのパッケージのインストールは uv に任せる方針にします。 Dev Container の設定 ベースコンテナは Microsoft が公開している devcontainers-base を使いました。以下のように .devcontainer/devcontainer.json を作成します: // .devcontainer/devcontainer.json` { "name": "CUDA + uv", "image": "mcr.microsoft.com/devcontainers/

                                                                                    Visual Studio Code Dev Containers でシンプルに Python w/ CUDA を動かす