タグ

linuxとnvidiaに関するmasterqのブックマーク (5)

  • [CUDA] NVIDIA GPUやCUDA周りの互換性を理解したかった

    よくわからなかったので、調べて整理しようとした試み。 Compute Capability GPU ハードウェアがサポートする機能を識別するためのもので、例えば RTX 3000 台であれば 8.6 であるなど、そのハードウェアに対応して一意に決まる。 アーキテクチャの世代が新しくなり、機能が増えるほど、この数字も上がっていく。 以下のリンク先に、Compute Capability と機能の対応表があるが、これを見ると(少なくとも執筆時点で) Compute Capability 7.x 以上でテンソルコアが使えるといったことがわかる。 それぞれの機種がどの値かは以下のサイトから確認できる。 NVIDIA Driver のバージョン Compute Capablity 一般向けの Compute Capability との関連性は見つからなかったが、データセンタ向けの資料には Maxwe

    [CUDA] NVIDIA GPUやCUDA周りの互換性を理解したかった
    masterq
    masterq 2024/07/05
    ややこしい "Compute Capability 7.x 以上でテンソルコアが使える"
  • 【2023】爆速でGCPにリモートAI開発環境を構築する方法🔥 | TC3株式会社|GIG INNOVATED.

    はじめに こんにちは、TC3 Data Scienceチームの@mumeco_mlです!弊社は2022/10からGCP Cloud Partnerとなっておりまして、現在GCP(Google Cloud Platform)のプロジェクトでの活用をより促進しております。今回は、このGCPの機能の1つであるCompute Engineを利用したAI開発環境の作り方をご紹介いたします。GCPのVMで開発環境を作る場合、大きく分けて事前にML用に用意された環境を利用する方法と、Dockerを使ってOS環境等も含めて作る方法があると思いますが、今回は前者を説明します。需要があれば、後者の解説も作ろうと思います。 クラウド開発環境の利点・欠点 利点 高額なGPUをオンデマンドで効率的に活用できる ローカルマシンの動作が重くならない 任意のマシンスペックを利用できる 欠点 使用時間に応じて課金される 実

    masterq
    masterq 2024/07/02
    "このOSでおすすめなのがDeep Learning用に事前に設定されたDeep Learning on Linuxです。このOSを選ぶことで、煩雑なCUDAのインストールなどを簡単に済ますことが可能です。"
  • NVIDIA製GPUのPCI Expressのリンク速度を調べる(Linuxの場合)

    はじめに 昨今ではPCI Express 4.0(Gen4)対応のCPU、マザーボード、GPUが一般的に流通するようになりましたね。 そんな中、GPUをセットアップしていて、ふと思いました。「当にPCI Express 4.0で動作しているのだろうか?」と。 そこで今回は、PCI Expressの世代、帯域、レーン数などを調べる方法を整理してみました。 具体的には、以下の3つのコマンドを紹介します。 nvidia-smi -a nvidia-smi --format=csv --query-gpu=index,gpu_bus_id,name,pcie.link.gen.max,pcie.link.gen.current,pcie.link.width.max,pcie.link.width.current sudo lspci -s [バス番号] -vv nvidia-smiコマンドを使

    NVIDIA製GPUのPCI Expressのリンク速度を調べる(Linuxの場合)
    masterq
    masterq 2023/02/27
    "LnkStaは状態(Status)を示し、上記の例では2.5GT/sの転送速度(ダウングレード状態)、x16レーンでリンクしていることを示しています。2.5GT/sはPCI Express 1.0(Gen1)を意味します。"
  • 第642回 仮想マシン上のmicrok8sからGPUを利用する | gihyo.jp

    第641回では「LXDとmicrok8sでシングルサーバーをKubernetesクラスターにする」と題して、より高機能になったmicrok8sについて紹介しました。microk8sで構築したKubernetesがあれば、気軽にたくさんのCPUコアを使ってさまざまなワークロードを動かし、部屋を暖められます。でも、待ってください。そのサーバーにはもっと便利な熱源がありませんか? そうGPUですね。格的に寒くなる前に、Kubernetes環境からもGPUを使えるようにしましょう。 ホスト側でGPUパススルーの準備 第641回ではLXDの仮想マシンインスタンスの上にmicrok8sをインストールしました。つまりホストマシンのGPUを使うには、LXDの仮想マシンの中からGPUにアクセスできなくてはなりません[1]⁠。コンテナの場合、第532回の「LXDのコンテナからGPUを利用する」などで手順を紹

    第642回 仮想マシン上のmicrok8sからGPUを利用する | gihyo.jp
  • Self-Driving Cars Technology & Solutions | NVIDIA Automotive

    AI-defined vehicles are creating safer and more efficient transportation, while providing occupants with customized in-cabin experiences. These revolutionary benefits require both high-performance in-vehicle AI computing and a scalable infrastructure. The NVIDIA DRIVE® platform consists of both the AI infrastructure and in-vehicle hardware and software to deliver everything needed to develop auton

    Self-Driving Cars Technology & Solutions | NVIDIA Automotive
  • 1