タグ

関連タグで絞り込む (2)

タグの絞り込みを解除

networkとnvidiaに関するdannのブックマーク (3)

  • AIネットワークにおけるGPUと光モジュールの比率と需要の分析 - Qiita

    市場では、光モジュールとGPUの比率を計算するための複数のアプローチが存在し、一貫性のない結果をもたらしています。これらの違いの主な原因は、さまざまなネットワーク構造に実装される光モジュールの数の変動に由来しています。必要な光モジュールの正確な数量は、いくつかの重要な要因に主に依存しています。 ネットワークカードモデル 主に2つのネットワークカードが含まれており、ConnectX-6(200Gb/s、主にA100と使用される)とConnectX-7(400Gb/s、主にH100と使用される)です。 同時に、次世代のConnectX-8 800Gb/sが2024年にリリースされる予定です。 スイッチモデル 主に2種類のスイッチが含まれており、QM 9700スイッチ(32ポートOSFP 2x400Gb/s)があります。合計64チャンネルの400Gb/sの転送速度と、合計51.2Tb/sのスルー

    AIネットワークにおけるGPUと光モジュールの比率と需要の分析 - Qiita
  • NVIDIA Mellanox ConnectX-7 の lspci での見え方 - Vengineerの戯言

    はじめに NVIDIA Mellanox ConnectX-7 を lspci で見るとどんな感じになっているかを知ることができました。 Multifunction に見える Google君に聞いたら、 NVIDIA ConnectX-7 Adapter Cards User Manual が見つかった。47頁に次のような記載があった。 Single-port PCIe x16 Card # lspci | grep mellanox -ia 3:00.0 Infiniband controller: Mellanox Technologes TM2910 Family [ConnectX-7] Dual-port PCIe x16 Card # lspci | grep mellanox -ia 86:00.0 Infiniband controller: Mellanox Techno

    NVIDIA Mellanox ConnectX-7 の lspci での見え方 - Vengineerの戯言
  • DGX H100は何が変わったのか? | HPCシステムズ Tech Blog

    上記の表の「ケージ数」とは、背面にあるcluster network用の通信ポートの口数を表しています。 DGX H100で採用されたtwin port OSFPは、筐体内部で2つのConnectX-7(400Gbps)に接続する構造となっており、1つのトランシーバに2のケーブルを挿して運用します。そのため、ポート数はケージ数の2倍となります。twin port OSFPを採用したことで、DGX A100ではサーバー背面の約半分を占めていたcluster network部分が、DGX H100ではサーバー背面の中心部分に収まるようになりました。 しばしば、「1つのOSFPトランシーバを使って800Gbpsで通信できる」という記述がされますが、これは単に通信帯域を足し合わせた数値に過ぎず、DGXサーバー間のGPU通信が800Gbpsで行えるという意味ではありませんので注意してください。 c

    DGX H100は何が変わったのか? | HPCシステムズ Tech Blog
  • 1