並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 4 件 / 4件

新着順 人気順

Infinibandの検索結果1 - 4 件 / 4件

  • HPCネットワーク基礎(RDMA/Infiniband/RoCE編)

    SaaS型Webサービス「カオナビ」のチーム開発でPackage by Featureを取り入れた話/Implementing Package by Feature in kaonavi

      HPCネットワーク基礎(RDMA/Infiniband/RoCE編)
    • よくわかるNVIDIAネットワーキング InfiniBand編

      前章で説明したとおり、AI基盤では、並列処理に強いこと、そして、高速なGPUに対して途切れなくデータを受け渡しできることが求められます。これらの要求を満たすネットワークが「InfiniBand」です。 InfiniBandは、スーパーコンピュータの分野で広く使われている技術です。現在のスパコンは、時には数万にも及ぶノードを接続する超並列アーキテクチャを採用し、大量のデータを使って演算処理します。このような大規模計算を支え、スパコン市場で高いシェアを誇るのがInfiniBandです。 InfiniBandは、超並列クラスタのスパコンで使われていたネットワーク技術なの。だから並列処理が多いAI基盤にぴったり! どんな技術を使っているかは、下を見てくださいね。 InfiniBand の通信方式では可能な限り遅延時間をなくすため、各サーバーのメモリ間をダイレクトに接続するRDMA通信が行われます。

      • MellanoxのInfiniBandをイーサーネットモードで使う方法

        この記事を読む前に 自宅のLAN環境の一部をInfiniBand(QSFP)で40Gbpsに対応させてみた #動作検証編購入したもの Mellanox ConnectX-3 InfiniBand HCA(Fujitsu)40Gbps(2400円) 4個 Mellanox QSFPケーブル 15m 56Gbps(10800円) 1個 (ケ、ケーブルの方が4倍も...syun625.com2021.04.02 この記事は「自宅のLAN環境の一部をInfiniBand(QSFP)で40Gbpsに対応させてみた #動作検証編」の付録です。 興味があれば動作検証編も読んでください。 今回やること ドライバ、Mellanox Firmware Tools(以下MST)、ファームウェアのダウンロード ドライバ、MSTのインストール NICのモードの切り替え(infiniband → ethernet)

          MellanoxのInfiniBandをイーサーネットモードで使う方法
        • <NTTPC流>生成AI基盤のためのネットワーク構築術「イーサとInfiniBandを使い分け」|BUSINESS NETWORK

          イーサネットかInfiniBandか──。生成AI開発の基盤構築に当たって多くのエンジニアが悩むのがこの問いだ。AI基盤構築を複数手掛けてきたNTTPCは、用途や環境に合わせた“使い分け”を勧める。 InfiniBandを選んだ理由 活況を呈するデータセンターインフラ市場のなかでも、特に成長著しく、新技術が台頭してきているのが生成AIの領域だ。GPUを核に構成されるLLM(大規模言語モデル)の開発基盤では、GPUサーバー間をつなぐインターコネクトネットワークに関しても、従来型データセンターのそれとはまったく異なる性能・機能が求められる。 こう聞くと、AI基盤のネットワーク設計・構築にはさぞかし時間がかかりそうだが、これまで複数の基盤構築を手掛けてきたNTTPCコミュニケーションズ 法人ビジネス推進本部 ビジネスデザイン部門 イノベーション部主査の大野泰弘氏によれば、「サーバーやスイッチ等の

            <NTTPC流>生成AI基盤のためのネットワーク構築術「イーサとInfiniBandを使い分け」|BUSINESS NETWORK
          1