並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 40 件 / 43件

新着順 人気順

infinibandの検索結果1 - 40 件 / 43件

  • 【InfiniBandの現在】発熱への対処が難しく2002年にIntelが開発中止、サーバー間接続の一本化は実現せず【ネット新技術】

      【InfiniBandの現在】発熱への対処が難しく2002年にIntelが開発中止、サーバー間接続の一本化は実現せず【ネット新技術】
    • 【InfiniBandの現在】低いコストとレイテンシーでHPC向けの分散型構成に活路を見出す【ネット新技術】

        【InfiniBandの現在】低いコストとレイテンシーでHPC向けの分散型構成に活路を見出す【ネット新技術】
      • 【InfiniBandの現在】売上から見るInfiniBand市場規模の推移、規格の急速な世代交代もポイント【ネット新技術】

          【InfiniBandの現在】売上から見るInfiniBand市場規模の推移、規格の急速な世代交代もポイント【ネット新技術】
        • 【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】

            【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】
          • 【InfiniBandの現在】汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?【ネット新技術】

              【InfiniBandの現在】汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?【ネット新技術】
            • 【InfiniBandの現在】InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」【ネット新技術】

                【InfiniBandの現在】InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」【ネット新技術】
              • 【InfiniBandの現在】PCIeの処理オーバーヘッドを36分の1に、IBM独自の「CAPI」から「OpenCAPI」へ【ネット新技術】

                  【InfiniBandの現在】PCIeの処理オーバーヘッドを36分の1に、IBM独自の「CAPI」から「OpenCAPI」へ【ネット新技術】
                • 【InfiniBandの現在】ラック間やサーバー間で2.5GT/sの転送速度を実現する「InfiniBand 1.0」【ネット新技術】

                    【InfiniBandの現在】ラック間やサーバー間で2.5GT/sの転送速度を実現する「InfiniBand 1.0」【ネット新技術】
                  • 【InfiniBandの現在】HBAとMPIとの組み合わせで、低レイテンシーを安価に実現した「RDMA」【ネット新技術】

                      【InfiniBandの現在】HBAとMPIとの組み合わせで、低レイテンシーを安価に実現した「RDMA」【ネット新技術】
                    • 【InfiniBandの現在】HDRは好スタート、InfiniBandのこの先は?【ネット新技術】

                        【InfiniBandの現在】HDRは好スタート、InfiniBandのこの先は?【ネット新技術】
                      • 【InfiniBandの現在】4x構成で200Gbps超の「InfiniBand HDR」、Mellanoxが2018年後半に製品化【ネット新技術】

                          【InfiniBandの現在】4x構成で200Gbps超の「InfiniBand HDR」、Mellanoxが2018年後半に製品化【ネット新技術】
                        • 自宅InfiniBand普及委員会が発足しました! - クーの自由研究

                          おうちでInfiniBand しようぜ! こんにちわ、こんばんわ。かえるのクーの助手の「井戸中 聖」(いとなか あきら)でございます。 InfiniBandします。 10GbEのEthernetが頑張れば手に届くようになってきたとはいえ、複数のNIC購入、4ポート以上10Gbps対応したスイッチ導入など、トータルコストを考えるとまだまだ敷居が高い状況です。そこで今なら40GBpsが超破格値で導入可能と「話題の」Infinibandを導入することにしました。 まずは、スライドでお勉強します。 Sakura infini band-20180424 from さくらインターネット株式会社 犯行発足動機 このごろは、機械学習のための自宅環境を整備したくて、いろいろ調べていました。非力なPCでそれなりの計算させるためには、複数PCで「並列的な処理分散」をさせることが効果的なことがわかりました。並列

                            自宅InfiniBand普及委員会が発足しました! - クーの自由研究
                          • 【InfiniBandの現在】InfiniBandが主戦場のMellanox、独自の56GbEでイーサーネット関連を拡大するも……【ネット新技術】

                              【InfiniBandの現在】InfiniBandが主戦場のMellanox、独自の56GbEでイーサーネット関連を拡大するも……【ネット新技術】
                            • NVIDIA、メタバース向け開発を可能にする「Omniverse Enterprise」、400GbpsのInfiniBandスイッチ「Quantum-2」の提供開始を発表

                                NVIDIA、メタバース向け開発を可能にする「Omniverse Enterprise」、400GbpsのInfiniBandスイッチ「Quantum-2」の提供開始を発表
                              • 【InfiniBandの現在】Mellanox、HBA1枚で100Gbpsの「InfiniBand EDR」を2014年リリース、2017年以降は売上の中心に【ネット新技術】

                                  【InfiniBandの現在】Mellanox、HBA1枚で100Gbpsの「InfiniBand EDR」を2014年リリース、2017年以降は売上の中心に【ネット新技術】
                                • 【InfiniBandの現在】SDRの2.5GT/secに加え、DDRの5GT/secとQDRの10GT/secを2004年に追加サポート【ネット新技術】

                                    【InfiniBandの現在】SDRの2.5GT/secに加え、DDRの5GT/secとQDRの10GT/secを2004年に追加サポート【ネット新技術】
                                  • 【InfiniBandの現在】DRAMサポートを追加した「OpenCAPI 3.1」、メモリインターフェース統合を考慮も、Gen-Z競合にはなり得ず?【ネット新技術】

                                      【InfiniBandの現在】DRAMサポートを追加した「OpenCAPI 3.1」、メモリインターフェース統合を考慮も、Gen-Z競合にはなり得ず?【ネット新技術】
                                    • HPCネットワーク基礎(RDMA/Infiniband/RoCE編)

                                      SaaS型Webサービス「カオナビ」のチーム開発でPackage by Featureを取り入れた話/Implementing Package by Feature in kaonavi

                                        HPCネットワーク基礎(RDMA/Infiniband/RoCE編)
                                      • 【InfiniBandの現在】Intel、QLogicから買収したInfiniBandから一転、Omni-Path Fabricへ【ネット新技術】

                                          【InfiniBandの現在】Intel、QLogicから買収したInfiniBandから一転、Omni-Path Fabricへ【ネット新技術】
                                        • 【InfiniBandの現在】Mellanox、Gen-Z Consortiumへ参画、データ量急増などによるメモリ帯域不足を解消するInterconnect実現へ【ネット新技術】

                                            【InfiniBandの現在】Mellanox、Gen-Z Consortiumへ参画、データ量急増などによるメモリ帯域不足を解消するInterconnect実現へ【ネット新技術】
                                          • 【InfiniBandの現在】InfiniBand FDR対応の「ConnectX-3 VPI」カード、HPC向けが中心【ネット新技術】

                                              【InfiniBandの現在】InfiniBand FDR対応の「ConnectX-3 VPI」カード、HPC向けが中心【ネット新技術】
                                            • 【InfiniBandの現在】3種類の接続形態をサポートする「Gen-Z Ver.1.1」、DRAMからのブートは不可【ネット新技術】

                                                【InfiniBandの現在】3種類の接続形態をサポートする「Gen-Z Ver.1.1」、DRAMからのブートは不可【ネット新技術】
                                              • よくわかるNVIDIAネットワーキング InfiniBand編

                                                IT技術を活用したビジネスの変革が求められる中、人工知能(AI)は必要不可欠な技術となり、幅広く利用されています。また、IoTの進展によるデータ量の増加や計算技術の発展により、AIに求められる計算はますます大規模化しています。

                                                • 【InfiniBandの現在】InfinityFabricを前提にしたGen-Zに加え、競合InterconnectのCAPI、CCIX、CXLにも参画するMellanox【ネット新技術】

                                                    【InfiniBandの現在】InfinityFabricを前提にしたGen-Zに加え、競合InterconnectのCAPI、CCIX、CXLにも参画するMellanox【ネット新技術】
                                                  • Dell Mellanox Connectx-3 FDR Infiniband LP 40gige Mcx353a-fcbt 0wfn92 for sale online | eBay

                                                    Dell Mellanox Connectx-3 FDR Infiniband LP 40gige Mcx353a-fcbt 0wfn92

                                                      Dell Mellanox Connectx-3 FDR Infiniband LP 40gige Mcx353a-fcbt 0wfn92 for sale online | eBay
                                                    • 【InfiniBandの現在】SANスイッチ向けにInfiniBand市場へ参入したQLogic、撤退の後、2006年にはHCA向けに再参入【ネット新技術】

                                                        【InfiniBandの現在】SANスイッチ向けにInfiniBand市場へ参入したQLogic、撤退の後、2006年にはHCA向けに再参入【ネット新技術】
                                                      • Mellanox ConnectX3,4系のモード切り替え(イーサネット、InfiniBand) - Qiita

                                                        SFP+あるいはQSFP+のNIC、Mellanox ConnectXのイーサネットモードへの切り替え法。 デフォルトの設定はInfiniBandになっている。調べるのが大変だったのでメモ。 1. Windows10 windows10の場合、ダイレクトアタッチケーブルでPC間を直付けする場合、相手方のNICも適切に設定して接続されるまで「ケーブルが接続されていません」のエラーが出てIP等が反映されないので注意。 これのおかげで結構な時間悩んだ……。 1.1 ドライバのインストール WinOFがConnectX3系、WinOF2がConnectX4のドライバ https://www.mellanox.com/page/products_dyn?product_family=32&mtag=windows_sw_drivers exeファイルを実行してインストール。 1.2 デバイスマネージ

                                                          Mellanox ConnectX3,4系のモード切り替え(イーサネット、InfiniBand) - Qiita
                                                        • InfiniBand 搭載 Virtual Machines での SR-IOV の提供状況 | Azure の更新情報 | Microsoft Azure

                                                          Azure を探索 Azure について 安全かつ将来を見据えた、オンプレミス、ハイブリッド、マルチクラウド、エッジのクラウド ソリューションについて調べる グローバル インフラストラクチャ 他のどのプロバイダーよりも多くのリージョンを備える持続可能で信頼できるクラウド インフラストラクチャについての詳細情報 クラウドの経済性 Azure の財務上および技術的に重要なガイダンスを利用して、クラウドのビジネス ケースを作成する 顧客イネーブルメント 実績のあるツール、ガイダンス、リソースを使用して、クラウド移行の明確なパスを計画する お客様事例 成功を収めたあらゆる規模と業界の企業によるイノベーションの例を参照する

                                                            InfiniBand 搭載 Virtual Machines での SR-IOV の提供状況 | Azure の更新情報 | Microsoft Azure
                                                          • InfiniBand HCA(NIC) 直結の実験(Windows編) - クーの自由研究

                                                            青空に街路の桜満開・花吹雪が映える週末が到来 みなさま、如何お過ごしでしょうか。かえるのクーの助手の「井戸中 聖」でございます。 ところにり雨ですが、桜がみごろです。 クイズ:この写真はどこなのか。特定せよ!。(c)ベッキー 正解者には黄色のスターを100個プレゼントします。もちろん1日1個です。(あ、このブログにコメント欄ないんだった。。。) (みなさん桜をみて気持ちを落ち着けてくださいませ。) InfiniBandの接続実験をします Ethernetモードでの接続実験 ConnectX-3を2台のPCにセットしてEthernetモードにて 40GbEの接続を行います。 InfiniBandスイッチを介さず、ケーブル直結で接続・通信できることを確認します。 通信のスループットと遅延(レイテンシ)の測定を行います。 予想 多分つながると思います。ここでNGなら門前払い状態です。 ケーブル接

                                                              InfiniBand HCA(NIC) 直結の実験(Windows編) - クーの自由研究
                                                            • 40 Gbps ~ 100 Gbps の InfiniBand/Ethernet のメモ - Qiita

                                                              想定環境 ~8 ノードくらいで, 手元ワークステーション的な感じで mini cluster を 40 Gbps ~ 100 Gbps で組みたい. なるべく将来 200 ~ 400 Gbps に拡張できることを見込んで. 40 Gbps(IB/Eth), 56 Gbps(IB) だと, リース終了品が eBay に流れているようで安価に調達することができる. 用語 ダイレクトアタッチケーブル 要は 1G のイーサネットケーブルのように, コネクタとケーブルが一緒になったもの. 光ファイバー接続の場合だとトランシーバー(電気 <-> 光変換)が必要であるが, 銅線接続の場合はトランシーバーは不要 アクティブ, パッシブ => 信号増幅とか, D/A 変換するのはアクティブっぽい. コネクタ(トランシーバー)の形状 https://en.wikipedia.org/wiki/Small_fo

                                                                40 Gbps ~ 100 Gbps の InfiniBand/Ethernet のメモ - Qiita
                                                              • AMD EPYC – STREAM、HPL、InfiniBand、WRFパフォーマンス スタディ | Dell 日本

                                                                AMD EPYC – STREAM、HPL、InfiniBand、WRFパフォーマンス スタディ AMD EPYC &ndash; Dell EMC PowerEdge R7425におけるSTREAM、HPL、InfiniBand、およびWRF 概要: AMD EPYC – Dell EMC PowerEdge R7425におけるSTREAM、HPL、InfiniBand、およびWRF 概要HPCおよびAIイノベーション ラボには、Mellanox EDR InfiniBandと相互接続された32 AMD EPYCベースのシステムを備えた新しいクラスターが含まれます。EMCでは通常どおり、最新のクラスターでパフォーマンス評価を実施しています。その結果をここで共有させていただきます。このブログでは、レイテンシーおよび帯域幅のSTREAM、HPL、InfiniBandマイクロベンチマーク パフ

                                                                • NVIDIA、エクサスケール AI コンピューティングのための Mellanox InfiniBand を発表

                                                                  NVIDIA、エクサスケール AIコンピューティングのための Mellanox InfiniBandを発表 サーバーおよびストレージパートナーのグローバルエコシステムが、 世界で唯一の完全なIn-Networkアクセラレーションプラットフォームである NVIDIA Mellanox 400G搭載システムを提供 2020 年 11 月 16 日、カリフォルニア州サンタクララ ー SC20 ー NVIDIA はこのたび、世界のきわめて困難な課題に取り組む AI 開発者と科学研究者に最高速のネットワーク パフォーマンスを提供する、次世代の NVIDIA® Mellanox® 400G InfiniBand を発表しました。 創薬、気候変動研究、ゲノミクスなどの分野でコンピューティングの要件は指数関数的に増大しています。NVIDIA Mellanox 400G InfiniBand は世界で唯一の

                                                                    NVIDIA、エクサスケール AI コンピューティングのための Mellanox InfiniBand を発表
                                                                  • 【InfiniBandの現在】QLogic、市場シェアを拡大も、2012年にはInfiniBand部門をIntelへ売却【ネット新技術】

                                                                      【InfiniBandの現在】QLogic、市場シェアを拡大も、2012年にはInfiniBand部門をIntelへ売却【ネット新技術】
                                                                    • InfiniBand - Google 検索

                                                                      InfiniBand(インフィニバンド)とは、非常に高いRAS(信頼性・可用性・保守性)を持つ基幹系・HPC系のサーバ/クラスター用高速I/Oバスアーキテクチャ及びインターコネクトのこと。 システム間インターコネクト機構としては、RAS機能の他、他機構に比較して、低レイテンシである点も特徴である。

                                                                      • よくわかるNVIDIAネットワーキング InfiniBand編

                                                                        前章で説明したとおり、AI基盤では、並列処理に強いこと、そして、高速なGPUに対して途切れなくデータを受け渡しできることが求められます。これらの要求を満たすネットワークが「InfiniBand」です。 InfiniBandは、スーパーコンピュータの分野で広く使われている技術です。現在のスパコンは、時には数万にも及ぶノードを接続する超並列アーキテクチャを採用し、大量のデータを使って演算処理します。このような大規模計算を支え、スパコン市場で高いシェアを誇るのがInfiniBandです。 InfiniBandは、超並列クラスタのスパコンで使われていたネットワーク技術なの。だから並列処理が多いAI基盤にぴったり! どんな技術を使っているかは、下を見てくださいね。 InfiniBand の通信方式では可能な限り遅延時間をなくすため、各サーバーのメモリ間をダイレクトに接続するRDMA通信が行われます。

                                                                        • MellanoxのInfiniBandをイーサーネットモードで使う方法

                                                                          この記事を読む前に 自宅のLAN環境の一部をInfiniBand(QSFP)で40Gbpsに対応させてみた #動作検証編購入したもの Mellanox ConnectX-3 InfiniBand HCA(Fujitsu)40Gbps(2400円) 4個 Mellanox QSFPケーブル 15m 56Gbps(10800円) 1個 (ケ、ケーブルの方が4倍も...syun625.com2021.04.02 この記事は「自宅のLAN環境の一部をInfiniBand(QSFP)で40Gbpsに対応させてみた #動作検証編」の付録です。 興味があれば動作検証編も読んでください。 今回やること ドライバ、Mellanox Firmware Tools(以下MST)、ファームウェアのダウンロード ドライバ、MSTのインストール NICのモードの切り替え(infiniband → ethernet)

                                                                            MellanoxのInfiniBandをイーサーネットモードで使う方法
                                                                          • 【InfiniBandの現在】「QDR」に初対応のInfiniBand HCA「ConnectX IB」と10GbEカード「ConnectX EN」【ネット新技術】

                                                                              【InfiniBandの現在】「QDR」に初対応のInfiniBand HCA「ConnectX IB」と10GbEカード「ConnectX EN」【ネット新技術】
                                                                            • Infiniband OpenSMの導入(Windows編) - クーの自由研究

                                                                              手持ちの部品でInfinibandできるか実験しよう 今朝は春告鳥(鶯)の声で目が覚めた、かえるのクーの助手の「井戸中 聖」でございます。 ebayに注文したInfinibandのケーブル4本とデュアルポートのConnectX-3はどちらもStatusがShipped!になり、日本に向けて搬送中です。4月上旬には入手可能のようです。この週末は手持ちのConnectX-3とケーブル1本(しかも40Gbpsまでのケーブル)でInfinibandがどこまでできるか確認します。 余談ですが、助手メンバーからInfinibandのアダプタカードはNIC(Network Interface Card)ではなく、HCA(Host Channel Adapter)と呼称するようだとの指摘がありました。前回のページを少し修正しました。 さて、今回も実験しながらゆるーく書いていきます。 今回の実験の内容 ・I

                                                                                Infiniband OpenSMの導入(Windows編) - クーの自由研究
                                                                              • 【InfiniBandの現在】低レイテンシ―かつ高速なMellanox初のDDR対応HCA「InfiniHost III Ex/Lx」【ネット新技術】

                                                                                  【InfiniBandの現在】低レイテンシ―かつ高速なMellanox初のDDR対応HCA「InfiniHost III Ex/Lx」【ネット新技術】
                                                                                • 【InfiniBandの現在】InfiniBand QDR/Ethernet両対応の「ConnectX-2」と324ポートスイッチ「MTS3610」、2009年に登場【ネット新技術】

                                                                                    【InfiniBandの現在】InfiniBand QDR/Ethernet両対応の「ConnectX-2」と324ポートスイッチ「MTS3610」、2009年に登場【ネット新技術】