タグ

関連タグで絞り込む (0)

  • 関連タグはありません

タグの絞り込みを解除

MPIとHPCに関するstoikheiaのブックマーク (2)

  • HPCシステムズ HPC Do It Yourself Clubへ

    OpenMPIをInfiniBand用にconfigureとmakeし、 通信速度を計測する (過去のOpenMPIの記事はコチラ、過去のInfiniBandの記事はコチラ) (FDR Infinibandでの性能評価はコチラ) 2台以上のコンピュータを使って並列計算を行っても、思ったほど計算時間が短縮されない場合、コンピュータ間の通信速度がボトルネックになっている可能性がある。コンピュータ間の通信は、標準実装のGigabitEthernetを使うと、通信速度は最大で毎秒125Mバイトだが、QDR(Quad Data Rate) InfiniBandカードを追加することにより、最大で毎秒4000Mバイトと、32倍高速な通信が実現できる(もっと高速なFDR InfiniBandもある)。これをやろうとした場合、カードの追加やケーブルの接続などのハードウェア設定の他に、InfiniBandのド

  • MPI マニュアル目次

    Contents Contents このページは中野 淳(Jun Nakano)@日IBMさんが作成された目次をベースにしています。HTML化のためにタブを全角スペースに置き換えるなどの変更を行いました。表紙、改版記録、目次、謝辞の項目を追加しました。 %% Date: Fri, 31 May 1996 15:06:16 +0900 %% From: Jun NAKANO <nakanoj@trl.ibm.co.jp> %% Message-Id: <9605310606.AA42078@ns.trl.ibm.com> 表紙、改版記録、目次、謝辞 第1章 MPIの紹介 1.1 概要と目標 1.2 この標準を利用する人々 1.3 この標準の実現対象となるプラットフォーム 1.4 標準に含まれるもの 1.5 標準に含まれないもの 1.6 この文書の構成 第2章 MPIの用語と規則 2.1 文

  • 1