タグ

HPCに関するkosakiのブックマーク (5)

  • BlueGeneのアーキテクチャ超適当まとめ - moratorium

    BlueGeneのアーキテクチャ超適当まとめ 2009-06-13 (Sat) 13:28 ANL Intern 2009 私的メモエントリです。IBM製のスパコン、BlueGeneの特徴をまとめてみます。 以下参考URL。 IBM Research | Blue Gene An Overview of the BlueGene/L Supercomputer, SC2002 Toward Message Passing for a Million Processes: Characterizing MPI on a Massive Scale Blue Gene/P, ISC2009 Wikipedia: BlueGene 以下、特徴を箇条書き。 PowerPCベースのプロセッサ。BG/Lは700MHz, BG/Pは850MHz。各コアに1個ずつ、DoubleFPUが付属。BG/Pからは

  • 【レポート】富士通、次期スパコン向けHPC-ACEアーキテクチャを公表 (1) 次世代SPARCの仕様が公開 | エンタープライズ | マイコミジャーナル

    HPC-ACE向けプロセッサの仕様を公開 富士通は2009年3月2日、同社WebサイトのHPC(科学技術計算・解析)のページに次期スパコン向けプロセッサの論理仕様書を公開した(注:PDF)。 このプロセッサの命令アーキテクチャはSPARCベースであるが、HPC向けに大幅に命令拡張が行われており、「HPC-ACE(High Performance Computing - Arithmetic Computational Extensions)」という名前が付けられている。 また、このプロセッサの正式名称は「SPARC64 VIII fx」である。現在、同社のSPARC Enterpriseサーバに使用されている4コアプロセッサは「SPARC64 VII」であるので、これの次世代にあたると考えられる。同社のWeb歳とでは単にこのプロセッサを開発中と述べているだけで、このプロセッサが、何時ごろ、

    kosaki
    kosaki 2009/03/12
    Venusのアーキテクチャー
  • moratorium | SC08 参加記

    SC08 参加記 2週間ほど前になりますが、スーパーコンピューティング系で最高峰の学会であるSCに参加してきました。既にいくつか記事を挙げられている方々がいらっしゃいます。 SC08小柳レポート Cheer! High Performance Computing まず驚いたのは、SCは学会等いうよりはさしずめ展示会という雰囲気だったことです。幕張メッセみたいな会場をイメージして頂けると良いです。そこで各企業が色々な出展をしています。 またSCはTop500が発表される事でも有名です。今回はRoadRunnerというCellを積んだクラスターが1位でした。世界で初めて1ペタフロップスを達成したシステムです。展示フロアではラックが展示されていたので説明を聞いてきました。 RRはブレードサーバー群で構成されており、4ブレードで1ノードというシステムです (図)。合計約6000ノードです。4ブレー

    kosaki
    kosaki 2008/12/07
    ペタでも似たような話を聞いたな >耐障害性
  • 分散ファイルシステム - pekeqのブログ

    more better NFS OpenAFS, Lustre, IBRIX NFSはNetworkedなファイルシステムなだけであって、Distributedではない focus on disconnected operation Coda, Intermezzo I/Oパフォーマンスを上げるために、ネットワーク上でストライピング PVFS 最強? IBM GPFS フリーで使える実装としては、Lustreが一番大規模で美しい(かっこいい)。メタデータを保管するサーバと、実体を保管するサーバが完全に分かれている。ただ、slashdotにあったように、管理が大変そうだ。オブジェクトストレージサーバが、shared diskによるフェイルオーバなのも、いま風のかっこよさではない感を誘う。 現時点では、OpenAFSが一番リーズナブルな解であるように思える。データのレプリケーションをサポートし

    分散ファイルシステム - pekeqのブログ
  • 分散ストレージについて再び(1) - pekeqのブログ

    まず以前の私の記事でLustreを推していたが、これは撤回すべきだと思う。 日でLustreを気で使っている組織のひとつに東工大がある。東工大はTsubameクラスタでLustreを使っているのだが、TSUBAMEグリッドクラスタのページを見てほしい。/work, /work2の障害のお知らせが定期的に載っているのがわかるだろうか。この/work, /work2というのがLustreで提供されているボリュームで、見てわかるように、とても頻繁に障害が起きている。 障害の主な原因のひとつは、LustreがノードをRAID0でまとめていることと、メタデータサーバが頻繁に止まってしまうことに起因しているようだ。RAID0の場合、ディスクが1台でも止まると、ボリューム全体にアクセスできなくなる。これと同じことがLustreではノードで発生し、ストレージノードが一台止まると、クラスタごと止まってし

    分散ストレージについて再び(1) - pekeqのブログ
  • 1