並び順

ブックマーク数

期間指定

  • から
  • まで

121 - 149 件 / 149件

新着順 人気順

Infinibandの検索結果121 - 149 件 / 149件

  • テラデータ、全社向けDWH最上位機種に新製品--InfiniBandを採用

    印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます 日本テラデータは5月21日、全社規模での利用を想定したデータウェアハウス最上位機種の新モデル「Teradata Active Enterprise Data Warehouse(Active EDW) 6700」の販売と出荷を開始した。現行のActive EDW 6690/6650の後継機種になる。 Intelの最新プロセッサ「Xeon E5」を搭載。ユーザー使用可能領域は7T~61Pバイト。ノード間の接続にInfiniBandを採用している。接続ソフトウェアの新版「Teradata BYNET V5」と組み合わせることで、最大2000の並列処理ノードを接続できるという。 ノード間をInfiniBandで接続し、疎結合のストレージ、ネッ

      テラデータ、全社向けDWH最上位機種に新製品--InfiniBandを採用
    • Cisco

      Your email address belongs to an organization that also manages your Cisco account login. Log in to your organization to also log in to Cisco.

      • Mellanox本社エグゼクティブ・インタビュー【後編】~新たに手がけるEthernet分野への取り組み~

        • いま知っておくべきWebサービスのための高速ネットワーク技術(前編)

          1GbEから10GbEサーバへの転換とコスト削減 前述の比較から検討すると見えてくるのは、「複数の1GbEサーバを単一の10GbEサーバへ集約すると、効率がよさそうだ」ということです(図7)。現在のサーバ性能は大きく向上しており、CPU的に見ても仮想マシンを100台近くまで同時搭載することが可能な状態です。またディスクI/O性能に関しても、SSDの市場拡大により、十分な性能を有するまでになってきました。 これらの集約効果は初期導入コストもさることながら、24時間稼働するサーバの電気代という意味でも、大きなコスト削減効果が出てきます。また、今後も拡大するであろうWebサービスを考えた場合、中長期にも全体コストの圧縮は極めて重要な要素といえますので、1つ1つ検討していくとよいでしょう。 最近のデータセンターでは、構内提供回線として10GbEを用意しているところも出てきています。段階的に導入し、

            いま知っておくべきWebサービスのための高速ネットワーク技術(前編)
          • InfiniBand解説 - メラノックス テクノロジーズ ジャパン株式会社:Mellanox Technologies Japan - InfiniBand

            メラノックス(Mellanox)の10Gb/s、20Gb/s、40Gb/s、そして56Gb/sの超高速転送を実現する最新のInfiniBandアダプタ/スイッチ製品は、エンタープライズデータセンター、ハイパフォーマンスコンピューティング、そして組み込み環境に高バンド幅と低レイテンシーをもたらし、最高レベルのパフォーマンスを実現するファブリックソリューションを提供します。InfiniBandとは? メラノックスの10Gb/s、20Gb/s、40Gb/s、そして56Gb/sの超高速転送を実現する最新のInfiniBandアダプタ/スイッチ製品は、エンタープライズデータセンター、ハイパフォーマンスコンピューティング、そして組み込み環境に高バンド幅と低レイテンシーをもたらし、最高レベルのパフォーマンスを実現するファブリックソリューションを提供します。 InfiniBandは、米IBTA(Infi

            • 40Gbps Ethernet(Mellanoxさん) + 100~200万IOPS Storage(Violin Memoryさん) + Windows Server というストレージOSとHyper-V ~Interopで私を本気にさせた2つのシナリオ② | Blogs - 高添はここにいます - Site Home - TechNet Blo

              InteropのMellanoxさんのブースにて15分のミニセッションを担当させていただきました。 そして、ちょうど私の後にお話をされていた Violin Memoryさんと共にこれからの3社の可能性について考えることができました。 シナリオとして簡単に解説しておきましょう。 ーーーーーー データセンター基盤としての Windows Server あれっと思われるかもしれませんが、Windows Server は Azure のために進化したクラウド用のプラットフォームとなりました Windows Server も Hyper-V も、データセンター利用に十分な機能と性能を発揮します Microsoft の Datacenter の規模感を知りたい方はこちらをご覧ください。 https://www.youtube.com/watch?v=8Kyoj3bKepY 操作性も、ドライバー入手の容

                40Gbps Ethernet(Mellanoxさん) + 100~200万IOPS Storage(Violin Memoryさん) + Windows Server というストレージOSとHyper-V ~Interopで私を本気にさせた2つのシナリオ② | Blogs - 高添はここにいます - Site Home - TechNet Blo
              • HPCシステムズ HPC Do It Yourself Clubへ

                OpenMPIをInfiniBand用にconfigureとmakeし、 通信速度を計測する (過去のOpenMPIの記事はコチラ、過去のInfiniBandの記事はコチラ) (FDR Infinibandでの性能評価はコチラ) 2台以上のコンピュータを使って並列計算を行っても、思ったほど計算時間が短縮されない場合、コンピュータ間の通信速度がボトルネックになっている可能性がある。コンピュータ間の通信は、標準実装のGigabitEthernetを使うと、通信速度は最大で毎秒125Mバイトだが、QDR(Quad Data Rate) InfiniBandカードを追加することにより、最大で毎秒4000Mバイトと、32倍高速な通信が実現できる(もっと高速なFDR InfiniBandもある)。これをやろうとした場合、カードの追加やケーブルの接続などのハードウェア設定の他に、InfiniBandのド

                • 【InfiniBandの現在】SDRの2.5GT/secに加え、DDRの5GT/secとQDRの10GT/secを2004年に追加サポート【ネット新技術】

                    【InfiniBandの現在】SDRの2.5GT/secに加え、DDRの5GT/secとQDRの10GT/secを2004年に追加サポート【ネット新技術】
                  • 【InfiniBandの現在】DRAMサポートを追加した「OpenCAPI 3.1」、メモリインターフェース統合を考慮も、Gen-Z競合にはなり得ず?【ネット新技術】

                      【InfiniBandの現在】DRAMサポートを追加した「OpenCAPI 3.1」、メモリインターフェース統合を考慮も、Gen-Z競合にはなり得ず?【ネット新技術】
                    • RDMAmojo

                      Open discussion on RDMAmojo future Hi all. In the last few years - I wrote and maintained this blog. I supported hundreds of RDMA developers in the blog (and using...

                      • 爆発研究所、Infinibandを活用したGPU並列計算システムを発表 | エンタープライズ | マイコミジャーナル

                        爆発研究所は5月28日、複数GPUで実行する際のスケーラビリティの高いGPU並列計算システム「Red and Black」と、「ZEBRA」の販売を開始したことを発表した。 「Red and Black」(左)と「ZEBRA」(右) GPUコンピューティングは、CPUでの演算に比べ高い性能を実現できる手法として期待が高まっているが、複数GPうを用いた場合、PCI Expressやノード間ネットワークの通信帯域がボトルネックとなり、GPUの台数に応じたリニアな性能を出せない課題があった。 2システムはともに、東京工業大学青木尊之教授の提案によるマルチGPU計算に最適化したGPUクラスターコンセプト「1ノード当たり1GPU、ネットワークはInfiniband」を踏襲することで高い性能を実現。アクリルラックの質感で包むことで、性能だけでなく、見た目も意識したGPU並列計算システムを開発した。 爆

                        • 伊勢雅英のInfiniBand探検隊 - 【中編】HPCCで高いパフォーマンスを発揮するInfiniBand

                          現在、InfiniBandの魅力を引き出せる用途として最も注目されているのが、HPCC(High Performance Computing Clusters)やデータセンター内のクラスタシステムである。今回は、InfiniBandの技術的な側面を織り交ぜつつ、InfiniBandとHPCCの親和性について解説していく。 ■ サーバー外部にも広帯域の信号経路を提供するInfiniBand InfiniBandの利点には、信号帯域幅が広いこと、レイテンシが短いこと、ホストCPU(サーバーに搭載されるCPU)のオーバーヘッドが少ないことなどが挙げられる。そして、“Bandwidth Out of the Box”というInfiniBandの基本コンセプトが重要な意味を持つ。Bandwidth Out of the Boxとは、サーバーの外部エリアにも広帯域の信号経路を提供するコンセプトである。

                          • インサイトテクノロジー、InfiniBand/SSDでデータ転送を高速化したDB専用機を出荷

                            インサイトテクノロジーは2012年3月2日、大容量データを高速に分析するためのデータベース専用サーバー機「IQ」(写真)を出荷した。SSDとInfiniBandを採用したアーキテクチャーによって、ストレージI/O性能を高め、ビッグデータ市場に売り込む。データベースソフトは含まず、任意のDBMS(データベース管理システム)ソフトをインストールして利用する。 IQは、DBMS専用に設計したクラスタリング構成のPCサーバー機である。構成要素は大きく三つある。(1)DBMSをインストールするDBサーバー(最小1台から)、(2)ストレージサーバー(最小5台から)、(3)DBMSとストレージサーバーを接続するInfiniBandスイッチ、である。ストレージサーバーはドライブとサーバー部で構成されており、DBサーバーからはLinuxのボリュームとして利用できる。 特徴は、ストレージI/O性能を高めたこと

                              インサイトテクノロジー、InfiniBand/SSDでデータ転送を高速化したDB専用機を出荷
                            • Hot Chips 27 - InfiniBand HCAを内蔵したOracleのSonomaプロセサ(1) 第4世代のS4 SPARCコアを8個搭載するOracleの「Sonoma」

                              Sonomaを発表し、Q&Aに対応するOracleのBasant Vinaik氏(右)とRahoul Puri氏(左) 2014年のHot ChipsでOracleが発表したハイエンドサーバ向けの「M7プロセサ」では、DIMMの接続には専用のインタフェースチップを使い、InfiniBand(IB)はPCIeを出すI/O Hubチップを経由し、さらにIB NIC(Network Interface Card)を必要とする。これに対してSonomaはDIMMやIBケーブルをCPUに直結でき、コンパクト、低コストにスケールアウト型のサーバを作れるというのがうたい文句である。 SonomaではInfiniBandのHCAを内蔵 SonomaはM7プロセサと同じ第4世代のS4 SPARCコアを、8個搭載するチップである。セキュリティやデータベースの加速機構をハードウェアに組み込んでいるのもM7と同じ

                                Hot Chips 27 - InfiniBand HCAを内蔵したOracleのSonomaプロセサ(1) 第4世代のS4 SPARCコアを8個搭載するOracleの「Sonoma」
                              • InfiniBand のソフトウェアスタックの位置づけ

                                このページでは InfiniBand のソフトウェアスタックの位置づけを紹介する。 以下は関連ページ。 InfiniBand プログラムの覚え書きのインデックス 更新履歴 (2014.04.25) 作成。 (2014.04.26) RDMA CM の説明を追加 (2014.05.11) API にリンクを貼る 目次 1. 概要 2. Upper Level Protocol (ULP) 2.1 User Verbs 2.2 IP over InfiniBand (IPoIB) 2.3 RDMA Communication Manager(CM) コメント 1. 概要 InfiniBand のネイティブ API は InfiniBand Verbs と呼ばれる。 Verbs は動詞を意味する verb から来ている。 InfiniBand 仕様の中で、API のようにガッチリした規約を作らず

                                • Oracle RACの弱点を克服する infinibandを使ったクラスターテクノロジー

                                  1. Oracle RACの弱点を克服する Infinibandを使ったクラスターテクノロジー - Super RACへの道 - 株式会社インサイトテクノロジー エンジニアリング本部 テクノロジーコンサルティング部 平間 大輔 Copyright © 2011 Insight Technology, Inc. All Rights Reserved. 1 2. 1. RACでデータウェアハウス 2. Super RACの構成 3. Super RACの転送速度 4. TPC-Hとは 5. TPC-Hの測定結果 Copyright © 2011 Insight Technology, Inc. All Rights Reserved. 2

                                    Oracle RACの弱点を克服する infinibandを使ったクラスターテクノロジー
                                  • dfltweb1.onamae.com – このドメインはお名前.comで取得されています。

                                    このドメインは お名前.com から取得されました。 お名前.com は GMOインターネットグループ(株) が運営する国内シェアNo.1のドメイン登録サービスです。 ※表示価格は、全て税込です。 ※サービス品質維持のため、一時的に対象となる料金へ一定割合の「サービス維持調整費」を加算させていただきます。 ※1 「国内シェア」は、ICANN(インターネットのドメイン名などの資源を管理する非営利団体)の公表数値をもとに集計。gTLDが集計の対象。 日本のドメイン登録業者(レジストラ)(「ICANNがレジストラとして認定した企業」一覧(InterNIC提供)内に「Japan」の記載があるもの)を対象。 レジストラ「GMO Internet Group, Inc. d/b/a Onamae.com」のシェア値を集計。 2023年5月時点の調査。

                                    • InfiniBandって何??! | Insight Technology, Inc.

                                      「*」印の項目は、入力必須項目となります 貴社名* お名前* メールアドレス*フリーメールのアドレスは使用できません お電話番号 お問い合わせの製品・サービス お問い合わせ内容 画像に表示された文字列を入力してください

                                      • 日本オラクルの「HP Oracle Exadata Storage Server」

                                        Smart ScanはExadata Storage Serverで動作する、Exadata Storage Server Softwareの機能の一つ。ストレージ側で検索を終えるので、データベース・サーバーとストレージ間のデータ通信量を最小限に抑えることができる。 通常の全件検索では、データベース・ソフトが全件のデータをストレージから読み込む。この時間を短縮する。 データベース・サーバーとストレージ間の通信速度も向上させた。14ギガバイト/秒のInfini Bandを使うことで、ストレージへのアクセス速度を向上させた。 さらに複数の検索処理を並列的に実行できるようにディスクを配置する、超並列アーキテクチャを採用。Exadata Storage Serverに搭載した12基のディスクドライブに、検索処理を分散することで高速化を図る。 どのようなシステムでも、データ容量が増えれば検索速度は遅

                                          日本オラクルの「HP Oracle Exadata Storage Server」
                                        • Use of InfiniBand in cloud impementation

                                          Sakura Cloud is a service developed and released in 2011. We use InfiniBand, witch is rare as an Internet service and it is used for connection between server and storage. In this presentation, we will briefly introduce the configuration of the system and explain the reasons and usage if InfiniBand. We are going to introduce operational comparisons and meris demerits with the services provided by

                                            Use of InfiniBand in cloud impementation
                                          • InfiniBandと10GbE,勝つのはどっち?

                                            2006年6月15日,日本ヒューレット・パッカードと富士通が相次いでブレード・サーバー関連製品を発表した。日本HPの発表会場で記者の興味を引いたのは,2006年下半期に出荷を予定するInfiniBandスイッチである。一方,記者は発表会に行けなかったが,同僚の記事を読むと,富士通の発表の目玉は10Gビット・イーサネット(10GbE)スイッチであったらしい。ここで記者はふと思った。InfiniBandと10GbEはどちらが主流になるのだろうか,と。 「10GbEがInfiniBandを置き換える」というシナリオを描いていたのが富士通である。1年前の2005年4月8日,記者は富士通研究所を訪れる機会があった。富士通研究所は「ALL-IP」化構想を掲げており,InfiniBandなどを用いるサーバー間インターコネクト分野やFibreChannelを用いるSAN(Storage Area Netw

                                              InfiniBandと10GbE,勝つのはどっち?
                                            • Mellanoxのインタコネクトテクノロジを読み解く - SC19

                                              HPC(High Performance Computing)の分野では計算ノード間の通信を担うインタコネクトの重要性が増している。HPCの高性能化から、接続する計算ノードの数が増えてきており、それに伴い通信遅延の低減が重要になってきている。 SC19においてInfiniBandを使うIn Networkコンピューティングについて発表するMellanoxのGilad Shainer氏 スパコンインタコネクトの定番、MellanoxのInfiniBand MellanoxのInfiniBandはスパコンのインタコネクトの定番となっており、Top500 1位のOak Ridge国立研究所のSummit、2位のLawrence Livermore国立研究所のSierra、3位の中国の無錫スパコンセンターの神威・太湖之光、5位のTexas Advanced Computing CenterのFro

                                                Mellanoxのインタコネクトテクノロジを読み解く - SC19
                                              • InfiniBand - InfiniBand.JP/Wiki

                                                InfiniBandについて InfiniBandでは、HCAの搭載されたホストをInfiniBandスイッチを経由して相互に接続させ、ファブリックを構成します。構成したファブリック内でサブネットマネージャを動作させると自動的にサブネットが形成され、各HCAにLIDが割り当てられてInfiniBandスイッチにフォワーディングテーブルが作られます。これにより、サブネット内でのLIDルーティングによる非常に遅延の小さな通信が可能になります。 概要 広帯域 ロードマップ SDR - 1レーン2.5Gbps DDR - 1レーン5Gbps, 2006年提供開始 QDR - 1レーン10Gbps, 2009年提供開始 EDR(1レーン20Gbps) HDR(1レーン40Gbps)へと進化する予定です。 レーンを1X, 4X, 8X, 12Xと束ねて使うことができ、一般的に4X接続がHCA(ホストチ

                                                • Mellanox本社エグゼクティブ・インタビュー【前編】~最新のソフトウェアソリューション

                                                  • DAT Collaborative

                                                    datWelcome to the DAT Collaborative The DAT Collaborative is an industry group that was created to define and submit for standardization a set of transport-independent, platform-independent Application Programming Interfaces that exploit the RDMA (remote direct memory access) capabilities of next-generation interconnect technologies such as InfiniBand, and iWARP. Standard RDMA-capable interconnec

                                                    • Oracle

                                                      Oracle DatabaseWorld の全セッション動画が日本語字幕付きにて視聴いただけます。自然言語による問合せ、AIベクトル検索、True Cache, JSON Duality, OCI GoldenGate Stream, GoldenGate 23ai, SQL Firewall, 23aiの高可用性、など様々なトピックを扱っています。

                                                      • Infinibandの性能ベンチマーク~GPU Direct™を実行してみる~|GPUならNTTPC|NVIDIAエリートパートナー

                                                        今回は、Infinibandの通信におけるベンチマーク方法を紹介します。 特に、Infiniband経由でGPU Direct™を実行した場合のパフォーマンスについて調査します! 内容がちょっとマニアックかも知れませんが、イメージだけでも掴んでもらえればと思います。 構成 サーバー 筐体 :Supermicro® SYS-4028GR-TRT2 GPU :NVIDIA® Tesla® V100 16GB Infiniband HCA ( Host Channel Adapter ) :Mellanox MCX353A-FCBT ( Connect X-3 VPI ) OS / ソフトウェア OS :Ubuntu 16.04.4 LTS ベンチマークソフトウェア :OSU Micro-Benchmarks 5.4.3 MPI ( 並列コンピューティング実行環境 ) :OpenMPI 2.1.

                                                          Infinibandの性能ベンチマーク~GPU Direct™を実行してみる~|GPUならNTTPC|NVIDIAエリートパートナー
                                                        • ニューテック、リード性能10万IOPSを実現可能な高速InfiniBandストレージを販売

                                                          • 図解でわかる!インフィニバンド豆知識 - 半導体事業 - マクニカ

                                                            1. はじめに インフィニバンドとは? IBTA ( InfiniBand Trade Association ) で定義されているオープンスタンダードなインターコネクト・プロトコルです。 インフィニバンドソフトウェアは OpenFabrics Alliance の元で開発され、複数のベンダーがこの団体に所属しています。 プロトコルの 3つの特徴 1. 広帯域  2. 低レイテンシ  3. 高い RAS (信頼性・可用性・保守性) サーバ・ストレージ間の高速 I/O インターコネクトとして主に HPC/ エンタープライスデータセンタ /高い画像処理能力を必要とする医療機器や検査装置などで使用されています。 2. インフィニバンドのアーキテクチャ層 【アッパーレイヤ層】 ・信号レベルと周波数、物理媒体、コネクタ ・アプリケーション、H/W間のインターフェース ・管理機能の提供 【トランスポー

                                                              図解でわかる!インフィニバンド豆知識 - 半導体事業 - マクニカ