並び順

ブックマーク数

期間指定

  • から
  • まで

41 - 80 件 / 149件

新着順 人気順

Infinibandの検索結果41 - 80 件 / 149件

  • 【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】

      【InfiniBandの現在】RDMAでパケットを高速転送する「SDP」、これをiSCSIで実現する「iSER」【ネット新技術】
    • 【Windows Server 2012研究所】 Windows Server 2012の持つ最新のネットワークテクノロジ

      • オラクル、WANをSDN化するCorenteを買収。オンプレミスとクラウドをシームレスに接続

        米オラクルはWAN向けにSoftware-Defined Networkingのソリューションを提供する企業Corenteの買収を発表しました。 CorenteはSoftware-Defined Networkingの技術を用いて、パブリッククラウドとオンプレミスなどをシームレスに接続するソリューションなどを提供している企業です。 オラクルはこの買収によって、企業のデータセンターとクラウドの接続性を高め、迅速にサービスを展開できるとしてます。プレスリリースから引用しましょう。 Together, Corente and Oracle are expected to deliver a complete technology portfolio for cloud deployments with SDN offerings that virtualize both the enterpri

          オラクル、WANをSDN化するCorenteを買収。オンプレミスとクラウドをシームレスに接続
        • はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知

          はてなグループの終了日を2020年1月31日(金)に決定しました 以下のエントリの通り、今年末を目処にはてなグループを終了予定である旨をお知らせしておりました。 2019年末を目処に、はてなグループの提供を終了する予定です - はてなグループ日記 このたび、正式に終了日を決定いたしましたので、以下の通りご確認ください。 終了日: 2020年1月31日(金) エクスポート希望申請期限:2020年1月31日(金) 終了日以降は、はてなグループの閲覧および投稿は行えません。日記のエクスポートが必要な方は以下の記事にしたがって手続きをしてください。 はてなグループに投稿された日記データのエクスポートについて - はてなグループ日記 ご利用のみなさまにはご迷惑をおかけいたしますが、どうぞよろしくお願いいたします。 2020-06-25 追記 はてなグループ日記のエクスポートデータは2020年2月28

            はてなグループの終了日を2020年1月31日(金)に決定しました - はてなの告知
          • B21 DBエンジニアのための最新HW講座 (Deep Insight About Database and Hardware) by Masaya Ishikawa

            この資料は「db tech showcase 東京 2014」と言うテクニカルイベントにて、弊社の新しいOracle DBシステムの構成について発表した際のものです。 【イベントの概要】 ■イベント名 db tech showcase 東京 2014 ■主催 株式会社 インサイトテクノロジー ■イベントURL http://www.insight-tec.com/dbts-tokyo-2014.html 【セッションの概要】 ■日時 2014/11/13(木) 16:00 - 16:50 ■タイトル C36:Oracle [Yahoo] 目指せExadata!! Oracle DB高速化を目指した構成 ■概要 ExadataはストレージデバイスにSSD、ノード間通信、ストレージ間通信にInfiniBand、そしてストレージノード側に独自のシステム Exadata Smart Scanを搭載

              B21 DBエンジニアのための最新HW講座 (Deep Insight About Database and Hardware) by Masaya Ishikawa
            • Windows Server 2012 R2 のネットワークの注意事項 - InfiniBand - 仮想化でプリセールスしてるSEの一日

              SR-IOV (1) (2) (3) (4) InfiniBand (1) SMB Multichannel (1) (2) (3) ここ半年くらい、いくつかのメディアや書籍で Windows Server 2012 R2 や Hyper-V の記事を書かせていただきました。 その中でも、Windows や Hyper-V 環境での「ネットワーク」の記事が特に好評いただいているようです。ありがとうございます。 Windows Server 2012 R2 時代の Hyper-V サーバ設計術 - @IT Windows Server 2012 R2 の NIC チーミング機能 (LBFO) をマスターする - @IT Windows Server 2012 R2 Hyper-Vシステム設計ガイド(日本マイクロソフト株式会社 高添修 ほか、インプレスジャパン) "教科書どおり" の内容なら

                Windows Server 2012 R2 のネットワークの注意事項 - InfiniBand - 仮想化でプリセールスしてるSEの一日
              • 【InfiniBandの現在】汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?【ネット新技術】

                  【InfiniBandの現在】汎用的なInterconnectへ進化しつつあるInfiniBandの成り立ちは?【ネット新技術】
                • I/O仮想化技術の詳細

                  I/O仮想化とほかの仮想化技術との違い 仮想I/Oは、サーバーのI/Oニーズに合わせて設計されています。サーバー仮想化やストレージ仮想化と競合することはなく、これらの仮想化を補完する位置づけにあります。仮想化されたサーバー・リソースやストレージ・リソースを自由自在に接続する役目を果たします。 I/O仮想化は、サーバー仮想化ではありません 仮想I/Oは、アプリケーションやOS、サーバー仮想化ソフト(ハイパーバイザ)に対して、I/O接続(ネットワークとストレージへの接続)機能を提供するものであり、サーバーを仮想化するものではありません。 I/O仮想化は、ストレージ仮想化ではありません 仮想I/Oは、従来のHBA(Host Bus Adapter)とまったく同じ方法で、ストレージをサーバーに接続します。複数のディスクやストレージを束ねて仮想化するものではありません。 サーバー仮想化は、1台の物理

                  • SMB Direct (SMB over RDMA) - Simple is Beautiful

                    Windows Server 2012で一番面白そうに感じる機能が、SMB over Remote Direct Memory Access (RDMA) まわり。Hyper-Vにしろ、SQLにしろ、SMBの下回りとしてRDMAを使おうという実装がとても次世代的(^_^;)。ファイルシステムとしての実装なので、アプリケーション側には一切の変更・対応が必要ない、という点がよい。 対応ネットワークについては、現時点ではInfinibandが最も普及したハードウェア要件かもしれないが、次第にiWARPやRoCEもサーバ用インターフェイスとしては普及が進み、RDMAがサーバ用途の通信における下回りとしてSMBのみならずNFSやiSER (iSCSI Extentions for RDMA)などが実用化されていくと面白くなるのではないかと思う。 Microsoftがここで公開している資料(PDF)で

                      SMB Direct (SMB over RDMA) - Simple is Beautiful
                    • 松岡先生(@ProfMatsuoka、東工大)によるTSUBAMEのネットワーク構成の得失について

                      松岡先生(@ProfMatsuoka、東工大)による、MellanoxのVoltaire買収の話題から、TSUBAMEと地球シミュレータのネットワーク構成の得失についての連続Tweetのまとめ 順に読んでいたら思いの外長かったので思わずまとめました。

                        松岡先生(@ProfMatsuoka、東工大)によるTSUBAMEのネットワーク構成の得失について
                      • 伊勢雅英のInfiniBand探検隊 - 【前編】InfiniBandっていったい何?

                        大手IT企業のサポートによって、華々しくデビューを飾った超高速インターフェイス規格「InfiniBand」。しかし、InfiniBandの最大かつ最強のサポーターだったIntelがInfiniBand用チップの市場から撤退することを発表し、それに追い打ちをかけるかのようにMicrosoftはWindows Server 2003でInfiniBandをネイティブサポートしないことを発表した。こうした理由から、メディア関係者の多くは、InfiniBandから次第に距離を置くようになった。 筆者は、そんなメディア関係者に不人気のテクノロジを追うのが趣味なのだが(笑)、最近InfiniBandについていろいろと調べてみたところ、実は地味ながらも着実に頑張っていることが分かった。だったら、もう一度InfiniBandに光を与えてやろうではないか。ということで、エンタープライズシステムの視点から見た

                        • star76.jp | whats in my mind ,good news ,bad news – whimsical blog

                          whats in my mind ,good news ,bad news – whimsical blog Google Compute Engine(GCE) は、Google Cloud Platform のコンピューティングサービスで、Amazon Web Servicesでいうところの EC2に相当するサービスです。 GCEで作成したインスタンスからメールを送信してみたら、Connection timed out となって失敗したので、色々調べてみるとどうやらoutboundでPort25が遮断されているようでした。 (・∀・)♪ この記事は、CloudStack Advent Calendar 2014 の12/25分のエントリーです。   CloudStackは、Xen ServerやVMWare vSphere、Hyper-Vなど、さまざまなハイパーバイザに対応した仮想化基

                          • InfiniBand on Debian

                            Introduction to InfiniBand technology and its usage on Debian platform. Includes various examples of NAS/SAN over IB configuration (NFSoRDMA, SRP, and other standard IP and IPoIB based setups).

                              InfiniBand on Debian
                            • 【InfiniBandの現在】InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」【ネット新技術】

                                【InfiniBandの現在】InfiniBandで高性能を実現するMPIの仕様策定と、その実装「MPICH」【ネット新技術】
                              • [Clubscsk]HPC・AIプラットフォーム情報サイト SCSK株式会社

                                HPCシステムに必要な製品選定から技術支援、導入後の運用までSCSKが培ってきたHPC関連の最新情報をお届けするサイトです

                                • OpenStack環境でのSR-IOV活用法

                                  齊藤 秀喜(さいとう ひでき) / TwitterID: @saito_hideki 株式会社インターネットイニシアティブ - http://www.iij.ad.jp/ - プラットフォーム本部 システム基盤技術部 シニアエンジニア 日本OpenStackユーザ会 - http://openstack.jp/ whoami トピック ★仮想マシンの高性能化を目指して ➡ ネットワーク性能を向上させる手法 - SR-IOV ➡ OpenStackとSR-IOV ➡ SR-IOVの効果 ➡ 現状の課題と将来への期待 本セッションでは、OpenStack管理下の仮想マシンの ネットワーク性能を向上させる手段として SR-IOVを活用する手法について紹介します 高性能な仮想マシン? 本セッションでは、3つの性能指標のうちネットワーク性能 にフォーカスしてお話します (1) CPU性能/メモリサイ

                                  • dfltweb1.onamae.com – このドメインはお名前.comで取得されています。

                                    このドメインは お名前.com から取得されました。 お名前.com は GMOインターネットグループ(株) が運営する国内シェアNo.1のドメイン登録サービスです。 ※表示価格は、全て税込です。 ※サービス品質維持のため、一時的に対象となる料金へ一定割合の「サービス維持調整費」を加算させていただきます。 ※1 「国内シェア」は、ICANN(インターネットのドメイン名などの資源を管理する非営利団体)の公表数値をもとに集計。gTLDが集計の対象。 日本のドメイン登録業者(レジストラ)(「ICANNがレジストラとして認定した企業」一覧(InterNIC提供)内に「Japan」の記載があるもの)を対象。 レジストラ「GMO Internet Group, Inc. d/b/a Onamae.com」のシェア値を集計。 2023年5月時点の調査。

                                    • 米Intel、1億2500万ドルで米QLogicのInfiniBand事業を取得

                                      • 株式会社HPCソリューションズ ~ 技術情報 並列ファイルシステムについて Lustre GPFS Panasas GlusterFS Ceph OrangeFS

                                        並列ファイルシステム、或いは分散ファイルシステムと呼ばれるものが最近のPCクラスタでは標準となっています。 これらは複数のサーバ、複数のストレージデバイスを仮想的に1ボリューム化し、更に共有ファイルシステムとしてサービスすることが出来ます。 並列ファイルシステムは大規模システムのものと思いがちですが、計算ノードが数十台以下の小さなシステムでも大きなサイズのファイルを扱うプログラムでは絶大な効果を発揮します。 最近では選択肢が増えたこともあり、規模が小さければそれに合わせた低コストの並列ファイルシステムを作ることも容易になりました。 この解説では並列ファイルシステムの代表的なものとしてLustre、GPFS、GlusterFS、Panasas ActiveStorを紹介したいと思います。(※Panasas ActiveStorはサーバなどハードウェアを含むアプライアンス製品ですが、独自の並列

                                        • さくら、「高火力コンピューティング」を実現する大規模GPUクラスタを構築、ディープラーニングなど演算用途に特化

                                          • English

                                            HP Spectre Foldable PC Game-changing 3-in-1 device effortlessly switches between a laptop, tablet, and desktop for the ultimate hybrid lifestyle Read More

                                            • InfiniBand Trade Association

                                              InfiniBand Trade Association booklet. RDMA in the Enterprise Data Center provides a fresh look at I/O in the data center. An opportunity for participants to measure their products for compliance with the IBTA specifications and includes both InfiniBand™ and RoCE interoperability testing.

                                              • (Microsoft PowerPoint - 20101117-IBDAY02-itoh-1.0.ppt [\214\335\212\267\203\202\201[\203h])

                                                プログラマ目線から見たRDMAのメリットと その応用例について InfiniBand & Manycore Day 2010年11月17日 株式会社NTTデータ 技術開発本部 伊藤雅典 INDEX 00 自己紹介 01 概要とInfiniBand & Manycore Day における位置づけ 02 InfiniBandの「機能」概要 03 RDMA技術のメリット Copyright © 2010 NTT DATA CORPORATION 1 03 RDMA技術のメリット 04 RDMAの応用例(1):SDP 05 InfiniBandの応用例(1):vSMP 06 今後の予定(?) 07 まとめ 00 自己紹介 氏名 伊藤 雅典 (いとう まさのり) 所属 株式会社NTTデータ 技術開発本部 ITアーキテクチャ&セキュリティ技術センタ 担当業務 NTTデータの総合クラウドサービス Biz

                                                • データセンターカンファレンス基調対談_ネットワーク帯域を使いまくる

                                                  http://www.impressbm.co.jp/event/dcc2013summer/ ビッグデータが注目を集めているが、以前から相当量のデータを扱う分野がある。それは天文学である。 科学的成果の発見のため、国立天文台は大量の天文データを高速に処理するためのさまざまな研究開発を行っている。そうした取り組みの1つに、急速に処理性能が向上しているPCサーバー、ストレージデバイス、ネットワークデバイスを徹底的に活用し、廉価に100Gbpsを超える通信を処理するシステムの研究開発がある。 この研究開発では、天文学の発展はもとより、その汎用性を生かして、高性能で廉価なプライベートクラウドの構築と運用への応用も進めている。 本講演では、本開発に携わる国立天文台・天文データセンターの大江将史氏を交え、こうした分野のトレンドや課題、解決のポイントなどを対談形式で議論する。Read less

                                                    データセンターカンファレンス基調対談_ネットワーク帯域を使いまくる
                                                  • メラノックス、100Gbps InfiniBand製品のサンプル出荷を開始

                                                    • オラクル、Hadoop採用のビッグデ|データ・マネジメント|トピックス|Computerworld

                                                      オラクル、Hadoop採用のビッグデータ・アプライアンスを出荷 Hadoopシステムのノウハウに乏しい企業がターゲット 米国Oracleは1月10日、米国Clouderaとの提携により、オープンソースの分散並列処理フレームワーク「Apache Hadoop」をベースとするCloudera製品を採用したアプライアンス製品「Oracle Big Data Appliance」の出荷開始を発表した。 Oracleは、ソフトウェアとハードウェアを統合したアプライアンス製品ラインを「エンジニアード・システム」と銘打って展開しているが、Oracle Big Data Applianceはそれに属する新製品。Oracle Big Data Applianceには、Cloudera製品としてHadoopディストリビューション「Cloudera's Distribution Including Apache

                                                      • 【InfiniBandの現在】PCIeの処理オーバーヘッドを36分の1に、IBM独自の「CAPI」から「OpenCAPI」へ【ネット新技術】

                                                          【InfiniBandの現在】PCIeの処理オーバーヘッドを36分の1に、IBM独自の「CAPI」から「OpenCAPI」へ【ネット新技術】
                                                        • UbuntuでInfinibandクラスタを作る - Plan9日記

                                                          今までRedHat系Linux + OFEDパッケージでInfinibandを使うことが多かったが、Ubuntu 12.04 + 基本パッケージでどこまでできるかやってみた。InfiniBand HCAはMellanoxのConnectX-3。カーネルは3.5.0-23-genericで、ドライバ類はカーネル標準の物を利用する*1。 結論から言えば、基本的に基本パッケージだけでInfinibandが動く環境を作ることができる。ただし、Ubuntu 12.04に含まれるlibmlx4パッケージはConnectX-3に対応していないので、ここだけは12.10のパッケージを持ってきてしのいだ*2。したがって、12.04でも新しめのHCAを使わない場合や、12.10では何の問題もなく動くだろう。 まず、/etc/modulesにとりあえず必要そうなモジュールを追加して、それぞれをmodprobeし

                                                            UbuntuでInfinibandクラスタを作る - Plan9日記
                                                          • Infiniband HOWTO

                                                            Guy Coates This document describes how to install and configure the OFED infiniband software on Debian. 1. Introduction 1.1 The latest version 1.2 What is OFED? 2. Installing the OFED Software 2.1 Installing prebuilt packages 2.2 Building packages from source 3. Install the kernel modules 3.1 Building new kernel modules 4. Setting up a basic infiniband network 4.1 Upgrade your Infiniband card and

                                                            • OSC 2011 Tokyo/Fall 自宅SAN友の会 (Infinibandお試し編)

                                                              OSC 2011 Tokyo/Fall 自宅SAN友の会のセッション資料です。 Infinibandをお手軽に試してみました。Read less

                                                                OSC 2011 Tokyo/Fall 自宅SAN友の会 (Infinibandお試し編)
                                                              • Opinion Archives

                                                                Trusted Reviews is supported by its audience. If you purchase through links on our site, we may earn a commission. Learn more. Even though there were plenty of new products and features unveiled during yesterday’s Apple event, it was clear that the company wanted the focus to be on the M4-toting iPad Pro. Given just unbelievably powerful the device will be, this is fair, but I think that for the a

                                                                • GlusterFSとInfiniBandの小話

                                                                  Presentation for "InfiniBand DAY 05" on May 25th, 2012. http://atnd.org/events/28040

                                                                    GlusterFSとInfiniBandの小話
                                                                  • 100ギガに突入するInfiniBand

                                                                    出典:日経コンピュータ 2012年12月20日号 pp.134-135 (記事は執筆時の情報に基づいており、現在では異なる場合があります) サーバー間をつなぐネットワーク「InfiniBand」が100ギガビット/秒をうかがうまでに高速化してきた。垂直統合型システムなどで採用が進み、利用シーンはより広がりそうだ。同じ帯域幅のInfiniBandを使っても、通信プロトコルの違いでスピードに差が出る。ハードとソフトを組み合わせて、最適化することで実効速度は上がる。 様々なハードやソフトをあらかじめ組み合わせた垂直統合型システム。サーバー間をつなぐネットワーク(インターコネクト)として、InfiniBandの利用が進んでいる。米オラクルの「Oracle Exadata Database Machine」や「Oracle Exalogic Elastic Cloud」は自社製のInfiniBand

                                                                    • InfiniBand プログラムの覚え書きのインデックス

                                                                      メモ InfiniBand プログラム InfiniBand プログラムに必要な基本的な概念 ソフトスタックの位置づけ まず InfiniBand Verbs プログラムを作成してみよう QP ステートの遷移を理解する 各オペレーションを使ってみる 再送制御を理解する エラーハンドリングのモデルを理解する API リファレンス x86-64/Linux で動作するソフトウェアベースの InfiniBand ドライバ Pseudo InfiniBand HCA driver(pib) リンク 参考になるリンクをリストアップしておく。 InfiniBand Trade Association … Specification Download のページから仕様書が手に入る(フォームに入力が必要)。 以下は手に入る主な仕様書名。 InfiniBand Architecture Specificat

                                                                      • Docker コンテナで InfiniBand を動かす(性能も測定しました) - Qiita

                                                                        漢なら Docker(LXC) で InfiniBand を動かしてみたいですね! 一応すでに LXC で動いている論文がありますので [1], Docker でも実現してみましょう. 手順 環境 ホスト側: CentOS 6.5 コンテナ側: CentOS 6.5 と仮定して作業を進めます. もしかしたら Ubuntu12.04 or higher でもほぼ同じ手順でできるかもしれません. ホスト OS で IB(InfiniBand)が問題なく動いているとします. Docker で centos6 イメージを取得して IB 周りのパッケージを入れます. $ sudo docker pull centos $ sudo docker run -i -t centos /bin/bash # yum update # yum install infiniband-diags # その他 I

                                                                          Docker コンテナで InfiniBand を動かす(性能も測定しました) - Qiita
                                                                        • InfiniBandをPCIパススルーで用いるHPC仮想化クラスタの性能評価

                                                                          イベント名:オープンソースカンファレンス2010 Tokyo/Fall 講師:日本仮想化技術 大内 日時:2010/9/11 アジェンダ: • KVM仮想化時の仮想マシンネットワークの パフォーマンスについて調査 • vhost_netを有効にした際のパフォーマンス の変化について調査 概要: KVM仮想化をした際の仮想マシンのネットワークパフォーマンスについて測定した結果のレポートです。10Gb Ethernetのパフォーマンスチューニング、vhost_netについても解説しています。

                                                                            InfiniBandをPCIパススルーで用いるHPC仮想化クラスタの性能評価
                                                                          • Linux環境におけるRDMAの現状

                                                                            Linux環境におけるRDMAの現状 高畑 泰祐,廣安 知之,三木 光範 ISDL Report No.20060811008 2006年11月1日 Abstract ISDL Report No.20060811007ではRDMA (Remote Direct Memory Access) 技術の概要について触れ,Windows CCSでの利用について述べた. 本報告ではLinux OSでのRDMA対応について調査した.高速ネットワーク技術であるInfiniBandを用いたものでは対応が見られるが,Ethernetを利用したものや標準APIといったところではまだまだ開発段階である. 1 はじめに Windows OSでのRDMA (Remote Direct Memory Access) 対応については,ISDL Report No.20060811007での報告の通り,Winsock

                                                                            • High-Performance Big Data :: Home

                                                                              Overview Welcome to the High-Performance Big Data project created by the Network-Based Computing Laboratory of The Ohio State University. The HiBD packages are being used by more than 365 organizations worldwide in 39 countries (Current Users) to accelerate Big Data applications. As of Apr '24, more than 48,700 downloads have taken place from this project's site. The HiBD project contains the foll

                                                                              • 伊勢雅英のInfiniBand探検隊 − 【前編】InfiniBandっていったい何?

                                                                                大手IT企業のサポートによって、華々しくデビューを飾った超高速インターフェイス規格「InfiniBand」。しかし、InfiniBandの最大かつ最強のサポーターだったIntelがInfiniBand用チップの市場から撤退することを発表し、それに追い打ちをかけるかのようにMicrosoftはWindows Server 2003でInfiniBandをネイティブサポートしないことを発表した。こうした理由から、メディア関係者の多くは、InfiniBandから次第に距離を置くようになった。 筆者は、そんなメディア関係者に不人気のテクノロジを追うのが趣味なのだが(笑)、最近InfiniBandについていろいろと調べてみたところ、実は地味ながらも着実に頑張っていることが分かった。だったら、もう一度InfiniBandに光を与えてやろうではないか。ということで、エンタープライズシステムの視点から見た

                                                                                • 家庭向け(仮) 40GbE NIC 導入方法 | 自宅ラックエンジニアの活動ログ

                                                                                  家庭向け(仮) 40GbE NIC の入手比較的安価な家庭向けの 10 GbE NIC が 出荷され普及期を迎えつつある 10 GbE 環境市場ですが、100Base-TX や 1 GbE の普及を経験してきた世代にとっては何度も通ってきた流れと言えます。 今や、新品であっても 2万円程度の予算があれば、40 GbE NIC が手に入り、10万程度の予算があれば、100GbE環境が手に入るというのですから、自宅環境のアップグレードパスも明るいですね。 そして、今回、私の自宅にも 40 GbE 普及期がやってきました。 しかし、私が入手したのは、新品の 40 GbE NICではなく、中古になります。 ConnectX-3 InfiniBand HCA 40GbE Single Port FDR CA05954-2101 なお、某オークションでは、2枚で 5,000円 程度で調達可能です。 I

                                                                                    家庭向け(仮) 40GbE NIC 導入方法 | 自宅ラックエンジニアの活動ログ