並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 5 件 / 5件

新着順 人気順

RDMAの検索結果1 - 5 件 / 5件

  • [速報]Oracle Database@AWSは12月から利用可能に、AWS CEOが基調講演に登場。Oracle CloudWorld 2024

    [速報]Oracle Database@AWSは12月から利用可能に、AWS CEOが基調講演に登場。Oracle CloudWorld 2024 米オラクルの年次イベント「Oracle CloudWorld 2024」がラスベガスで開幕しました。 1日目の基調講演に登壇した同社創業者兼CTOのラリー・エリソン氏は昨日発表した、AWS上にOracle Cloudのインフラを持ち込み、そこでOracle Databaseを稼働させる「Oracle Database@AWS」がAWSで12月から利用可能になることを明らかにしました。 Oracle Database@AWSは昨日発表され、今年(2024年)後半にプレビュー版が提供されると説明されているため、12月から利用可能になるのはプレビュー版と見られます。 「Oracle Cloud Infrastructureのデータベース、クラスタ、ハ

      [速報]Oracle Database@AWSは12月から利用可能に、AWS CEOが基調講演に登場。Oracle CloudWorld 2024
    • SPDK~高速化技術とクラウド 第9回~ | 技術畑 | 情報畑でつかまえて

      NTTテクノクロスの山下です。データセンターやクラウド環境において、ストレージパフォーマンスは非常に重要な要素です。特に、低レイテンシと高スループットが求められるアプリケーションにおいては、従来のストレージアクセス方法では限界があります。そこで登場するのが、SPDK(Storage Performance Development Kit)とRDMA(Remote Direct Memory Access)です。本記事では、SPDKの基本や利点について詳しく解説します。RDMAの基本については第7回連載と第8回連載をご覧ください。

      • 大規模AI学習に欠かせないRDMA、メモリー間直結で性能10倍に

        RDMA(Remote Direct Memory Access)は、サーバーのメモリー間で直接データをやり取りする技術だ。アプリケーションが使うデータの送受信にOSを介さないため、高スループット・低遅延で処理できる。 IPプロトコルでデータを送受信する場合、通常はアプリケーションのプロセスがOSカーネルを呼び出し、OSカーネルがソケットを作ったり、メモリーにデータをコピーしたりといった処理が必要だ。データの転送に逐一OSを介しているために処理が遅くなり、性能のボトルネックになる恐れがある。今日、大規模な演算を行うシステムが増えた。とりわけ生成AI(人工知能)の学習プロセスでは、数万規模のGPU(画像処理半導体)を使用することもある。RDMAをここに適用すれば、従前の課題が解決し得る。 RDMAはサーバー間を接続するネットワークプロトコルとして実装される。HPC(High Performa

          大規模AI学習に欠かせないRDMA、メモリー間直結で性能10倍に
        • GPUDirect Storage (GDS) 設定パラメータの解説

          LLMの学習等でストレージアクセスのパフォーマンスを上げたいって人が多い気がしますが、GPUDirect Storage (GDS) 設定パラメータの解説記事がNVIDIAのマニュアルしか見かけなかったので補足資料として記事を作成します。 cufile.json設定ファイルは、GPUDirect Storage (GDS)におけるI/O操作の詳細な構成を管理するためのものです。以下に、各セクションの詳細な解説を示します。 ※cufile.jsonファイルは/etc/cufile.jsonに配置します。 ※基本的にはデフォルト値のままで良い場合が多いです。 1. logging dir: ログファイルの保存ディレクトリ。指定しない場合、カレントディレクトリにログが生成されます。 level: (default = ERROR)ログの出力レベルを制御。ERRORはエラーメッセージのみ記録します

            GPUDirect Storage (GDS) 設定パラメータの解説
          • 生成AI/LLMの開発を加速するGPUクラスタ Vol.1【後編】インターコネクトのトポロジーとシステム構成|トレンドコラム|GPUサーバープラットフォームの設計/構築なら「技術力」のNTTPC

            帯域をフルに使えるspine-leaf型ネットワーク 前編では、生成AI/LLM(大規模言語モデル)の開発に関して、次の二点を説明しました。 数百GB以上に及ぶ大規模言語モデル全体がGPUのVRAMに収まるように、マルチノード化によってVRAMの総容量を増やす必要がある 性能を律速する要因のひとつになり得るGPU間のインターコネクトには、RDMA(GPUDirect)がサポートされオーバーヘッドの小さいInfiniBandが最適と考えられる 最初にネットワークトポロジーを取り上げます。マルチノードGPUシステムでは、あるノードとあるノードとの通信が他のノード間通信の帯域を制約しないように、ノンブロッキングの「スパインリーフ(spine-leaf)型ネットワーク」で構成します。 図1に、spine-leafの構成例を示します。 リーフの1/2の台数をスパインに配置します(この例では4台:2台

              生成AI/LLMの開発を加速するGPUクラスタ Vol.1【後編】インターコネクトのトポロジーとシステム構成|トレンドコラム|GPUサーバープラットフォームの設計/構築なら「技術力」のNTTPC
            1