並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 2 件 / 2件

新着順 人気順

hpeの検索結果1 - 2 件 / 2件

  • 「オンプレミス回帰」が“もはや常識”になる、これだけの理由

    関連キーワード クラウドストレージ | オンプレミス | ストレージ 企業はクラウドサービスとオンプレミスインフラの価値を改めて比較し始めている。米TechTargetの調査部門Enterprise Strategy Group(ESG)がIT部門の意思決定者に聞き取りをした結果から、一部の企業はクラウドサービスからオンプレミスインフラに回帰している現状が明らかになった。企業のインフラ戦略は幾つかの変化や新たな動向を受けて、一変した。オンプレミスインフラへの回帰が加速する背景には何があるのか。 「オンプレミス回帰」がなぜ常識に? 何が起こっているのか 併せて読みたいお薦め記事 連載:オンプレミスインフラ再始動? 前編:「オンプレミス回帰」「オンプレミス復権」が“もはや常識”になる理由 オンプレミス回帰の波 「オンプレミス回帰」は本当に起きているのか“幻想”なのか? Red Hatが分析 ク

      「オンプレミス回帰」が“もはや常識”になる、これだけの理由
    • 産総研がAI用スパコン「ABCI」を刷新へ、新版はNVIDIA H200を6000基搭載

      産業技術総合研究所(産総研)は、AI(人工知能)用スーパーコンピューターである「ABCI(AI Bridging Cloud Infrastructure、AI橋渡しクラウド)」を刷新する。現在利用中の「ABCI 2.0」から「ABCI 3.0」にバージョンアップする予定だ。新版は米NVIDIA(エヌビディア)のGPU(画像処理半導体)である「NVIDIA H200 Tensor Core GPU」を搭載した米HPEのサーバー「HPE Cray XDシステム」を採用するという。 ABCI 3.0は、1つのサーバー(ノード)に8基のNVIDIA H200 Tensor Core GPUを搭載し、合計すると6000基に達するという。ノード間は「NVIDIA Quantum-2 InfiniBand」ネットワークで接続。演算処理性能は、FP16(半精度浮動小数点演算)で約6.2 EFLOPS(エ

        産総研がAI用スパコン「ABCI」を刷新へ、新版はNVIDIA H200を6000基搭載
      1