並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 12 件 / 12件

新着順 人気順

Infinibandの検索結果1 - 12 件 / 12件

  • 「AIを追い風に」 クラウド市場のゲームチェンジを狙うオラクルの戦略

    日本オラクルは2024年7月9日、2025年5月期の事業戦略説明会を開催した。取締役執行役社長の三澤智光氏が、グローバルを含めたOracleのクラウドビジネスの概況と、日本市場に対する重点施策を説明した。 急増する「専用クラウド」のニーズに応える 会見で三澤氏は、日本オラクルの2024事業年度重点施策として、「日本のためのクラウドを提供」「お客さまのためのAIを推進」の2つを掲げた。この2項目は、前年度と一字一句同じだ。 一般的に、次の年は何らか発展形のタイトルに変える。しかし三澤氏は、「この2つが実を結ぶには時間がかかる。昨年度の成果を、2024年は本格的に普及させる年だと認識している」と話し、日本オラクルの強みを生かしたクラウド推進をブレずに進める決意を表明した。 同社は2024年4月に国内の年次イベントを開催した。米国OracleのCEOであるサフラ・カッツ氏が来日し、日本市場に対し

      「AIを追い風に」 クラウド市場のゲームチェンジを狙うオラクルの戦略
    • 産総研がAI用スパコン「ABCI」を刷新へ、新版はNVIDIA H200を6000基搭載

      産業技術総合研究所(産総研)は、AI(人工知能)用スーパーコンピューターである「ABCI(AI Bridging Cloud Infrastructure、AI橋渡しクラウド)」を刷新する。現在利用中の「ABCI 2.0」から「ABCI 3.0」にバージョンアップする予定だ。新版は米NVIDIA(エヌビディア)のGPU(画像処理半導体)である「NVIDIA H200 Tensor Core GPU」を搭載した米HPEのサーバー「HPE Cray XDシステム」を採用するという。 ABCI 3.0は、1つのサーバー(ノード)に8基のNVIDIA H200 Tensor Core GPUを搭載し、合計すると6000基に達するという。ノード間は「NVIDIA Quantum-2 InfiniBand」ネットワークで接続。演算処理性能は、FP16(半精度浮動小数点演算)で約6.2 EFLOPS(エ

        産総研がAI用スパコン「ABCI」を刷新へ、新版はNVIDIA H200を6000基搭載
      • GPGPUのメモリアーキテクチャついて考えてみる - Ryuz's tech blog

        GDDR について もともとGPGPUはGPUであり、GPUはグラフィックスボードであります。 グラフィックスボードは、DVIとかHDMIとかDisplayPort を備え、60fps などで毎フレーム画像を生成&出力するものですが、そうするとゲームなどではその fps に対して、例えば 60fps であれば 16.6ms の時間で読みだせる分量だけのテクスチャなどを絵作りに使えることになります。昨今ではマルチパスレンダリングも当たり前に行われていますので、1枚の絵を作るためにメモリ上での描画作業は何度も繰り返されます。 つまり1枚の絵を、より高精細で複雑にしようとするととにもかくにも大量のバス帯域が無いとはじまりません。 逆に、1フレーム時間で読みだせない容量があっても、それは別のシーンの描画の為の準備的なデータを置いておくことにしか使えませんので、やはり容量より帯域が優先されがちです。

          GPGPUのメモリアーキテクチャついて考えてみる - Ryuz's tech blog
        • AIで論文を読む: The Llama 3 Herd of Models - 七誌の開発日記

          Llama 3.1 と同時に公開されたペーパーを Gemini 1.5 Pro に読み込ませて、質問しました。 The Llama 3 Herd of Models | Research - AI at Meta 【注意】AI の説明には誤りが含まれる可能性があり、正確さは保証できません。詳細は原論文を確認してください。 目次 要約 Abstract (日本語訳) 章構成 1. はじめに (Introduction) 2. 概要 (General Overview) 3. 事前学習 (Pre-Training) 4. 事後学習 (Post-Training) 5. 結果 (Results) 6. 推論 (Inference) 7. 視覚実験 (Vision Experiments) 8. 音声実験 (Speech Experiments) 9. 関連研究 (Related Work) 10

            AIで論文を読む: The Llama 3 Herd of Models - 七誌の開発日記
          • ジーデップ・アドバンス、NVIDIA DGX B200受注開始

            ジーデップ・アドバンスからの新製品発表AIとビジュアライゼーションのソリューションカンパニーである株式会社ジーデップ・アドバンスは、NVIDIA B200 GPU搭載GPUアプライアンスサーバー「NVIDIA DGX B200」の受注を開始します。 MICRODIA製品はヨドバシカメラ、ビックカメラ、ヤマダモール、auPAYマーケットでご購入いただけますSnapPad Visi-TRIOは、23WのMagSafeワイヤレス充電ステーション MICRODIAのiPhone15用保護ケース: 高品質で多機能な選択肢はこちら MICRODIAのウォールチャージャー(20W-200W)はこちら ヨドバシカメラ ビックカメラ ヤマダモール auPayマーケット PR 高性能なAIスーパーコンピューティングプラットフォームNVIDIA DGX B200は、AIモデルのトレーニング、ファインチューニング

              ジーデップ・アドバンス、NVIDIA DGX B200受注開始
            • Microsoft Cloud で切り拓く開発者のための次世代 AI: Microsoft Build Japan Day 1 Keynote - News Center Japan

              ※本ブログは、2024 年6 月 27 日に開催した Microsoft Build Japan における基調講演の内容を抜粋し、再構成したものです。 日本マイクロソフトは、2024 年 6 月 27 日 (木)〜28 日 (金) の 2 日間、国内開発者向けイベント「Microsoft Build Japan」を開催し、8,000 人を超える開発者が参加しました。1 日目の基調講演の内容を、お客様事例もあわせてご紹介します。 また、当日の基調講演模様を公式チャネルで公開していますので、ご覧ください。 日本マイクロソフト株式会社 代表取締役 社長 津坂 美樹 AI が社会にもたらすインパクトは周知の通りですが、経済産業省によると、AI の導入が進めば 2025 年には 34 兆円、GDPの 6% に当たる経済効果が見込まれるとしています。1 億人のユーザーになるまで携帯電話は 16 年、イ

                Microsoft Cloud で切り拓く開発者のための次世代 AI: Microsoft Build Japan Day 1 Keynote - News Center Japan
              • NVIDIAの次世代GPUが出荷遅延の可能性、クラウド事業者への影響は甚大

                米NVIDIA(エヌビディア)の次世代GPU(画像処理半導体)である「Blackwell」の量産出荷が、2025年春以降に遅れる恐れがある。米メディアのThe Informationが2024年8月2日(米国時間)に報じた。Blackwellに備えた巨大データセンターの建設を進めている大手クラウド事業者は、大きな影響を被りそうだ。 Blackwellはエヌビディアが2024年3月に発表した新しいGPUアーキテクチャーで、当初は2024年第4四半期(10~12月)に量産出荷が始まる予定だった。しかしThe Informationによれば、Blackwellには設計上の問題があり、テスト生産の段階での歩留まりが悪かったのだという。設計を修正し、新たなテスト生産を行うことになったため、それに伴い量産出荷も遅れる恐れがある。 Blackwellには、GPUコアだけを搭載する「B200」と「B100

                  NVIDIAの次世代GPUが出荷遅延の可能性、クラウド事業者への影響は甚大
                • AI開発を支えるGPUの性能をフルに生かせるネットワーク構築の重要ポイントとは

                  AI開発を支えるGPUの性能をフルに生かせるネットワーク構築の重要ポイントとは:ネットワーク帯域幅だけでは性能は出せない AI開発に不可欠となった「GPU」。GPUの性能をフルに活用し、膨大なデータを高速に処理するためにはGPUサーバ同士を結ぶ「ネットワーク技術」が重要になるという。では、どうすれば“GPUを生かせるネットワーク”を構築できるのか。そのポイントはどこにあるのか。 ネットワーク性能が大規模AI開発の効率を大きく左右するように 「ChatGPT」に代表される生成AI(人工知能)の登場は、今や人々の生活や働き方を大きく変えつつある。個人レベルで生成AIを日々の生活に有効活用する人が増えているのはもちろん、多くの企業や組織が既存のLLM(大規模言語モデル)を使ったサービス開発に取り組んでおり、中には自前で独自のLLMを構築したり、ファインチューニングに挑んだりしているケースも出てき

                    AI開発を支えるGPUの性能をフルに生かせるネットワーク構築の重要ポイントとは
                  • 産総研、生成AI開発力強化に向け次世代スパコン構築--HPEとNVIDIAが支援

                    印刷する メールで送る テキスト HTML 電子書籍 PDF ダウンロード テキスト 電子書籍 PDF クリップした記事をMyページから読むことができます ヒューレット・パッカード エンタープライズ(HPE)は7月11日、産業技術総合研究所(産総研)が、NVIDIAで強化された次世代AIスーパーコンピューター「AI橋渡しクラウド(ABCI 3.0)」を構築すると発表した。 HPEとNVIDIAは、同プロジェクトに「NVIDIA H200 Tensor コア GPU」を搭載した「HPE Cray XDシステム」を提供する。同スパコンは、NVIDIA Quantum-2 InfiniBandネットワークで相互接続され、半精度理論最高値約6.2 EFLOPSを達成する見込みだという。 産総研が2018年から提供するABCIクラウドスーパーコンピューティングサービスは、スタートアップから総合電機メ

                      産総研、生成AI開発力強化に向け次世代スパコン構築--HPEとNVIDIAが支援
                    • Handwriting

                      こんにちは。今年も大晦日ですね。id:dmingnに触発されて僕も今年聴いたアルバムの中からオススメのアルバム・曲を書こうかなと思いました。 dmingn.hatenablog.com 彼と同じようにあくまで「僕が今年初めて聴いた」アルバムを紹介するので、必ずしも「今年出た新譜」であるとは限りません(むしろそうじゃない方が多い)。 ちなみに今年自分で購入したCDの枚数は36枚でした。一ヶ月に3枚のペースなので、まあ消化するにはそんなもんかなというペースだと思います。 第8位より上はすべて円盤で持ってるので、借りたい人は声かけてもらえればと。 第9位: THE COMPLETE HISTORIC MOCAMBO SESSION '54 -- Shotaro Moriyasu 一発目から2016年どころか62年前のアルバムで恐縮だが、このジャズ黎明期において日本のジャズシーンでこれだけのハード

                        Handwriting
                      • Synology DiskStation DS1517+ NAS レビュー

                        Synology DiskStation DS1517+ は、暗号化と集中的なタスク向けに設計された 5 ベイ NAS です。 AES-NI ハードウェア暗号化エンジンを備えたクアッドコア 2.4 GHz CPU を搭載した DS1517+ には、クアッド 1GbE LAN ポートと最大 16 GB DDR3 RAM (デュアル チャネル) が装備されています。 Synology はまた、シーケンシャル読み取りと書き込みの速度がそれぞれ 1,165MB/s と 527.99MB/s であると述べており、50 つの DX150 拡張ユニットを介して 15 台のドライブを使用して 517TB から最大 XNUMXTB まで拡張できます。 Synology DiskStation DS1517+ は、暗号化と集中的なタスク向けに設計された 5 ベイ NAS です。 AES-NI ハードウェア暗号

                        • <NTTPC流>生成AI基盤のためのネットワーク構築術「イーサとInfiniBandを使い分け」|BUSINESS NETWORK

                          イーサネットかInfiniBandか──。生成AI開発の基盤構築に当たって多くのエンジニアが悩むのがこの問いだ。AI基盤構築を複数手掛けてきたNTTPCは、用途や環境に合わせた“使い分け”を勧める。 InfiniBandを選んだ理由 活況を呈するデータセンターインフラ市場のなかでも、特に成長著しく、新技術が台頭してきているのが生成AIの領域だ。GPUを核に構成されるLLM(大規模言語モデル)の開発基盤では、GPUサーバー間をつなぐインターコネクトネットワークに関しても、従来型データセンターのそれとはまったく異なる性能・機能が求められる。 こう聞くと、AI基盤のネットワーク設計・構築にはさぞかし時間がかかりそうだが、これまで複数の基盤構築を手掛けてきたNTTPCコミュニケーションズ 法人ビジネス推進本部 ビジネスデザイン部門 イノベーション部主査の大野泰弘氏によれば、「サーバーやスイッチ等の

                            <NTTPC流>生成AI基盤のためのネットワーク構築術「イーサとInfiniBandを使い分け」|BUSINESS NETWORK
                          1