エントリーの編集

エントリーの編集は全ユーザーに共通の機能です。
必ずガイドラインを一読の上ご利用ください。
NVIDIAの次世代AI GPU、Hopper H200とBlackwell B100にHBM3Eメモリを搭載!低消費電力で高い帯域幅を実現 #NVIDIA #HBM3E - ハオのガジェット工房
記事へのコメント0件
- 注目コメント
- 新着コメント
このエントリーにコメントしてみましょう。
注目コメント算出アルゴリズムの一部にLINEヤフー株式会社の「建設的コメント順位付けモデルAPI」を使用しています

- バナー広告なし
- ミュート機能あり
- ダークモード搭載
関連記事
NVIDIAの次世代AI GPU、Hopper H200とBlackwell B100にHBM3Eメモリを搭載!低消費電力で高い帯域幅を実現 #NVIDIA #HBM3E - ハオのガジェット工房
NVIDIA は、2024 年第 2 四半期までに発売予定の次世代 AI GPU である Hopper H200 および Blackwell B1... NVIDIA は、2024 年第 2 四半期までに発売予定の次世代 AI GPU である Hopper H200 および Blackwell B100 に、HBM3E メモリを搭載する予定です。HBM3E は、従来の HBM3 メモリよりも多くの帯域幅と低い消費電力を提供する、最新のメモリ技術です。 NVIDIA は、これらの次世代 AI GPU の需要が急増すると予想しており、競合他社よりも先行して、十分な在庫を確保することが重要であると考えています。そのため、SK ハイニックスやマイクロンなどに HBM3E メモリの膨大な在庫を発注し、約 7 億 7,500 万米ドルから 10 億米ドルの前払いを行っています。 このアプローチにより、NVIDIA は次世代 AI GPU の需要を満たすことができるようになります。また、HBM 業界全体に大きな後押しを与え、生産能力の拡大を促進する可能性