並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 31 件 / 31件

新着順 人気順

HBMの検索結果1 - 31 件 / 31件

タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。

HBMに関するエントリは31件あります。 コンピュータGPUAI などが関連タグです。 人気エントリには 『NVIDIA、HBM3e搭載版GH200を発表。NVIDIA RTX Ada世代の追加SKUも投入』などがあります。
  • NVIDIA、HBM3e搭載版GH200を発表。NVIDIA RTX Ada世代の追加SKUも投入

      NVIDIA、HBM3e搭載版GH200を発表。NVIDIA RTX Ada世代の追加SKUも投入
    • 【福田昭のセミコン業界最前線】 AI時代に不可欠の「HBM」。容量も速度も飛躍したが、開発がさらに加速

        【福田昭のセミコン業界最前線】 AI時代に不可欠の「HBM」。容量も速度も飛躍したが、開発がさらに加速
      • AMD、288GB HBM3eメモリ搭載のAIアクセラレータ「Instinct MI325X」

          AMD、288GB HBM3eメモリ搭載のAIアクセラレータ「Instinct MI325X」
        • JEDEC、2倍の帯域幅を実現する「HBM3」

            JEDEC、2倍の帯域幅を実現する「HBM3」
          • Intel、HBMメモリ内蔵で大幅性能向上のHPC向けCPU/GPU

              Intel、HBMメモリ内蔵で大幅性能向上のHPC向けCPU/GPU
            • SK HynixがTSMCとの提携を発表、2026年に量産予定の次世代HBM4チップと高度なチップパッケージング技術の開発へ

              2024年4月19日、韓国の半導体サプライヤー「SK Hynix」が台湾の半導体ファウンドリ大手のTSMCと提携を結び、次世代高帯域幅メモリ(HBM)向けチップの製造や高度なチップパッケージング技術の開発で協力すると発表しました。 SK hynix Partners With TSMC to Strengthen HBM Leadership https://news.skhynix.com/sk-hynix-partners-with-tsmc-to-strengthen-hbm-technological-leadership/ SK Hynix and TSMC Team Up for HBM4 Development https://www.anandtech.com/show/21362/sk-hynix-and-tsmc-team-up-for-hbm4-memory-adva

                SK HynixがTSMCとの提携を発表、2026年に量産予定の次世代HBM4チップと高度なチップパッケージング技術の開発へ
              • Samsungの広帯域幅メモリー「HBM3」と「HBM3E」が熱と消費電力の問題でAIプロセッサ用のNVIDIAのテストに不合格

                第4世代High Bandwidth Memory(HBM)である「HBM3」と第5世代の「HBM3E」としてSamsungが製造したDRAMが、発熱などの問題によりNVIDIAのAIチップでの使用に堪えないとのテスト結果が出ていると、ロイターが報じました。 Exclusive: Samsung's HBM chips failing Nvidia tests due to heat and power consumption woes | Reuters https://www.reuters.com/technology/samsungs-hbm-chips-failing-nvidia-tests-due-heat-power-consumption-woes-sources-2024-05-23/ この問題に詳しい関係者の話によると、熱と消費電力に難を抱えているというSamsung

                  Samsungの広帯域幅メモリー「HBM3」と「HBM3E」が熱と消費電力の問題でAIプロセッサ用のNVIDIAのテストに不合格
                • 【福田昭のセミコン業界最前線】 VLSIシンポジウムに速度を6割高めたHBM DRAMやレンズレスの超薄型カメラなどが登場

                    【福田昭のセミコン業界最前線】 VLSIシンポジウムに速度を6割高めたHBM DRAMやレンズレスの超薄型カメラなどが登場
                  • 【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは|inrevium

                    生産現場 計測・検査 【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは 先端半導体の技術の中でも微細化と並んで今後の半導体性能を大きく左右する、3次元実装技術。その構成技術のであるHBM(High Bandwidth Memory)について解説します。 HBM(High Bandwidth Memory)とは HBM(High Bandwidth Memory)とは非常に高い帯域幅(データ転送速度)を持ったDRAMです。 メモリとプロセッサを結んで信号を交換する入出力回路(IO:Input/Output)をバスと呼びます。 このバスを1秒間に通過するデータ信号の数を帯域幅(Band width)と呼び、この帯域幅の数値が大きいほどデータ処理が速いことを示しています。帯域幅は信号線1本の伝送速度×バスの本数で決まります。

                      【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは|inrevium
                    • JEDECが「HBM3」の仕様書を公開 転送速度は毎秒819GBに

                      メモリの規格を策定する業界団体であるJEDECは1月27日(米国東部時間)、次世代のメモリである「HBM3(High Bandwidth Memory 3)」の仕様書(JESD238)を公開した。HBMは広帯域、低消費電力で、実装面積が狭いところでも比較的大容量を確保できることから、GPUやハイパフォーマンスコンピューティング(HPC)での使用例が多い。またIntelは、次世代Xeonである「Sapphire Rapids」のラインアップに、HBMを内蔵した製品を用意する予定となっている。 HBM3では、データ転送速度を1ピン当たり毎秒6.4Gbpsに引き上げた。これはHBM2の2倍に当たる。この結果、メモリデバイスごとのデータ転送速度は毎秒819GBまで上がった。チャネル数もHBM2の8チャネルから倍の16チャネルに引き上げた。1チャネルを2本の疑似チャネルとして扱えるため、合計で32の

                        JEDECが「HBM3」の仕様書を公開 転送速度は毎秒819GBに
                      • ついに! ようやく? 「Intel Maxシリーズ」2023年1月から出荷 HBM付き「Xeon Max」と高密度実装GPU「Intel GPU Max」

                        ついに! ようやく? 「Intel Maxシリーズ」2023年1月から出荷 HBM付き「Xeon Max」と高密度実装GPU「Intel GPU Max」(1/3 ページ) Intelは11月9日(米国太平洋時間)、HPC(ハイパフォーマンスコンピューティング)や機械学習ベースのAI(人工知能)に最適化されたCPUとGPUのブランドとして「Intel Maxシリーズ」を立ち上げることを発表した。同シリーズの第1弾製品として、HBM2Eメモリを統合したCPU「Intel Xeon Max」とエクサスケールGPU「Intel Data Center GPU Max」を2023年1月から順次出荷を開始する。 Xeon Maxを搭載するシステムは30社超、Intel Data Center GPU Maxを搭載するシステムは15社超からリリースされる見通しだ。

                          ついに! ようやく? 「Intel Maxシリーズ」2023年1月から出荷 HBM付き「Xeon Max」と高密度実装GPU「Intel GPU Max」
                        • MacBook Pro 16インチでRDNA+HBM2採用の「Radeon Pro 5600M」が選択可能に

                            MacBook Pro 16インチでRDNA+HBM2採用の「Radeon Pro 5600M」が選択可能に
                          • 2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?

                            2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?:湯之上隆のナノフォーカス(69)(1/5 ページ) 半導体市場の本格的な回復が予想されている2024年。鍵を握るのがメモリだ。本稿では、DRAM/NAND型フラッシュメモリの価格推移と企業別売上高の動向から、半導体市場の回復基調の時期を探る。さらに、そこから読み取れる、メモリメーカーの“栄枯盛衰”を示す。

                              2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?
                            • Micron、帯域1.2TB/sで容量24GBの「HBM3 Gen2」。LLMに最適

                                Micron、帯域1.2TB/sで容量24GBの「HBM3 Gen2」。LLMに最適
                              • Apple、MacBook Pro (16-inch, 2019)のオプションにデスクトップクラスのグラフィックス性能を持った「AMD Radeon Pro 5600M (8GB HBM2メモリ)」を追加。

                                AppleがMacBook Pro (16-inch, 2019)のオプションにデスクトップクラスのグラフィックス性能を持った「AMD Radeon Pro 5600M (8GB HBM2メモリ)」を追加しています。詳細は以下から。 Appleは現地時間2020年06月15日、昨年11月に発売したMagic Keyboardと16インチRetinaディスプレイを搭載した新しい「MacBook Pro (16-inch, 2019)」のCTOオプションをアップデートし、デスクトップクラスのグラフィックス性能を持った「Radeon Pro 5600M」を追加したと発表しています。 デスクトップクラスのグラフィックスが必要なら、AMD Radeon Pro 5600Mにアップグレードしましょう。持ち運びやすい16インチMacBook Proで、高い性能を要求するプロ向けアプリケーションでの作業や

                                  Apple、MacBook Pro (16-inch, 2019)のオプションにデスクトップクラスのグラフィックス性能を持った「AMD Radeon Pro 5600M (8GB HBM2メモリ)」を追加。
                                • SK hynix、最大転送速度819GB/sの「HBM3」を開発

                                    SK hynix、最大転送速度819GB/sの「HBM3」を開発
                                  • NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か

                                    2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日

                                      NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か
                                    • Apple、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M (8GB HBM2メ‍モ‍リ搭載)」を追加 | 気になる、記になる…

                                      ホームAppleMacMacBook ProApple、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M (8GB HBM2メ‍モ‍リ搭載)」を追加 Apple、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M (8GB HBM2メ‍モ‍リ搭載)」を追加 2020 6/15 本日、Appleが、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M(8GB HBM2メ‍モ‍リ搭載)」を追加しました。 下位モデルの標準のGPUである「AMD Radeon Pro 5300M(4GB GDDR6メ‍モ‍リ搭載)」からは80,000円、上位モデルの標準のGPU「AMD Radeon Pro 5500M(4GB GDDR6メ‍モ‍リ

                                        Apple、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M (8GB HBM2メ‍モ‍リ搭載)」を追加 | 気になる、記になる…
                                      • SK hynixがHBM3Eの量産を開始、NVIDIAのサプライヤー多様化で競争は激化

                                        SK hynixは2024年3月19日、広帯域幅メモリ(High Bandwidth Memory:HBM)の最新世代品であるHBM3Eの量産を開始し、同月下旬から顧客に供給すると発表した。NVIDIAの新世代GPU向けとみられる。 SK hynix、Micron、Samsungの競争が激化 生成AI(人工知能)の発展を受け需要が急増しているHBM。台湾の市場調査会社TrendForceによれば現在の主流であるHBM3では、NVIDIAの「H100 Tensor コア GPU」に対して単独サプライヤーと供給しているSK hynixが市場シェア90%以上を占めている状態だという。ただ、NVIDIAは2024年第2四半期に出荷開始予定の「H200 Tensorコア GPU(以下、H200)」や2024年3月に発表した「B200 Tensor Core GPU(以下、B200)」でHBM3Eを採

                                          SK hynixがHBM3Eの量産を開始、NVIDIAのサプライヤー多様化で競争は激化
                                        • 【福田昭のセミコン業界最前線】 過去最も狭き門となったISSCC 2024、Zen4cやHBM3Eなど、次世代プロセッサとメモリの開発成果が集結

                                            【福田昭のセミコン業界最前線】 過去最も狭き門となったISSCC 2024、Zen4cやHBM3Eなど、次世代プロセッサとメモリの開発成果が集結
                                          • SK Hynix、460GB/s超を実現する業界最速DRAM「HBM2E」 ~HBM2比で50%高速かつ容量は2倍に

                                              SK Hynix、460GB/s超を実現する業界最速DRAM「HBM2E」 ~HBM2比で50%高速かつ容量は2倍に
                                            • 株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> | 特集 - 株探ニュース

                                              2024年05月18日19時30分 【特集】株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> ―生成AI市場急拡大でにわかに脚光、GPUとともに新たな成長のステージへ― 東京株式市場では5月に入ってから日経平均株価が一進一退、3万8000円台での往来を繰り返している。方向感の定まらない地合いが続いているが、5日・25日・75日移動平均線がいずれも3万8000円台半ばで収れんする動きにあり、もみ合い圏離脱の機は熟しつつある。世界の株式市場に目を向ければ5月は総じて強気相場が繰り広げられており、欧州や米国では軒並み主要株価指数が史上最高値を更新するなどリスクオンを強く印象づける。相対的に出遅れる日本株のキャッチアップが期待されるところだ。 3月決算企業の決算発表が概ね終了し、ここからは再びテーマ買いの動きが復活しそうだ。米国株市場ではNYダウに先立ってナスダッ

                                                株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> | 特集 - 株探ニュース
                                              • 生成AI需要増で関心高まる「HBM」技術関連5銘柄 | 株のことならネット証券会社【auカブコム】

                                                生成AI(人工知能)の需要拡大に伴って、半導体業界では次世代の超高速DRAM(一時的に記憶する半導体)技術に注目が集まっています。 現在主流の代表的なメモリであるDRAMチップを積層化し、高速・大容量のデータ処理を可能にする「HBM(High Bandwidth=バンドウィズ Memory)(高・広帯域メモリ)」がそれです。 メモリは記憶をつかさどる半導体のことです。 生成AIはジェネレーティブAIとも呼ばれ、様々なコンテンツを作り出すことができるAIです。 従来のAIが決められた行為の自動化が目的であるのに対し、生成AIはデータのパターンや関係を学習し、新しいコンテンツを生成することができます。 より大量の情報の処理能力が求められることになり、対応するハイスペックなメモリへのニーズが高まる要因となります。 HBMは3D積層(立体的に積み上げる)メモリ技術の一種で、従来の平面メモリよりもは

                                                  生成AI需要増で関心高まる「HBM」技術関連5銘柄 | 株のことならネット証券会社【auカブコム】
                                                • Google、従来比性能4.7倍のTPU。HBMの速度/容量も2倍に

                                                    Google、従来比性能4.7倍のTPU。HBMの速度/容量も2倍に
                                                  • 特集:半導体メモリ(HBMがAI半導体の性能向上と増産のカギとなる)、銘柄レポート:ディスコ(2024年3月期4Qの個別売上高、個別出荷額は好調だった) | トウシル 楽天証券の投資情報メディア

                                                    ● AI半導体の性能向上にとってDRAMの最新規格「DDR5」のウェハをベースに作られる特殊メモリである「HBM」は不可欠である。またAI半導体の増産には先行してHBMの増産が必要になる。HBMメーカーのSKハイニックス、サムスン電子、マイクロン・テクノロジーにとってHBMは重要な収益ドライバーになりつつある。 ● マイクロン・テクノロジーの2024年8月期2Qは売上高は前年比57.7%増、営業損益は黒字転換した。今年2月から「HBM3e」の量産、出荷を開始しており、今3Qから来期にかけてHBMの収益寄与が拡大しよう。DRAM、NANDの市況改善も業績に寄与。今後6~12カ月間の目標株価を前回の110ドルから180ドルに引き上げる。引き続き中長期で投資妙味を感じる。 ● ディスコの2024年3月期4Qの個別売上高は前年比29.9%増、個別出荷額は同35.1%となった。パワー半導体向けが堅調

                                                      特集:半導体メモリ(HBMがAI半導体の性能向上と増産のカギとなる)、銘柄レポート:ディスコ(2024年3月期4Qの個別売上高、個別出荷額は好調だった) | トウシル 楽天証券の投資情報メディア
                                                    • リカルド(LR163)@11/26 北流PioneerDJ on Twitter: "傘が壊れた事を忘れちゃった🙄 https://t.co/HBm7DfucrI"

                                                      傘が壊れた事を忘れちゃった🙄 https://t.co/HBm7DfucrI

                                                        リカルド(LR163)@11/26 北流PioneerDJ on Twitter: "傘が壊れた事を忘れちゃった🙄 https://t.co/HBm7DfucrI"
                                                      • AIの可能性を再定義するHBM、その構造を理解する

                                                        AIへの関心が高まり、データストレージの需要 高帯域幅メモリ(HBM)が注目を集めています。人工知能(AI)が進化し続けるのに伴い、その需要も増え続けているのです。こうした需要に応えるべく、多くの主要テクノロジー企業がHBMに注力しています。HBMは、低エネルギー消費でより高速なデータアクセスを実現する様に設計された、高度なコンピューターメモリです。これはAIにとって、メモリチップの性能面と消費電力の削減という点で、重要な要素になります。 HBMは3D積層を採用しており、先端パッケージング技術を使用して、複数のデバイス層を垂直に積み重ねます。専用のDRAMチップを垂直に積層して、高速チャンネルで接続することにより、複雑なAIタスクの実行に必要な高速なデータ交換を可能にしています。 生成AIやデータ処理といった新たな成長ドライバーは、まだ導入の初期段階であり、HBMの市場ポテンシャルは今後も

                                                          AIの可能性を再定義するHBM、その構造を理解する
                                                        • 北森瓦版 - 【怪情報】5120sp, HBM2e 24GBとなるの次世代“Navi”のフラッグシップ

                                                          北森瓦版 - Northwood Blog (Author : 北森八雲. Since July 10, 2006.) Alleged AMD Next-Gen Flagship Navi ‘Radeon RX’ GPU Specifications Leaked – 5120 Cores, 24 GB HBM2e Memory, 2 TB/s Bandwidth(WCCF Tech) TwitterユーザーであるCyberPunkCat氏がSK Hynixの資料を情報元とし、AMDの次世代Radeon RXについて述べている。 次世代Radeon RXこと“RDNA2”は7nm+プロセスで製造され、現行の7nmで製造されている“RDNA”アーキテクチャのRadeon RX graphics製品群を2020年に置き換える。新しい“RDNA2”アーキテクチャの新製品群は現行世代からより洗練し

                                                          • HopperはHBM3を6つ搭載するお化けチップ NVIDIA GPUロードマップ (1/3)

                                                            久しぶりに今週はNVIDIAの話だ。前回のロードマップアップデートが連載581回なので半年ぶりである。なぜこんなに空いたかと言えば、新製品がまったく出てこないのが理由である。今年1月に発表になったGeForce RTX 3080 12GBは新製品と言えば新製品だが、基本的にはGeForce RTX 3080 Tiのダウングレード版ということを考えると、バリエーションチェンジの範疇と言えよう。 そんなNVIDIAであるが、3月23日からオンライン開催となったGTC 2022の基調講演で、次世代GPUであるHopperが発表になった。実際にはHopperだけでなく、ものすごく盛り沢山の発表があり、これを全部カバーするのは1本の記事では到底不可能なのだが、現状ではまだ詳細が明らかにされないGraceなどは後回しにして、一番の目玉とでもいうべきHopperことNVIDIA H100 GPUについて

                                                              HopperはHBM3を6つ搭載するお化けチップ NVIDIA GPUロードマップ (1/3)
                                                            • GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も

                                                              GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も:生成AIの普及でHBMの需要が増す中(1/2 ページ) JEDEC Solid State Technology Associationは2024年3月に、次世代グラフィックス製品向けのメモリ規格「GDDR7」の仕様策定を完了したと発表した。生成AI(人工知能)の急速な普及に伴い、HBM(広帯域幅メモリ)の需要が大幅に増加する中、GDDR7がHBMの“代用品”になる可能性があると関係者は語る。 最近のAI(人工知能)の進歩は革命的に見えるかもしれない。さらに、米国の電子部品関連標準化団体「JEDEC Solid State Technology Association(以下、JEDEC)」は、GDDR(Graphics Double Data Rate)規格のAIアプリケーションへの使用が増加する中でも、同規格の進化

                                                                GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も
                                                              • Micron、「GDDR7」をサンプル出荷。HBM3e/4への積極的な取り組みも

                                                                  Micron、「GDDR7」をサンプル出荷。HBM3e/4への積極的な取り組みも
                                                                1

                                                                新着記事