SK hynixは2024年3月19日、広帯域幅メモリ(High Bandwidth Memory:HBM)の最新世代品であるHBM3Eの量産を開始し、同月下旬から顧客に供給すると発表した。NVIDIAの新世代GPU向けとみられる。 SK hynix、Micron、Samsungの競争が激化 生成AI(人工知能)の発展を受け需要が急増しているHBM。台湾の市場調査会社TrendForceによれば現在の主流であるHBM3では、NVIDIAの「H100 Tensor コア GPU」に対して単独サプライヤーと供給しているSK hynixが市場シェア90%以上を占めている状態だという。ただ、NVIDIAは2024年第2四半期に出荷開始予定の「H200 Tensorコア GPU(以下、H200)」や2024年3月に発表した「B200 Tensor Core GPU(以下、B200)」でHBM3Eを採
HBM需要拡大で2025年はDRAMが深刻な供給不足に直面へ。不足率は最大23%で価格も30%以上暴騰へ ここ最近のAIブームにより高い転送速度を持つHBMに加え、通常のDRAM系メモリーに対する需要が増えているのですが2021年から2022年に見られたDRAMやNANDメモリーの供給過多により各社は生産規模を大幅に縮小していました。その結果、2023年夏以降はDRAMメモリーの価格は30%以上高騰し、2024年に入ってもその勢いは止まる気配を見せていません。そんな中でモルガン・スタンレーが発表した最新のメモリー市場近況によると2025年以降は特にDRAMの供給不足が深刻化する見込みで、価格も30%以上暴騰する可能性があるようです。 DRAMについてはDDR5やDDR4と言った一般的なPCで使われる一方で、最近話題の生成AIに必要となるのはHBMで、非常に高い値段であっても売れる製品になり
生産現場 計測・検査 【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは 先端半導体の技術の中でも微細化と並んで今後の半導体性能を大きく左右する、3次元実装技術。その構成技術のであるHBM(High Bandwidth Memory)について解説します。 HBM(High Bandwidth Memory)とは HBM(High Bandwidth Memory)とは非常に高い帯域幅(データ転送速度)を持ったDRAMです。 メモリとプロセッサを結んで信号を交換する入出力回路(IO:Input/Output)をバスと呼びます。 このバスを1秒間に通過するデータ信号の数を帯域幅(Band width)と呼び、この帯域幅の数値が大きいほどデータ処理が速いことを示しています。帯域幅は信号線1本の伝送速度×バスの本数で決まります。
GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も:生成AIの普及でHBMの需要が増す中(1/2 ページ) JEDEC Solid State Technology Associationは2024年3月に、次世代グラフィックス製品向けのメモリ規格「GDDR7」の仕様策定を完了したと発表した。生成AI(人工知能)の急速な普及に伴い、HBM(広帯域幅メモリ)の需要が大幅に増加する中、GDDR7がHBMの“代用品”になる可能性があると関係者は語る。 最近のAI(人工知能)の進歩は革命的に見えるかもしれない。さらに、米国の電子部品関連標準化団体「JEDEC Solid State Technology Association(以下、JEDEC)」は、GDDR(Graphics Double Data Rate)規格のAIアプリケーションへの使用が増加する中でも、同規格の進化
サムスン製HBM3EがNVIDIAの受注テストに不合格。過大な熱と電力が原因 NVIDIAのサーバー・データセンター向け製品の最新鋭モデルのHopper H200やBlackwell B200では超高速メモリーであるHBM3Eを採用していますが、このHBM3EはSK hynixとmicronにより供給されており、非常に高い収益を上げることができています。 そのため、メモリー大手のサムスンはこのHBM3Eの供給に向けて名乗り出たのですが、どうやらサムスン製HBM3EはNVIDIAが受注に踏み切るか判断する認定テストに不合格になったことが業界筋より明らかになりました。 HBMはサムスンのDRAM事業にとって次なる収益の柱で、NVIDIAからHBM3Eの受注を獲得することでHBMで多くの収益とシェアを確保しているSK hynixを追撃する狙いを持っていました。しかし、サムスン製HBM3EはNVI
AI(人工知能)半導体の性能を加速させるHBM(広帯域幅メモリ)で業界をリードするSK hynixは、韓国の新工場「M15X」に20兆ウォン(約146億米ドル)以上を投じる予定だという。本稿では、HBM市場の現況とメモリメーカー各社の動向について述べる。 AI(人工知能)半導体の性能を加速させるHBM(広帯域幅メモリ)で業界をリードするSK hynixは、韓国の新工場「M15X」に20兆ウォン(約146億米ドル)以上を投じる予定だという。 同社は、2024年4月24日に発表した報道向け資料の中で、「急増する需要に対応し、市場リーダシップを強化すべく、2025年11月までのM15X完成を目指す」とした。同工場は韓国・清州市に建設予定で、次世代DRAM/HBMの生産能力を拡大していく予定だ。 SK hynixのCEO(最高経営責任者)であるKwak Noh-Jung氏は発表資料の中で、「M15
前回は、先進2次元実装と、3次元実装について簡単に整理した。今回は先進2次元実装に焦点を当てて、技術的なポイントを見ていく。 先進2次元実装の3つの構造 先進2次元実装は大きく3つの構造に分けられる。「シリコンインターポーザー型」、「有機インターポーザー型」、「シリコンブリッジ型」だ(図1)。 シリコンインターポーザー型は、その名の通りシリコンの基板に配線を施し、この上にチップを実装するもの。半導体のウエハーの配線工程のみを使ってチップ間の配線を形成する。本来、チップ内部のトランジスタの配線を形成するためのプロセスを使うため、配線幅および配線間隔(L/S)が1µm以下の微細な加工が可能だ。ただし、高価なシリコンのウエハーから大面積のインターポーザーを切り出すため、ウエハー当たりの取れ高が少なく、コストが高い。 有機インターポーザー型は、シリコン基板ではなく、有機基板の上にチップを実装するも
TSMCの高性能・高密度パッケージング技術「CoWoS」(前編):福田昭のデバイス通信(106) TSMCが解説する最先端パッケージング技術(5)(1/2 ページ) 今回から前後編に分けて「CoWoS(Chip on Wafer on Substrate)」を解説する。CoWoSの最大の特長はシリコンインターポーザを導入したことだが、では、なぜシリコンインターポーザが優れているのだろうか。シリコンインターポーザに至るまでの課題と併せて説明する。 シリコンインターポーザを必要としたHPC向けパッケージ 2016年12月に開催された国際学会IEDMのショートコース講演(技術解説講演)から、「システム集積化に向けた最先端パッケージング技術(Advanced Packaging Technologies for System Integration)」と題する講演の概要をシリーズでご紹介している。
2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日
リリース、障害情報などのサービスのお知らせ
最新の人気エントリーの配信
処理を実行中です
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く