2024年4月19日、韓国の半導体サプライヤー「SK Hynix」が台湾の半導体ファウンドリ大手のTSMCと提携を結び、次世代高帯域幅メモリ(HBM)向けチップの製造や高度なチップパッケージング技術の開発で協力すると発表しました。 SK hynix Partners With TSMC to Strengthen HBM Leadership https://news.skhynix.com/sk-hynix-partners-with-tsmc-to-strengthen-hbm-technological-leadership/ SK Hynix and TSMC Team Up for HBM4 Development https://www.anandtech.com/show/21362/sk-hynix-and-tsmc-team-up-for-hbm4-memory-adva
Micronが容量36GBの12段積層HBM3Eを出荷開始したことを発表しました。Micronが開発した36GB・12段積層HBM3Eは1.2TB/sを超えるメモリ帯域幅を備えており、AI開発に役立つことがアピールされています。 Micron continues memory industry leadership with HBM3E 12-high 36GB | Micron Technology Inc. https://www.micron.com/about/blog/applications/ai/micron-continues-memory-industry-leadership-with-hbm3e-12-high-36gb HBM3E | Micron Technology Inc. https://www.micron.com/products/memory/hbm/
第4世代High Bandwidth Memory(HBM)である「HBM3」と第5世代の「HBM3E」としてSamsungが製造したDRAMが、発熱などの問題によりNVIDIAのAIチップでの使用に堪えないとのテスト結果が出ていると、ロイターが報じました。 Exclusive: Samsung's HBM chips failing Nvidia tests due to heat and power consumption woes | Reuters https://www.reuters.com/technology/samsungs-hbm-chips-failing-nvidia-tests-due-heat-power-consumption-woes-sources-2024-05-23/ この問題に詳しい関係者の話によると、熱と消費電力に難を抱えているというSamsung
生産現場 計測・検査 【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは 先端半導体の技術の中でも微細化と並んで今後の半導体性能を大きく左右する、3次元実装技術。その構成技術のであるHBM(High Bandwidth Memory)について解説します。 HBM(High Bandwidth Memory)とは HBM(High Bandwidth Memory)とは非常に高い帯域幅(データ転送速度)を持ったDRAMです。 メモリとプロセッサを結んで信号を交換する入出力回路(IO:Input/Output)をバスと呼びます。 このバスを1秒間に通過するデータ信号の数を帯域幅(Band width)と呼び、この帯域幅の数値が大きいほどデータ処理が速いことを示しています。帯域幅は信号線1本の伝送速度×バスの本数で決まります。
2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日
SK hynixは2024年3月19日、広帯域幅メモリ(High Bandwidth Memory:HBM)の最新世代品であるHBM3Eの量産を開始し、同月下旬から顧客に供給すると発表した。NVIDIAの新世代GPU向けとみられる。 SK hynix、Micron、Samsungの競争が激化 生成AI(人工知能)の発展を受け需要が急増しているHBM。台湾の市場調査会社TrendForceによれば現在の主流であるHBM3では、NVIDIAの「H100 Tensor コア GPU」に対して単独サプライヤーと供給しているSK hynixが市場シェア90%以上を占めている状態だという。ただ、NVIDIAは2024年第2四半期に出荷開始予定の「H200 Tensorコア GPU(以下、H200)」や2024年3月に発表した「B200 Tensor Core GPU(以下、B200)」でHBM3Eを採
過熱するHBM開発競争、SK hynixは製品化を前倒し:「HBM4」を2025年に発表へ(1/3 ページ) SK hynixは、次世代HBMである「HBM4」製品について、従来の想定より1年早い2025年に発表予定だと明かした。同社はHBM市場で大きなシェアを確保しているが、専門家は「今後、より厳しい競争に直面することになるだろう」と語っている。 HBM4Eまでのロードマップを公開 SK hynixは、AI(人工知能)に不可欠なHBM(広帯域幅メモリ)市場において、同社が引き続き優位性を確保していく考えであることを示すロードマップを公開した。一方で業界専門家は米国EE Timesの取材に対し、「SK hynixは、同社のライバルであるSamsung Electronics(以下、Samsung)やMicron Technology(以下、Micron)に対してリードを維持してきたが、今後
あいまい検索(英語検索) あいまいな日本語で(英語でも)検索できます。上手く動くか分からないのでお試しです。 検索の仕方については「検索のコツ」をご覧ください。 AIを使っていらすとや風の画像が生成できるサービスです。 Eテレのショートアニメです。 いらすとやが更新されたらお知らせするX(ツイッター)アカウントです。 いらすとやのLINEスタンプに関する情報をお知らせするLINEアカウントです。 ▼ 2024 (46) ► 7月 (2) ▼ 6月 (14) HBMのイラスト シリコンウェハのイラスト 濡れて細くなった犬のイラスト 濡れて細くなった猫のイラスト イドゥリのイラスト ワダのイラスト ドーサのイラスト パーパドのイラスト 鞘に納まった日本刀のイラスト 介護ベッドのイラスト(リクライニングなし) 介護ベッドのイラスト(リクライニングあり) 豆腐バーのイラスト 鳩時計のイラスト(鳩が
2024年05月18日19時30分 【特集】株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> ―生成AI市場急拡大でにわかに脚光、GPUとともに新たな成長のステージへ― 東京株式市場では5月に入ってから日経平均株価が一進一退、3万8000円台での往来を繰り返している。方向感の定まらない地合いが続いているが、5日・25日・75日移動平均線がいずれも3万8000円台半ばで収れんする動きにあり、もみ合い圏離脱の機は熟しつつある。世界の株式市場に目を向ければ5月は総じて強気相場が繰り広げられており、欧州や米国では軒並み主要株価指数が史上最高値を更新するなどリスクオンを強く印象づける。相対的に出遅れる日本株のキャッチアップが期待されるところだ。 3月決算企業の決算発表が概ね終了し、ここからは再びテーマ買いの動きが復活しそうだ。米国株市場ではNYダウに先立ってナスダッ
生成AI(人工知能)の需要拡大に伴って、半導体業界では次世代の超高速DRAM(一時的に記憶する半導体)技術に注目が集まっています。 現在主流の代表的なメモリであるDRAMチップを積層化し、高速・大容量のデータ処理を可能にする「HBM(High Bandwidth=バンドウィズ Memory)(高・広帯域メモリ)」がそれです。 メモリは記憶をつかさどる半導体のことです。 生成AIはジェネレーティブAIとも呼ばれ、様々なコンテンツを作り出すことができるAIです。 従来のAIが決められた行為の自動化が目的であるのに対し、生成AIはデータのパターンや関係を学習し、新しいコンテンツを生成することができます。 より大量の情報の処理能力が求められることになり、対応するハイスペックなメモリへのニーズが高まる要因となります。 HBMは3D積層(立体的に積み上げる)メモリ技術の一種で、従来の平面メモリよりもは
米国の対中「GAA/HBM」規制、実施なら韓国勢に打撃:Samsung/SK hynixが矢面に(1/2 ページ) 米国による、中国に対する半導体輸出規制の次なる領域とみられるのが、最先端のGAA(Gate-All-Around)半導体製造技術だ。Bloombergの報道によると、米国が中国企業による同技術のアクセスを制限する措置を検討しているという。 米国による、中国に対する半導体輸出規制の次なる領域とみられるのが、最先端のGAA(Gate-All-Around)半導体製造技術だ。GAAは、現在最先端の半導体デバイス製造において使われているFinFET技術の後継技術として広く認められているが、Bloombergの報道によると、米国は、中国企業による同技術のアクセスを制限する措置を検討しているという。 GAAで先行するSamsung GAAは、GAA FETとも呼ばれ、FinFET技術で使
● AI半導体の性能向上にとってDRAMの最新規格「DDR5」のウェハをベースに作られる特殊メモリである「HBM」は不可欠である。またAI半導体の増産には先行してHBMの増産が必要になる。HBMメーカーのSKハイニックス、サムスン電子、マイクロン・テクノロジーにとってHBMは重要な収益ドライバーになりつつある。 ● マイクロン・テクノロジーの2024年8月期2Qは売上高は前年比57.7%増、営業損益は黒字転換した。今年2月から「HBM3e」の量産、出荷を開始しており、今3Qから来期にかけてHBMの収益寄与が拡大しよう。DRAM、NANDの市況改善も業績に寄与。今後6~12カ月間の目標株価を前回の110ドルから180ドルに引き上げる。引き続き中長期で投資妙味を感じる。 ● ディスコの2024年3月期4Qの個別売上高は前年比29.9%増、個別出荷額は同35.1%となった。パワー半導体向けが堅調
AIへの関心が高まり、データストレージの需要 高帯域幅メモリ(HBM)が注目を集めています。人工知能(AI)が進化し続けるのに伴い、その需要も増え続けているのです。こうした需要に応えるべく、多くの主要テクノロジー企業がHBMに注力しています。HBMは、低エネルギー消費でより高速なデータアクセスを実現する様に設計された、高度なコンピューターメモリです。これはAIにとって、メモリチップの性能面と消費電力の削減という点で、重要な要素になります。 HBMは3D積層を採用しており、先端パッケージング技術を使用して、複数のデバイス層を垂直に積み重ねます。専用のDRAMチップを垂直に積層して、高速チャンネルで接続することにより、複雑なAIタスクの実行に必要な高速なデータ交換を可能にしています。 生成AIやデータ処理といった新たな成長ドライバーは、まだ導入の初期段階であり、HBMの市場ポテンシャルは今後も
GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も:生成AIの普及でHBMの需要が増す中(1/2 ページ) JEDEC Solid State Technology Associationは2024年3月に、次世代グラフィックス製品向けのメモリ規格「GDDR7」の仕様策定を完了したと発表した。生成AI(人工知能)の急速な普及に伴い、HBM(広帯域幅メモリ)の需要が大幅に増加する中、GDDR7がHBMの“代用品”になる可能性があると関係者は語る。 最近のAI(人工知能)の進歩は革命的に見えるかもしれない。さらに、米国の電子部品関連標準化団体「JEDEC Solid State Technology Association(以下、JEDEC)」は、GDDR(Graphics Double Data Rate)規格のAIアプリケーションへの使用が増加する中でも、同規格の進化
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く