並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 21 件 / 21件

新着順 人気順

HBMの検索結果1 - 21 件 / 21件

  • 【福田昭のセミコン業界最前線】 AI時代に不可欠の「HBM」。容量も速度も飛躍したが、開発がさらに加速

      【福田昭のセミコン業界最前線】 AI時代に不可欠の「HBM」。容量も速度も飛躍したが、開発がさらに加速
    • AMD、288GB HBM3eメモリ搭載のAIアクセラレータ「Instinct MI325X」

        AMD、288GB HBM3eメモリ搭載のAIアクセラレータ「Instinct MI325X」
      • SK HynixがTSMCとの提携を発表、2026年に量産予定の次世代HBM4チップと高度なチップパッケージング技術の開発へ

        2024年4月19日、韓国の半導体サプライヤー「SK Hynix」が台湾の半導体ファウンドリ大手のTSMCと提携を結び、次世代高帯域幅メモリ(HBM)向けチップの製造や高度なチップパッケージング技術の開発で協力すると発表しました。 SK hynix Partners With TSMC to Strengthen HBM Leadership https://news.skhynix.com/sk-hynix-partners-with-tsmc-to-strengthen-hbm-technological-leadership/ SK Hynix and TSMC Team Up for HBM4 Development https://www.anandtech.com/show/21362/sk-hynix-and-tsmc-team-up-for-hbm4-memory-adva

          SK HynixがTSMCとの提携を発表、2026年に量産予定の次世代HBM4チップと高度なチップパッケージング技術の開発へ
        • Micronが36GBの12段積層HBM3Eを発表、AI開発に役立つ超高速メモリの大容量版

          Micronが容量36GBの12段積層HBM3Eを出荷開始したことを発表しました。Micronが開発した36GB・12段積層HBM3Eは1.2TB/sを超えるメモリ帯域幅を備えており、AI開発に役立つことがアピールされています。 Micron continues memory industry leadership with HBM3E 12-high 36GB | Micron Technology Inc. https://www.micron.com/about/blog/applications/ai/micron-continues-memory-industry-leadership-with-hbm3e-12-high-36gb HBM3E | Micron Technology Inc. https://www.micron.com/products/memory/hbm/

            Micronが36GBの12段積層HBM3Eを発表、AI開発に役立つ超高速メモリの大容量版
          • Samsungの広帯域幅メモリー「HBM3」と「HBM3E」が熱と消費電力の問題でAIプロセッサ用のNVIDIAのテストに不合格

            第4世代High Bandwidth Memory(HBM)である「HBM3」と第5世代の「HBM3E」としてSamsungが製造したDRAMが、発熱などの問題によりNVIDIAのAIチップでの使用に堪えないとのテスト結果が出ていると、ロイターが報じました。 Exclusive: Samsung's HBM chips failing Nvidia tests due to heat and power consumption woes | Reuters https://www.reuters.com/technology/samsungs-hbm-chips-failing-nvidia-tests-due-heat-power-consumption-woes-sources-2024-05-23/ この問題に詳しい関係者の話によると、熱と消費電力に難を抱えているというSamsung

              Samsungの広帯域幅メモリー「HBM3」と「HBM3E」が熱と消費電力の問題でAIプロセッサ用のNVIDIAのテストに不合格
            • Micron、1.2TB/s超えの帯域を実現する12層36GBのHBM3Eメモリ。AIに好適

                Micron、1.2TB/s超えの帯域を実現する12層36GBのHBM3Eメモリ。AIに好適
              • 【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは|inrevium

                生産現場 計測・検査 【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは 先端半導体の技術の中でも微細化と並んで今後の半導体性能を大きく左右する、3次元実装技術。その構成技術のであるHBM(High Bandwidth Memory)について解説します。 HBM(High Bandwidth Memory)とは HBM(High Bandwidth Memory)とは非常に高い帯域幅(データ転送速度)を持ったDRAMです。 メモリとプロセッサを結んで信号を交換する入出力回路(IO:Input/Output)をバスと呼びます。 このバスを1秒間に通過するデータ信号の数を帯域幅(Band width)と呼び、この帯域幅の数値が大きいほどデータ処理が速いことを示しています。帯域幅は信号線1本の伝送速度×バスの本数で決まります。

                  【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは|inrevium
                • 2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?

                  2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?:湯之上隆のナノフォーカス(69)(1/5 ページ) 半導体市場の本格的な回復が予想されている2024年。鍵を握るのがメモリだ。本稿では、DRAM/NAND型フラッシュメモリの価格推移と企業別売上高の動向から、半導体市場の回復基調の時期を探る。さらに、そこから読み取れる、メモリメーカーの“栄枯盛衰”を示す。

                    2024年の半導体市場、本格回復はメモリ次第 ~HBMの需要増で勢力図も変わる?
                  • NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か

                    2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日

                      NVIDIAのGPU不足は今後も続く ボトルネックはHBMとTSMCの中工程か
                    • SK hynixがHBM3Eの量産を開始、NVIDIAのサプライヤー多様化で競争は激化

                      SK hynixは2024年3月19日、広帯域幅メモリ(High Bandwidth Memory:HBM)の最新世代品であるHBM3Eの量産を開始し、同月下旬から顧客に供給すると発表した。NVIDIAの新世代GPU向けとみられる。 SK hynix、Micron、Samsungの競争が激化 生成AI(人工知能)の発展を受け需要が急増しているHBM。台湾の市場調査会社TrendForceによれば現在の主流であるHBM3では、NVIDIAの「H100 Tensor コア GPU」に対して単独サプライヤーと供給しているSK hynixが市場シェア90%以上を占めている状態だという。ただ、NVIDIAは2024年第2四半期に出荷開始予定の「H200 Tensorコア GPU(以下、H200)」や2024年3月に発表した「B200 Tensor Core GPU(以下、B200)」でHBM3Eを採

                        SK hynixがHBM3Eの量産を開始、NVIDIAのサプライヤー多様化で競争は激化
                      • 【福田昭のセミコン業界最前線】 過去最も狭き門となったISSCC 2024、Zen4cやHBM3Eなど、次世代プロセッサとメモリの開発成果が集結

                          【福田昭のセミコン業界最前線】 過去最も狭き門となったISSCC 2024、Zen4cやHBM3Eなど、次世代プロセッサとメモリの開発成果が集結
                        • 過熱するHBM開発競争、SK hynixは製品化を前倒し

                          過熱するHBM開発競争、SK hynixは製品化を前倒し:「HBM4」を2025年に発表へ(1/3 ページ) SK hynixは、次世代HBMである「HBM4」製品について、従来の想定より1年早い2025年に発表予定だと明かした。同社はHBM市場で大きなシェアを確保しているが、専門家は「今後、より厳しい競争に直面することになるだろう」と語っている。 HBM4Eまでのロードマップを公開 SK hynixは、AI(人工知能)に不可欠なHBM(広帯域幅メモリ)市場において、同社が引き続き優位性を確保していく考えであることを示すロードマップを公開した。一方で業界専門家は米国EE Timesの取材に対し、「SK hynixは、同社のライバルであるSamsung Electronics(以下、Samsung)やMicron Technology(以下、Micron)に対してリードを維持してきたが、今後

                            過熱するHBM開発競争、SK hynixは製品化を前倒し
                          • HBMのイラスト

                            あいまい検索(英語検索) あいまいな日本語で(英語でも)検索できます。上手く動くか分からないのでお試しです。 検索の仕方については「検索のコツ」をご覧ください。 AIを使っていらすとや風の画像が生成できるサービスです。 Eテレのショートアニメです。 いらすとやが更新されたらお知らせするX(ツイッター)アカウントです。 いらすとやのLINEスタンプに関する情報をお知らせするLINEアカウントです。 ▼ 2024 (46) ► 7月 (2) ▼ 6月 (14) HBMのイラスト シリコンウェハのイラスト 濡れて細くなった犬のイラスト 濡れて細くなった猫のイラスト イドゥリのイラスト ワダのイラスト ドーサのイラスト パーパドのイラスト 鞘に納まった日本刀のイラスト 介護ベッドのイラスト(リクライニングなし) 介護ベッドのイラスト(リクライニングあり) 豆腐バーのイラスト 鳩時計のイラスト(鳩が

                              HBMのイラスト
                            • 株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> | 特集 - 株探ニュース

                              2024年05月18日19時30分 【特集】株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> ―生成AI市場急拡大でにわかに脚光、GPUとともに新たな成長のステージへ― 東京株式市場では5月に入ってから日経平均株価が一進一退、3万8000円台での往来を繰り返している。方向感の定まらない地合いが続いているが、5日・25日・75日移動平均線がいずれも3万8000円台半ばで収れんする動きにあり、もみ合い圏離脱の機は熟しつつある。世界の株式市場に目を向ければ5月は総じて強気相場が繰り広げられており、欧州や米国では軒並み主要株価指数が史上最高値を更新するなどリスクオンを強く印象づける。相対的に出遅れる日本株のキャッチアップが期待されるところだ。 3月決算企業の決算発表が概ね終了し、ここからは再びテーマ買いの動きが復活しそうだ。米国株市場ではNYダウに先立ってナスダッ

                                株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> | 特集 - 株探ニュース
                              • 生成AI需要増で関心高まる「HBM」技術関連5銘柄 | 株のことならネット証券会社【auカブコム】

                                生成AI(人工知能)の需要拡大に伴って、半導体業界では次世代の超高速DRAM(一時的に記憶する半導体)技術に注目が集まっています。 現在主流の代表的なメモリであるDRAMチップを積層化し、高速・大容量のデータ処理を可能にする「HBM(High Bandwidth=バンドウィズ Memory)(高・広帯域メモリ)」がそれです。 メモリは記憶をつかさどる半導体のことです。 生成AIはジェネレーティブAIとも呼ばれ、様々なコンテンツを作り出すことができるAIです。 従来のAIが決められた行為の自動化が目的であるのに対し、生成AIはデータのパターンや関係を学習し、新しいコンテンツを生成することができます。 より大量の情報の処理能力が求められることになり、対応するハイスペックなメモリへのニーズが高まる要因となります。 HBMは3D積層(立体的に積み上げる)メモリ技術の一種で、従来の平面メモリよりもは

                                  生成AI需要増で関心高まる「HBM」技術関連5銘柄 | 株のことならネット証券会社【auカブコム】
                                • 米国の対中「GAA/HBM」規制、実施なら韓国勢に打撃

                                  米国の対中「GAA/HBM」規制、実施なら韓国勢に打撃:Samsung/SK hynixが矢面に(1/2 ページ) 米国による、中国に対する半導体輸出規制の次なる領域とみられるのが、最先端のGAA(Gate-All-Around)半導体製造技術だ。Bloombergの報道によると、米国が中国企業による同技術のアクセスを制限する措置を検討しているという。 米国による、中国に対する半導体輸出規制の次なる領域とみられるのが、最先端のGAA(Gate-All-Around)半導体製造技術だ。GAAは、現在最先端の半導体デバイス製造において使われているFinFET技術の後継技術として広く認められているが、Bloombergの報道によると、米国は、中国企業による同技術のアクセスを制限する措置を検討しているという。 GAAで先行するSamsung GAAは、GAA FETとも呼ばれ、FinFET技術で使

                                    米国の対中「GAA/HBM」規制、実施なら韓国勢に打撃
                                  • Google、従来比性能4.7倍のTPU。HBMの速度/容量も2倍に

                                      Google、従来比性能4.7倍のTPU。HBMの速度/容量も2倍に
                                    • 特集:半導体メモリ(HBMがAI半導体の性能向上と増産のカギとなる)、銘柄レポート:ディスコ(2024年3月期4Qの個別売上高、個別出荷額は好調だった) | トウシル 楽天証券の投資情報メディア

                                      ● AI半導体の性能向上にとってDRAMの最新規格「DDR5」のウェハをベースに作られる特殊メモリである「HBM」は不可欠である。またAI半導体の増産には先行してHBMの増産が必要になる。HBMメーカーのSKハイニックス、サムスン電子、マイクロン・テクノロジーにとってHBMは重要な収益ドライバーになりつつある。 ● マイクロン・テクノロジーの2024年8月期2Qは売上高は前年比57.7%増、営業損益は黒字転換した。今年2月から「HBM3e」の量産、出荷を開始しており、今3Qから来期にかけてHBMの収益寄与が拡大しよう。DRAM、NANDの市況改善も業績に寄与。今後6~12カ月間の目標株価を前回の110ドルから180ドルに引き上げる。引き続き中長期で投資妙味を感じる。 ● ディスコの2024年3月期4Qの個別売上高は前年比29.9%増、個別出荷額は同35.1%となった。パワー半導体向けが堅調

                                        特集:半導体メモリ(HBMがAI半導体の性能向上と増産のカギとなる)、銘柄レポート:ディスコ(2024年3月期4Qの個別売上高、個別出荷額は好調だった) | トウシル 楽天証券の投資情報メディア
                                      • AIの可能性を再定義するHBM、その構造を理解する

                                        AIへの関心が高まり、データストレージの需要 高帯域幅メモリ(HBM)が注目を集めています。人工知能(AI)が進化し続けるのに伴い、その需要も増え続けているのです。こうした需要に応えるべく、多くの主要テクノロジー企業がHBMに注力しています。HBMは、低エネルギー消費でより高速なデータアクセスを実現する様に設計された、高度なコンピューターメモリです。これはAIにとって、メモリチップの性能面と消費電力の削減という点で、重要な要素になります。 HBMは3D積層を採用しており、先端パッケージング技術を使用して、複数のデバイス層を垂直に積み重ねます。専用のDRAMチップを垂直に積層して、高速チャンネルで接続することにより、複雑なAIタスクの実行に必要な高速なデータ交換を可能にしています。 生成AIやデータ処理といった新たな成長ドライバーは、まだ導入の初期段階であり、HBMの市場ポテンシャルは今後も

                                          AIの可能性を再定義するHBM、その構造を理解する
                                        • GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も

                                          GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も:生成AIの普及でHBMの需要が増す中(1/2 ページ) JEDEC Solid State Technology Associationは2024年3月に、次世代グラフィックス製品向けのメモリ規格「GDDR7」の仕様策定を完了したと発表した。生成AI(人工知能)の急速な普及に伴い、HBM(広帯域幅メモリ)の需要が大幅に増加する中、GDDR7がHBMの“代用品”になる可能性があると関係者は語る。 最近のAI(人工知能)の進歩は革命的に見えるかもしれない。さらに、米国の電子部品関連標準化団体「JEDEC Solid State Technology Association(以下、JEDEC)」は、GDDR(Graphics Double Data Rate)規格のAIアプリケーションへの使用が増加する中でも、同規格の進化

                                            GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も
                                          • Micron、「GDDR7」をサンプル出荷。HBM3e/4への積極的な取り組みも

                                              Micron、「GDDR7」をサンプル出荷。HBM3e/4への積極的な取り組みも
                                            1