タグ検索の該当結果が少ないため、タイトル検索結果を表示しています。
2024年4月19日、韓国の半導体サプライヤー「SK Hynix」が台湾の半導体ファウンドリ大手のTSMCと提携を結び、次世代高帯域幅メモリ(HBM)向けチップの製造や高度なチップパッケージング技術の開発で協力すると発表しました。 SK hynix Partners With TSMC to Strengthen HBM Leadership https://news.skhynix.com/sk-hynix-partners-with-tsmc-to-strengthen-hbm-technological-leadership/ SK Hynix and TSMC Team Up for HBM4 Development https://www.anandtech.com/show/21362/sk-hynix-and-tsmc-team-up-for-hbm4-memory-adva
第4世代High Bandwidth Memory(HBM)である「HBM3」と第5世代の「HBM3E」としてSamsungが製造したDRAMが、発熱などの問題によりNVIDIAのAIチップでの使用に堪えないとのテスト結果が出ていると、ロイターが報じました。 Exclusive: Samsung's HBM chips failing Nvidia tests due to heat and power consumption woes | Reuters https://www.reuters.com/technology/samsungs-hbm-chips-failing-nvidia-tests-due-heat-power-consumption-woes-sources-2024-05-23/ この問題に詳しい関係者の話によると、熱と消費電力に難を抱えているというSamsung
生産現場 計測・検査 【注目】 AI時代の発展を支える半導体製造技術 【第9話】「HBM(High Bandwidth Memory)」とは 先端半導体の技術の中でも微細化と並んで今後の半導体性能を大きく左右する、3次元実装技術。その構成技術のであるHBM(High Bandwidth Memory)について解説します。 HBM(High Bandwidth Memory)とは HBM(High Bandwidth Memory)とは非常に高い帯域幅(データ転送速度)を持ったDRAMです。 メモリとプロセッサを結んで信号を交換する入出力回路(IO:Input/Output)をバスと呼びます。 このバスを1秒間に通過するデータ信号の数を帯域幅(Band width)と呼び、この帯域幅の数値が大きいほどデータ処理が速いことを示しています。帯域幅は信号線1本の伝送速度×バスの本数で決まります。
メモリの規格を策定する業界団体であるJEDECは1月27日(米国東部時間)、次世代のメモリである「HBM3(High Bandwidth Memory 3)」の仕様書(JESD238)を公開した。HBMは広帯域、低消費電力で、実装面積が狭いところでも比較的大容量を確保できることから、GPUやハイパフォーマンスコンピューティング(HPC)での使用例が多い。またIntelは、次世代Xeonである「Sapphire Rapids」のラインアップに、HBMを内蔵した製品を用意する予定となっている。 HBM3では、データ転送速度を1ピン当たり毎秒6.4Gbpsに引き上げた。これはHBM2の2倍に当たる。この結果、メモリデバイスごとのデータ転送速度は毎秒819GBまで上がった。チャネル数もHBM2の8チャネルから倍の16チャネルに引き上げた。1チャネルを2本の疑似チャネルとして扱えるため、合計で32の
ついに! ようやく? 「Intel Maxシリーズ」2023年1月から出荷 HBM付き「Xeon Max」と高密度実装GPU「Intel GPU Max」(1/3 ページ) Intelは11月9日(米国太平洋時間)、HPC(ハイパフォーマンスコンピューティング)や機械学習ベースのAI(人工知能)に最適化されたCPUとGPUのブランドとして「Intel Maxシリーズ」を立ち上げることを発表した。同シリーズの第1弾製品として、HBM2Eメモリを統合したCPU「Intel Xeon Max」とエクサスケールGPU「Intel Data Center GPU Max」を2023年1月から順次出荷を開始する。 Xeon Maxを搭載するシステムは30社超、Intel Data Center GPU Maxを搭載するシステムは15社超からリリースされる見通しだ。
AppleがMacBook Pro (16-inch, 2019)のオプションにデスクトップクラスのグラフィックス性能を持った「AMD Radeon Pro 5600M (8GB HBM2メモリ)」を追加しています。詳細は以下から。 Appleは現地時間2020年06月15日、昨年11月に発売したMagic Keyboardと16インチRetinaディスプレイを搭載した新しい「MacBook Pro (16-inch, 2019)」のCTOオプションをアップデートし、デスクトップクラスのグラフィックス性能を持った「Radeon Pro 5600M」を追加したと発表しています。 デスクトップクラスのグラフィックスが必要なら、AMD Radeon Pro 5600Mにアップグレードしましょう。持ち運びやすい16インチMacBook Proで、高い性能を要求するプロ向けアプリケーションでの作業や
2022年11月にOpen AIがChatGPTを公開して以降、生成AI(人工知能)が爆発的に世界に普及している。その生成AIは、NVIDIAのGPUなどのAI半導体を搭載したAIサーバ上で動作する。 しかし、昨年2023年12月14日に行われた台湾の調査会社TrendForceの予測によれば、AIサーバの出荷台数は思ったほど伸びない。AIサーバが、全てのサーバの出荷台数に占める割合は、2022年に6%、2023年に9%、2024年に13%、2025年に14%、2026年に16%にとどまる予測となっている(図1)。 図1 サーバの出荷台数、AIサーバの割合および、AIチップ用ウエハーの割合[クリックで拡大] 出所:Joanna Chiao(TrendForce)、「TSMCの世界戦略と2024年半導体ファウンドリ市場の展望」(TreendForce産業フォーカス情報、2023年12月14日
ホームAppleMacMacBook ProApple、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M (8GB HBM2メモリ搭載)」を追加 Apple、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M (8GB HBM2メモリ搭載)」を追加 2020 6/15 本日、Appleが、「MacBook Pro 16インチ」のカスタマイズオプションに「AMD Radeon Pro 5600M(8GB HBM2メモリ搭載)」を追加しました。 下位モデルの標準のGPUである「AMD Radeon Pro 5300M(4GB GDDR6メモリ搭載)」からは80,000円、上位モデルの標準のGPU「AMD Radeon Pro 5500M(4GB GDDR6メモリ
SK hynixは2024年3月19日、広帯域幅メモリ(High Bandwidth Memory:HBM)の最新世代品であるHBM3Eの量産を開始し、同月下旬から顧客に供給すると発表した。NVIDIAの新世代GPU向けとみられる。 SK hynix、Micron、Samsungの競争が激化 生成AI(人工知能)の発展を受け需要が急増しているHBM。台湾の市場調査会社TrendForceによれば現在の主流であるHBM3では、NVIDIAの「H100 Tensor コア GPU」に対して単独サプライヤーと供給しているSK hynixが市場シェア90%以上を占めている状態だという。ただ、NVIDIAは2024年第2四半期に出荷開始予定の「H200 Tensorコア GPU(以下、H200)」や2024年3月に発表した「B200 Tensor Core GPU(以下、B200)」でHBM3Eを採
2024年05月18日19時30分 【特集】株価変貌の初動につけ! 先端半導体「HBM」で化ける最強6銘柄 <株探トップ特集> ―生成AI市場急拡大でにわかに脚光、GPUとともに新たな成長のステージへ― 東京株式市場では5月に入ってから日経平均株価が一進一退、3万8000円台での往来を繰り返している。方向感の定まらない地合いが続いているが、5日・25日・75日移動平均線がいずれも3万8000円台半ばで収れんする動きにあり、もみ合い圏離脱の機は熟しつつある。世界の株式市場に目を向ければ5月は総じて強気相場が繰り広げられており、欧州や米国では軒並み主要株価指数が史上最高値を更新するなどリスクオンを強く印象づける。相対的に出遅れる日本株のキャッチアップが期待されるところだ。 3月決算企業の決算発表が概ね終了し、ここからは再びテーマ買いの動きが復活しそうだ。米国株市場ではNYダウに先立ってナスダッ
生成AI(人工知能)の需要拡大に伴って、半導体業界では次世代の超高速DRAM(一時的に記憶する半導体)技術に注目が集まっています。 現在主流の代表的なメモリであるDRAMチップを積層化し、高速・大容量のデータ処理を可能にする「HBM(High Bandwidth=バンドウィズ Memory)(高・広帯域メモリ)」がそれです。 メモリは記憶をつかさどる半導体のことです。 生成AIはジェネレーティブAIとも呼ばれ、様々なコンテンツを作り出すことができるAIです。 従来のAIが決められた行為の自動化が目的であるのに対し、生成AIはデータのパターンや関係を学習し、新しいコンテンツを生成することができます。 より大量の情報の処理能力が求められることになり、対応するハイスペックなメモリへのニーズが高まる要因となります。 HBMは3D積層(立体的に積み上げる)メモリ技術の一種で、従来の平面メモリよりもは
● AI半導体の性能向上にとってDRAMの最新規格「DDR5」のウェハをベースに作られる特殊メモリである「HBM」は不可欠である。またAI半導体の増産には先行してHBMの増産が必要になる。HBMメーカーのSKハイニックス、サムスン電子、マイクロン・テクノロジーにとってHBMは重要な収益ドライバーになりつつある。 ● マイクロン・テクノロジーの2024年8月期2Qは売上高は前年比57.7%増、営業損益は黒字転換した。今年2月から「HBM3e」の量産、出荷を開始しており、今3Qから来期にかけてHBMの収益寄与が拡大しよう。DRAM、NANDの市況改善も業績に寄与。今後6~12カ月間の目標株価を前回の110ドルから180ドルに引き上げる。引き続き中長期で投資妙味を感じる。 ● ディスコの2024年3月期4Qの個別売上高は前年比29.9%増、個別出荷額は同35.1%となった。パワー半導体向けが堅調
AIへの関心が高まり、データストレージの需要 高帯域幅メモリ(HBM)が注目を集めています。人工知能(AI)が進化し続けるのに伴い、その需要も増え続けているのです。こうした需要に応えるべく、多くの主要テクノロジー企業がHBMに注力しています。HBMは、低エネルギー消費でより高速なデータアクセスを実現する様に設計された、高度なコンピューターメモリです。これはAIにとって、メモリチップの性能面と消費電力の削減という点で、重要な要素になります。 HBMは3D積層を採用しており、先端パッケージング技術を使用して、複数のデバイス層を垂直に積み重ねます。専用のDRAMチップを垂直に積層して、高速チャンネルで接続することにより、複雑なAIタスクの実行に必要な高速なデータ交換を可能にしています。 生成AIやデータ処理といった新たな成長ドライバーは、まだ導入の初期段階であり、HBMの市場ポテンシャルは今後も
北森瓦版 - Northwood Blog (Author : 北森八雲. Since July 10, 2006.) Alleged AMD Next-Gen Flagship Navi ‘Radeon RX’ GPU Specifications Leaked – 5120 Cores, 24 GB HBM2e Memory, 2 TB/s Bandwidth(WCCF Tech) TwitterユーザーであるCyberPunkCat氏がSK Hynixの資料を情報元とし、AMDの次世代Radeon RXについて述べている。 次世代Radeon RXこと“RDNA2”は7nm+プロセスで製造され、現行の7nmで製造されている“RDNA”アーキテクチャのRadeon RX graphics製品群を2020年に置き換える。新しい“RDNA2”アーキテクチャの新製品群は現行世代からより洗練し
久しぶりに今週はNVIDIAの話だ。前回のロードマップアップデートが連載581回なので半年ぶりである。なぜこんなに空いたかと言えば、新製品がまったく出てこないのが理由である。今年1月に発表になったGeForce RTX 3080 12GBは新製品と言えば新製品だが、基本的にはGeForce RTX 3080 Tiのダウングレード版ということを考えると、バリエーションチェンジの範疇と言えよう。 そんなNVIDIAであるが、3月23日からオンライン開催となったGTC 2022の基調講演で、次世代GPUであるHopperが発表になった。実際にはHopperだけでなく、ものすごく盛り沢山の発表があり、これを全部カバーするのは1本の記事では到底不可能なのだが、現状ではまだ詳細が明らかにされないGraceなどは後回しにして、一番の目玉とでもいうべきHopperことNVIDIA H100 GPUについて
GDDR7 DRAMはAI用途でHBMの「代替品」として飛躍する可能性も:生成AIの普及でHBMの需要が増す中(1/2 ページ) JEDEC Solid State Technology Associationは2024年3月に、次世代グラフィックス製品向けのメモリ規格「GDDR7」の仕様策定を完了したと発表した。生成AI(人工知能)の急速な普及に伴い、HBM(広帯域幅メモリ)の需要が大幅に増加する中、GDDR7がHBMの“代用品”になる可能性があると関係者は語る。 最近のAI(人工知能)の進歩は革命的に見えるかもしれない。さらに、米国の電子部品関連標準化団体「JEDEC Solid State Technology Association(以下、JEDEC)」は、GDDR(Graphics Double Data Rate)規格のAIアプリケーションへの使用が増加する中でも、同規格の進化
j次のブックマーク
k前のブックマーク
lあとで読む
eコメント一覧を開く
oページを開く