並び順

ブックマーク数

期間指定

  • から
  • まで

1 - 8 件 / 8件

新着順 人気順

HBMの検索結果1 - 8 件 / 8件

  • HBMのイラスト

    あいまい検索(英語検索) あいまいな日本語で(英語でも)検索できます。上手く動くか分からないのでお試しです。 検索の仕方については「検索のコツ」をご覧ください。 AIを使っていらすとや風の画像が生成できるサービスです。 Eテレのショートアニメです。 いらすとやが更新されたらお知らせするX(ツイッター)アカウントです。 いらすとやのLINEスタンプに関する情報をお知らせするLINEアカウントです。

      HBMのイラスト
    • 過熱するHBM開発競争、SK hynixは製品化を前倒し

      過熱するHBM開発競争、SK hynixは製品化を前倒し:「HBM4」を2025年に発表へ(1/3 ページ) SK hynixは、次世代HBMである「HBM4」製品について、従来の想定より1年早い2025年に発表予定だと明かした。同社はHBM市場で大きなシェアを確保しているが、専門家は「今後、より厳しい競争に直面することになるだろう」と語っている。 HBM4Eまでのロードマップを公開 SK hynixは、AI(人工知能)に不可欠なHBM(広帯域幅メモリ)市場において、同社が引き続き優位性を確保していく考えであることを示すロードマップを公開した。一方で業界専門家は米国EE Timesの取材に対し、「SK hynixは、同社のライバルであるSamsung Electronics(以下、Samsung)やMicron Technology(以下、Micron)に対してリードを維持してきたが、今後

        過熱するHBM開発競争、SK hynixは製品化を前倒し
      • HuaweiがHBMチップ開発で中国のファウンドリ武漢新信半導体製造と提携、制裁を回避する体制確立へ

        by laboratorio linux Huaweiは、アメリカからの技術制裁を受けている中、AI研究などに高帯域幅メモリ(HBM)の開発で技術的な自立を目指しています。そのHuaweiが、武漢新芯半導体製造(Wuhan Xinxin)と共同でHBMの開発を進めていることがわかりました。 Huawei and Wuhan Xinxin to develop high-bandwidth memory chips amid US restrictions | South China Morning Post https://www.scmp.com/tech/big-tech/article/3268643/huawei-chip-maker-wuhan-xinxin-develop-high-bandwidth-memory-chips-amid-us-restrictions Huaw

          HuaweiがHBMチップ開発で中国のファウンドリ武漢新信半導体製造と提携、制裁を回避する体制確立へ
        • フリー素材集「いらすとや」に“HBM”メモリのイラスト登場 - HPC向けGPUに採用される広帯域メモリ

          かわいいフリー素材集「いらすとや」において、「HBMのイラスト」が6月25日に掲載されている。従来のメモリチップとは異なり、パッケージ内に混載されている様子がよくわかる。 フリー素材集「いらすとや」に“HBM”メモリのイラスト登場 - HPC向けGPUに採用される広帯域メモリ 今回掲載された「HBMのイラスト」は、AI向けの半導体製品への採用例が多くなっている最新メモリ規格。キャプションにも「AIのデータ処理などを行うGPUに搭載されるメモリー、HBM(High Bandwidth Memory・広帯域メモリ)のイラストです。」とあり、AI製品への採用が増えていることが反映されているようだ。 一般的なグラフィックスカード等に採用のあるGDDRメモリとの大きな違いとして、メモリチップがパッケージ内部に統合されている点がポイント。これによって従来よりも極めて広い帯域を小さいレイテンシで利用でき

            フリー素材集「いらすとや」に“HBM”メモリのイラスト登場 - HPC向けGPUに採用される広帯域メモリ
          • JEDECがHBM4の暫定仕様を発表、次世代Rubin GPUは大幅な性能強化の見通し | XenoSpectrum

            JEDECが第4世代高帯域幅メモリ(HBM4)の暫定仕様を発表し、次世代のAIと高性能コンピューティング向けメモリ技術の方向性が明確になった。HBM4は前世代のHBM3から大幅な性能向上を実現し、データ集約型アプリケーションの需要に応えるための仕様を備えている。 HBM4は16段スタックで最大32ギガバイトの大容量メモリーを実現する 半導体業界とメモリ業界は、関連製品の性能を新たなレベルに引き上げると期待されるメモリタイプ、HBM4に注目している。 HBMの採用率は、AIアクセラレータなど、このメモリタイプを利用した製品に対するAI市場からの需要により、この1年で大幅に急上昇した。 JEDECはついにHBM4の開発を検証し、次世代のHBM4でどのようなことが実現されるのかを垣間見せてくれている。 HBM4の最も注目すべき特徴は、スタックあたりのチャネル数がHBM3の2倍に増加したことだ。こ

              JEDECがHBM4の暫定仕様を発表、次世代Rubin GPUは大幅な性能強化の見通し | XenoSpectrum
            • HBMの詳細が分かる資料って? - Vengineerの妄想

              はじめに 生成AIにて、NVIDIAのGPUがバカ売れしていますが、そのGPUに使われているメモリが HBM です。 HBMって、どんなメモリなのかを知るための資料としては、下記のPC Watchの後藤さんの記事が一番いいのでは?と思っています。 pc.watch.impress.co.jp 今回のブログは、上記の記事から、HBM とはどんなものかを学んでいきます。 2014年では、1st Gen HBM 上記の記事は、2014年5月1日です。今から10年前です。なので、HBM も HBM2/HBM3 ではなく、番号無しの HBM です。 SK hynix と AMD の共同資料では、 Logic Die 4 DRAMs (2Gb x 4 = 8Gb = 1GB) Interface Width : 1024 Channles/Die, Channles/Stack = 2, 8 の構成に

                HBMの詳細が分かる資料って? - Vengineerの妄想
              • Samsung、Nvidiaを上回る評価、HBM3半導体の大規模製造を開始:記事 執筆: Investing.com

                Samsung Electronicsが、Nvidiaが実施した資格試験に合格した後、8-層High Bandwidth Memory 3(HBM3)チップの大規模生産を開始した旨。 この進展により、サムスンがエヌビディア(NVDA)に提供することを熱望している高度なHBM3Eチップが、必要な品質基準を満たす可能性が高まった。 HBMチップは、その優れたメモリ帯域幅と効率性から、現在の人工知能(AI)の躍進においてますます重要性を増している。これらの特性は、AI操作におけるデータ処理の迅速化とパフォーマンスの向上に寄与する。 これらのチップは、膨大なデータセットへの迅速なアクセスを可能にし、遅延を最小限に抑えることで、機械学習やニューラルネットワークのトレーニングなど、AIタスクの高度な処理要件に不可欠である。 この報道が正確であれば、サムスンにとって大きな前進を意味する。ロイターは今年初

                  Samsung、Nvidiaを上回る評価、HBM3半導体の大規模製造を開始:記事 執筆: Investing.com
                • HBMとDRAMのリーダー銘柄は!?|キューピー358

                  HBMとDRAMのトップシェア3社と今後の動向トップシェア3社の現状SK Hynix HBM市場でのリーダーシップ: SK Hynixは、HBM市場でのリーダーシップを維持しています。特に、NvidiaにHBM3メモリを独占供給しており、NvidiaはAI GPU市場の80%を占めています。2024年には、HBMチップが同社のDRAM売上の二桁パーセンテージを占めると予測されています。 技術革新と生産能力の拡大: SK Hynixは、16層のHBM3E技術を公開し、2024年には48GBのHBM3E製品を発表する予定です。また、2025年にはHBM4の量産を目指しています[2]。韓国と米国で新しいチップ製造施設を建設中で、特に韓国のM15Xファウンドリは2025年11月にHBM生産を開始する予定です。 Samsung Electronics HBM市場での競争: Samsungは、HBM3

                    HBMとDRAMのリーダー銘柄は!?|キューピー358
                  1