<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 網絡與存儲 > 市場分析 > 美光、SK海力士今年HBM已售罄

          美光、SK海力士今年HBM已售罄

          作者:時間:2024-02-27來源:半導體產業縱橫收藏

          隨著生成式人工智能(AI)市場的爆發,也帶動了 AI 芯片需求的暴漲。AI 芯片龍頭英偉達業績更是持續飆升,最新公布的第四財季財報顯示,營收同比暴漲 265% 至 221 億美元,凈利潤同比暴漲 769% 至 122.85 億美元,持續突破歷史記錄,推動英偉達市值突破 2 萬億美元。

          本文引用地址:http://www.ex-cimer.com/article/202402/455734.htm

          隨著 AI 芯片需求持續大漲,作為目前 AI 芯片當中的極為關鍵的器件,(高帶寬內存)也是持續供不應求,存儲大廠積極瞄準 擴產。

          其中,三星電子從 2023 年四季度開始擴大 3 的供應。此前 2023 年四季度三星內部消息顯示,已經向客戶提供了下一代 HBM3E 的 8 層堆疊樣品,并計劃在今年上半年開始量產。到下半年,其占比預計將達到 90% 左右。負責三星美國半導體業務的執行副總裁 Han Jin-man 則在今年 CES 2024 上表示,三星今年的 HBM 芯片產量將比去年提高 2.5 倍,明年還將繼續提高 2 倍。

          三星官方還透露,公司計劃在今年第四季度之前,將 HBM 的最高產量提高到每月 15 萬至 17 萬件,以此來爭奪 2024 年的 HBM 市場。此前三星電子斥資 105 億韓元收購了三星顯示位于韓國天安市的工廠和設備,以擴大 HBM 產能,同時還計劃投資 7000 億至 1 萬億韓元新建封裝線。

          去年 12 月,美光 CEO Sanjay Mehrotra 對外透露,得益于生成式 AI 的火爆,推動了云端高性能 AI 芯片對于高帶寬內存的旺盛需求,美光 2024 年的 HBM 產能預計已全部售罄。

          美光指出,專為 AI、超級計算機設計的 HBM3E 預計 2024 年初量產,有望于 2024 會計年度創造數億美元的營收。Mehrotra 對分析師表示,「2024 年 1~12 月,美光 HBM 預估全數售罄」。

          美光也相信,終端能執行 AI 任務的 PC、移動設備,對內存芯片來說蘊藏極大潛質。

          Mehrotra 預測,PC 出貨量在連兩年出現雙位數跌幅后,有望 2024 年成長 1%~5%。他相信,PC 制造商 2024 下半年擴產 AI PC,這些 PC 每臺需要額外 4~8Gb DRAM,固態硬盤(SSD)需求也會上揚。

          Mehrotra 還表示,長期而言,許多熱門生成式 AI 程序的主戰場會是智能手機,美光的產品組合有望抓住這次內存及儲存市場潛藏的機會。美光計劃增加 2024 會計年度的資本支出,但高層承諾會「極度節制」(extremely disciplined)。

          繼此前美光宣布今年 HBM 產能全部售罄之后,最新的消息顯示,SK 海力士今年的 HBM 產能也已經全部售罄。

          雖然整個 2023 年全球半導體市場遭遇了「寒流」,特別是存儲芯片市場更是下滑嚴重。但是,受益于生成式 AI 帶來的需求,面向 AI 應用的 DRAM 依然保持了快速的增長。

          SK 海力士在 2023 年度財報當中就曾表示,2023 年在 DRAM 方面,公司以引領市場的技術實力積極應對了客戶需求,公司主力產品 DDR5 DRAM 和 HBM3 的營收較 2022 年分別成長 4 倍和 5 倍以上。

          近日,SK 海力士副總裁 Kim Ki-tae(金基泰)在一篇博文中表示,今年公司的 HBM 已經售罄,已開始為 2025 年做準備。雖然外部不穩定因素依然存在,但今年內存半導體行業已開始呈現上升趨勢。全球大型科技客戶對產品的需求正在復蘇,并且隨著人工智能使用領域的擴大,包括配備自己的人工智能的設備,如個人電腦和智能手機,對 DDR5、LPDDR5T 以及 HBM3E 等產品的需求預計會增加。

          據悉,英偉達和 AMD 的下一代人工智能 GPU 預計將主要搭載 HBM3 內存。例如,H100 是第一款支持 PCIe 5.0 標準的 GPU,也是第一款采用 HBM3 的 GPU,最多支持六顆 HBM3,帶寬為 3TB/s,是 A100 采用 HBM2E 的 1.5 倍,默認顯存容量為 80GB。

          2023 年 11 月英偉達發布了新一代 AI GPU 芯片 H200,以及搭載這款 GPU 的 AI 服務器平臺 HGX H200 等產品。這款 GPU 是 H100 的升級款,依舊采用 Hopper 架構、臺積電 4nm 制程工藝,根據英偉達官網,H200 的 GPU 芯片沒有升級,核心數、頻率沒有變化,主要的升級便是首次搭載 HBM3e 顯存,并且容量從 80GB 提升至 141GB。

          得益于新升級的 HBM3e 芯片,H200 的顯存帶寬可達 4.8TB/s,比 H100 的 3.35TB/s 提升了 43%。不過這遠沒有達到 HBM3e 的上限,海外分析人士稱英偉達有意降低 HBM3e 的速度,以追求穩定。如果與傳統 x86 服務器相比,H200 的內存性能最高可達 110 倍。

          AMD 的 MI300 也搭配 HBM3,其中,MI300A 容量與前一代相同為 128GB,更高端 MI300X 則達 192GB,提升了 50%。AMD 稱,MI300X 提供的 HBM 密度最高是英偉達 AI 芯片 H100 的 2.4 倍,其 HBM 帶寬最高是 H100 的 1.6 倍。這意味著,AMD 的芯片可以運行比英偉達芯片更大的模型。

          在 HBM 盛行的當下,沒有一家存儲廠商能夠忍住不分一杯羹。



          關鍵詞: HBM

          評論


          技術專區

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();