<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 網(wǎng)絡與存儲 > 業(yè)界動態(tài) > AI服務器需求帶動HBM供應

          AI服務器需求帶動HBM供應

          作者: 時間:2023-04-19 來源:全球半導體觀察 收藏

          出貨動能強勁帶動(high bandwidth memory)需求提升,據(jù)TrendForce集邦咨詢研究顯示,2022年三大原廠市占率分別為(SK hynix)50%、三星(Samsung)約40%、美光(Micron)約10%。此外,高階深度學習AI GPU的規(guī)格也刺激產(chǎn)品更迭,2023下半年伴隨NVIDIA H100與AMD MI300的搭載,三大原廠也已規(guī)劃相對應規(guī)格HBM3的量產(chǎn)。因此,在今年將有更多客戶導入HBM3的預期下,作為目前唯一量產(chǎn)新世代HBM3產(chǎn)品的供應商,其整體HBM市占率可望藉此提升至53%,而三星、美光則預計陸續(xù)在今年底至明年初量產(chǎn),HBM市占率分別為38%及9%。

          本文引用地址:http://www.ex-cimer.com/article/202304/445726.htm

          預估2023年出貨量年增15.4%

          目前NVIDIA所定義的DL/ ML型平均每臺均搭載4張或8張高端顯卡,搭配兩顆主流型號的x86 服務器CPU,而主要拉貨力道來自于美系云端業(yè)者Google、AWS、Meta與Microsoft。據(jù)TrendForce集邦咨詢統(tǒng)計,2022年高端搭載GPGPU的服務器出貨量年增約9%,其中近80%的出貨量均集中在中、美系八大云端業(yè)者。展望2023年,Microsoft、Meta、Baidu與ByteDance相繼推出基于生成式AI衍生的產(chǎn)品服務而積極加單,預估今年AI服務器出貨量年增率可望達15.4%,2023~2027年AI 服務器出貨量年復合成長率約12.2%。

          AI服務器刺激Server DRAM、SSD與HBM需求同步上升

          根據(jù)TrendForce集邦咨詢調查,AI服務器可望帶動存儲器需求成長,以現(xiàn)階段而言, Server DRAM普遍配置約為500~600GB左右,而AI服務器在單條模組上則多采64~128GB,平均容量可達1.2~1.7TB之間。以Enterprise SSD而言,由于AI服務器追求的速度更高,其要求優(yōu)先滿足DRAM或HBM需求,在SSD的容量提升上則呈現(xiàn)非必要擴大容量的態(tài)勢,但在傳輸接口上,則會為了高速運算的需求而優(yōu)先采用PCIe 5.0。而相較于一般服務器而言,AI服務器多增加GPGPU的使用,因此以NVIDIA A100 80GB配置4或8張計算,HBM用量約為320~640GB。未來在AI模型逐漸復雜化的趨勢下,將刺激更多的存儲器用量,并同步帶動Server DRAM、SSD以及HBM的需求成長。




          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();