<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 網(wǎng)絡(luò)與存儲 > 市場分析 > AI及HPC需求帶動對HBM需求容量將年增近60%

          AI及HPC需求帶動對HBM需求容量將年增近60%

          作者: 時間:2023-06-28 來源:全球半導(dǎo)體觀察 收藏

          為解決高速運算下,存儲器傳輸速率受限于DDR SDRAM帶寬而無法同步成長的問題,高帶寬存儲器(High Bandwidth Memory,)應(yīng)運而生,其革命性傳輸效率是讓核心運算元件充分發(fā)揮效能的關(guān)鍵。據(jù)集邦咨詢研究顯示,目前高端服務(wù)器GPU搭載已成主流,預(yù)估2023年全球需求量將年增近六成,來到2.9億GB ,2024年將再成長三成。

          本文引用地址:http://www.ex-cimer.com/article/202306/448064.htm

          集邦咨詢預(yù)估到2025年,全球若以等同ChatGPT的超大型GC產(chǎn)品5款、Midjourney的中型GC產(chǎn)品有25款,以及 80款小型AIGC產(chǎn)品估算,上述所需的運算資源至少為145,600~233,700顆NVIDIA A100 GPU,再加上新興應(yīng)用如超級計算機、8K影音串流、AR/VR等,也將同步提高云端運算系統(tǒng)的負(fù)載,顯示出高速運算需求高漲。

          由于HBM擁有比DDR SDRAM更高的帶寬和較低的耗能,無疑是建構(gòu)高速運算平臺的最佳解決方案,從2014與2020年分別發(fā)布的DDR4 SDRAM及DDR5 SDRAM便可究其原因,兩者頻寬僅相差兩倍,且不論是DDR5或未來DDR6,在追求更高傳輸效能的同時,耗電量將同步攀升,勢必拖累運算系統(tǒng)的效能表現(xiàn)。若進一步以HBM3與DDR5為例,前者的帶寬是后者的15倍,并且可以通過增加堆棧的顆粒數(shù)量來提升總帶寬。此外,HBM可以取代一部分的GDDR SDRAM或DDR SDRAM,從而更有效地控制耗能。

          集邦咨詢表示,目前主要由搭載NVIDIA A100、H100、AMD MI300,以及大型CSP業(yè)者如Google、AWS等自主研發(fā)ASIC的AI服務(wù)器成長需求較為強勁,2023年AI服務(wù)器出貨量(包含搭載GPU、FPGA、ASIC等)出貨量預(yù)估近120萬臺,年增率近38%,AI芯片出貨量同步看漲,可望成長突破五成。




          關(guān)鍵詞: AI HPC HBM TrendForce

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();