AI大勢!GPU訂單排到明年、HBM與先進(jìn)封裝需求大漲
2023年ChatGPT引發(fā)的AI熱潮仍在繼續(xù),近期媒體報道,今年擁有云端相關(guān)業(yè)務(wù)的企業(yè),大多都向英偉達(dá)采購了大量GPU,目前該公司訂單已排至2024年。
本文引用地址:http://www.ex-cimer.com/article/202306/447944.htm同時,由于英偉達(dá)大量急單涌入,晶圓代工企業(yè)臺積電也從中受益。據(jù)悉,英偉達(dá)正向臺積電緊急追單,這也令臺積電5納米制程產(chǎn)能利用率推高至接近滿載。臺積電正以超級急件(superhotrun)生產(chǎn)英偉達(dá)H100、A100等產(chǎn)品,而且訂單排至年底。
業(yè)界認(rèn)為,隨著ChatGPT等AIGC(生成式人工智能)快速發(fā)展,未來市場對GPU的需求將不斷上升,并將帶動HBM以及先進(jìn)封裝發(fā)展。
資料顯示,AIGC模型需要使用AI服務(wù)器進(jìn)行訓(xùn)練與推理,其中,訓(xùn)練側(cè)AI服務(wù)器基本需要采用中高端GPU,在這些GPU中,HBM的滲透率接近100%。
全球市場研究機構(gòu)TrendForce集邦咨詢預(yù)估2023年AI服務(wù)器(包含搭載GPU、FPGA、ASIC等)出貨量近120萬臺,年增38.4%,占整體服務(wù)器出貨量近9%。
從高端GPU搭載的HBM來看,英偉達(dá)高端GPU H100、A100主采HBM2e、HBM3。以今年H100 GPU來說,搭載HBM3技術(shù)規(guī)格,其中傳輸速度也較HBM2e快,可提升整體AI服務(wù)器系統(tǒng)運算效能。隨著高端GPU如NVIDIA的A100、H100;AMD的MI200、MI300,以及Google自研的TPU等需求皆逐步提升,集邦咨詢預(yù)估2023年HBM需求量將年增58%,2024年有望再成長約30%。
先進(jìn)封裝產(chǎn)能方面,當(dāng)前臺積電CoWoS封裝技術(shù)為目前AI服務(wù)器芯片主力采用者。
集邦咨詢估計在高端AI芯片及HBM強烈需求下,TSMC于2023年底CoWoS月產(chǎn)能有望達(dá)12K,其中,英偉達(dá)在A100及H100等相關(guān)AI Server需求帶動下,對CoWoS產(chǎn)能較年初需求量,估提升近5成,加上AMD、Google等高端AI芯片需求成長下,將使下半年CoWoS產(chǎn)能較為緊迫,而此強勁需求將延續(xù)至2024年,預(yù)估若在相關(guān)設(shè)備齊備下,先進(jìn)封裝產(chǎn)能將再成長3-4成。
評論