AI服務(wù)器爆火,這些芯片賽道進入狂歡期
在當(dāng)今社會,人工智能的應(yīng)用場景愈發(fā)廣泛,如小愛同學(xué)、天貓精靈等 AI 服務(wù)已深入人們的生活。隨著人工智能時代的來臨,AI 服務(wù)器也開始在社會各行業(yè)發(fā)揮重要作用。那么,AI 服務(wù)器與傳統(tǒng)服務(wù)器相比,究竟有何獨特之處?為何 AI 服務(wù)器能在人工智能時代中逐漸取代普通服務(wù)器,成為主流呢?
本文引用地址:http://www.ex-cimer.com/article/202405/459022.htmAI 服務(wù)器與傳統(tǒng)服務(wù)器的區(qū)別
AI 服務(wù)器和傳統(tǒng)服務(wù)器之間有顯著的區(qū)別。
AI 服務(wù)器是一種專門設(shè)計用于執(zhí)行人工智能、機器學(xué)習(xí)(ML)、深度學(xué)習(xí)(DL)等計算密集型任務(wù)的高性能服務(wù)器。它可以通過收集數(shù)據(jù)、分析數(shù)據(jù)和模擬數(shù)據(jù)來學(xué)習(xí)如何有效地運行服務(wù)器,也可以根據(jù)不同的應(yīng)用程序和用戶請求來調(diào)整服務(wù)器的性能,從而提供更好的服務(wù)器性能。
而傳統(tǒng)服務(wù)器雖然也可以處理大量數(shù)據(jù),但是需要人工干預(yù)來提高服務(wù)器性能。
從服務(wù)器的硬件架構(gòu)來看,AI 服務(wù)器通常配備有高效能的中央處理器(CPU)、圖形處理器(GPU)、張量處理器(TPU)或?qū)S玫?AI 加速器,以及大量的內(nèi)存和存儲空間。在異構(gòu)方式上,AI 服務(wù)器可以為 CPU+GPU、CPU+FPGA、CPU+TPU、CPU+ASIC 或 CPU+多種加速卡。
目前,產(chǎn)品中最常見的是 CPU+多塊 GPU 的方式。具體的設(shè)計和配置可以根據(jù)需要進行大量并行處理的具體任務(wù)來進行調(diào)整。
傳統(tǒng)服務(wù)器主要以 CPU 為算力提供者,但是在運作的過程中需要引入大量分支跳轉(zhuǎn)中斷處理,這使得 CPU 的內(nèi)部結(jié)構(gòu)復(fù)雜,并不能滿足 AI 時代的需求。
AI 服務(wù)器的主要優(yōu)勢:
大數(shù)據(jù)處理:AI 服務(wù)器能夠處理和分析大量數(shù)據(jù),這是訓(xùn)練 AI 和 ML 模型的關(guān)鍵。
并行計算:由于 AI 和 ML 算法需要對大量數(shù)據(jù)進行復(fù)雜的計算,AI 服務(wù)器通常使用可以并行處理大量數(shù)據(jù)的硬件,如 GPU。
存儲和內(nèi)存:AI 服務(wù)器通常具有大量的存儲空間和內(nèi)存,以便存儲和處理大量的數(shù)據(jù)。
網(wǎng)絡(luò)能力:AI 服務(wù)器需要高速和低延遲的網(wǎng)絡(luò)連接,以便快速傳輸大量的數(shù)據(jù)。
事實上,這也正是大模型熱潮之后,AI 服務(wù)器搶購潮涌現(xiàn)的原因所在。大模型內(nèi)部蘊含的數(shù)據(jù)參數(shù)極其龐大,無論是訓(xùn)練還是運行,都需要更強大的計算資源來支撐。因此,為了滿足這種需求,高性能的 AI 服務(wù)器變得至關(guān)重要,從而引發(fā)了搶購熱潮。
呈現(xiàn)在具體應(yīng)用中,AI 服務(wù)器廣泛應(yīng)用于深度學(xué)習(xí)、高性能計算、醫(yī)療、搜索引擎、游戲、電子商務(wù)、金融、安全等行業(yè)。比如在醫(yī)學(xué)圖像智能分析應(yīng)用中,AI 服務(wù)器可以通過機器視覺、知識地圖、深度學(xué)習(xí)等人工智能技術(shù),模擬醫(yī)學(xué)專家思維、推理診斷,幫助醫(yī)生定位疾病,協(xié)助診斷;在安全監(jiān)控的應(yīng)用中,AI 服務(wù)器可以應(yīng)用于人體分析、圖像分析、車輛分析、行為分析等安全場景。
AI 服務(wù)器的兩大類別
按照 AI 應(yīng)用場景的需求,AI 服務(wù)器主要分為兩類:深度學(xué)習(xí)訓(xùn)練型和智能應(yīng)用推理型。
訓(xùn)練任務(wù)對服務(wù)器算力要求較高,需要訓(xùn)練型服務(wù)器提供高密度算力支持;推理任務(wù)則是利用訓(xùn)練后的模型提供服務(wù),對算力無較高要求。
簡單來說,訓(xùn)練過程就是一個學(xué)習(xí)的過程,訓(xùn)練是一個搜索和求解模型最優(yōu)參數(shù)的階段; 推理是將深度學(xué)習(xí)訓(xùn)練成果投入使用的過程,即模型參數(shù)已經(jīng)求解出來,使用和部署模型階段。
根據(jù)使用需求的不同,不同 AI 服務(wù)器對 GPU 的采用也不同。
訓(xùn)練階段要求 GPU 具有強大的計算能力和高存儲帶寬,以應(yīng)對大規(guī)模的數(shù)據(jù)處理和復(fù)雜的數(shù)學(xué)運算。因此,在選擇用于訓(xùn)練階段的 GPU 時,通常需要關(guān)注其性能、功耗、可靠性和軟件兼容性等方面。具有高頻率、多核心和大顯存的 GPU 產(chǎn)品通常更適合訓(xùn)練階段的需求。拿英偉達來說,訓(xùn)練時可以選 A100V100A800 等顯卡。
推理階段主要關(guān)注的是模型的快速響應(yīng)和準(zhǔn)確輸出。這一階段的計算量相對較小,但要求 GPU 能夠快速且穩(wěn)定地執(zhí)行預(yù)訓(xùn)練好的模型。因此,推理階段對 GPU 的需求更注重其穩(wěn)定性和能效比。英偉達的 P4、T4、A10 等顯卡,更適合推理階段的需求。
AI 服務(wù)器出貨量激增
AI 服務(wù)器作為算力的發(fā)動機,算力需求的增長將迎來 AI 服務(wù)器需求的快速增長。
據(jù) IDC 統(tǒng)計,2023 年全球 AI 服務(wù)器市場規(guī)模預(yù)計為 211 億美元,2025 年將達到 17.9 億美元,2023-2025 年 CAGR 為 22.7%。出貨量方面,根據(jù) TrendForce 數(shù)據(jù),2023 年 AI 服務(wù)器出貨量逾 120 萬臺,占據(jù)服務(wù)器總出貨量的近 9%,年增長達 38.4%。預(yù)計 2026 年,AI 服務(wù)器出貨量為 237 萬臺,占比達 15%,復(fù)合年增長率預(yù)計保持 25%。
再看中國市場,IDC 預(yù)計 2023 年中國 AI 服務(wù)器市場規(guī)模將達到 91 億美元,同比增長 82.5%;2027 年將達到 134 億美元,年均復(fù)合增長率為 21.8%。主要原因是國內(nèi)各大廠商紛紛布局 AI 服務(wù)器產(chǎn)業(yè),升級產(chǎn)品技術(shù)規(guī)格。處理器方面,浪潮信息產(chǎn)品主要通過搭建四代英特爾 CPU+英偉達 H800GPU 超高算力組合,華為的昇騰系列和鯤鵬系列服務(wù)器主要搭載自研鯤鵬處理器及昇騰處理器,中科可控搭載海光處理器滿足算力需求。此外,廠商普遍配置有 32 個 DDR4 內(nèi)存插條和 SAS/SATA 硬盤,以及支持 0/1/10/5/50/6/60RAID。
計算芯片和存儲是服務(wù)器的核心構(gòu)成,在 AI 服務(wù)器發(fā)展如日中天的當(dāng)下,計算芯片和存儲自然而然跟隨著 AI 服務(wù)器的步伐走上快車道。
這些芯片賽道,進入狂歡期
國產(chǎn) CPU 迎來發(fā)展好時機
上文提到,如今的算力芯片通常是 CPU+多塊 GPU 的方式。
當(dāng)下主流的服務(wù)器 CPU 架構(gòu)包括 X86、ARM、MIPS 和 RISC-V 等。其中 X86 架構(gòu)處理器統(tǒng)治著 PC 和服務(wù)器市場,Arm 架構(gòu)處理器統(tǒng)治著移動市場和 IoT 市場,MIPS 是基于 RISC 的衍生架構(gòu)之一,近年來 RISC-V 架構(gòu)則憑借著開源、指令精簡、可擴展等優(yōu)勢,在注重能效比的物聯(lián)網(wǎng)領(lǐng)域大受追捧,并開始進入更高性能需求的服務(wù)器市場。
當(dāng)前市場格局中,英特爾和 AMD 兩大巨頭憑借深厚的技術(shù)積累和市場布局,占據(jù)了市場的絕大部分份額。
然而,隨著 AI 技術(shù)的飛速發(fā)展,中國作為服務(wù)器市場的增長引擎,也為眾多服務(wù)器芯片公司提供了前所未有的發(fā)展機遇。這些公司紛紛瞄準(zhǔn)這一黃金時期,加大研發(fā)力度,提升產(chǎn)品性能,以期在激烈的市場競爭中脫穎而出,分得一杯羹。
如今,國產(chǎn)服務(wù)器 CPU 正處于奮力追趕的關(guān)鍵時期,主流的廠商包括海光、兆芯、飛騰、華為鯤鵬、龍芯、申威。
海光完全兼容 X86 架構(gòu),擁有指令集永久授權(quán),不僅具備了獨立設(shè)計 CPU 內(nèi)核和 SoC 的能力,也可以對指令集進行自主擴展和優(yōu)化。海光 CPU 系列產(chǎn)品中,海光三號為 2023 年主力銷售產(chǎn)品,海光四號、海光五號處于研發(fā)階段。海光 CPU 既支持面向數(shù)據(jù)中心、云計算等復(fù)雜應(yīng)用領(lǐng)域的高端服務(wù)器;也支持面向政務(wù)、企業(yè)和教育領(lǐng)域的信息化建設(shè)中的中低端服務(wù)器以及工作站和邊緣計算服務(wù)器,已經(jīng)應(yīng)用于電信、金融、互聯(lián)網(wǎng)、教育、交通、工業(yè)設(shè)計、圖形圖像處理等領(lǐng)域。
再看飛騰,飛騰已與 1600 余家國內(nèi)軟硬件廠商打造完整生態(tài)體系,并已完成與 6 大類 1000 余種整機產(chǎn)品、2600 余種軟件和外設(shè)的適配?;陲w騰桌面 CPU 的終端已形成較為完整的生態(tài)圖譜,可覆蓋從整機硬件、基礎(chǔ)軟件到上層的應(yīng)用。
去年四月,龍芯推出 2023 款 HPC CPU:3D5000,擁有 32 核高達 2 GHz 和 300W TDP,據(jù)稱比典型 Arm 芯片快 4 倍。龍芯 3D5000 的推出,進一步滿足了數(shù)據(jù)中心對性能的需求,也標(biāo)志著龍芯中科在服務(wù)器 CPU 芯片領(lǐng)域進入國內(nèi)領(lǐng)先行列。
此外國內(nèi)企業(yè)還在加快部署 RISC-V 芯片。比如去年 10 月,山東大學(xué)成功部署了基于 RISC-V CPU 的服務(wù)器集群,該系統(tǒng)擁有 3072 個核心,并配置了 48 個 64 位 RISC-V CPU 節(jié)點。中國科學(xué)院 (CAS) 正在開發(fā)「香山」RISC-V 芯片。
目前,從架構(gòu)路線上看,x86 更具發(fā)展空間和潛力。
X86 不僅是國際廣泛認(rèn)可的通用計算架構(gòu),而且國產(chǎn) CPU 廠商通過獲得 X86 架構(gòu)和指令集的授權(quán),不斷消化、吸收與創(chuàng)新,目前已具備高度的自主發(fā)展和自由迭代的能力。
在自主發(fā)展方面,X86 架構(gòu)為國產(chǎn) CPU 廠商提供了一個廣闊的舞臺。他們不僅可以在架構(gòu)的基礎(chǔ)上進行微架構(gòu)創(chuàng)新,還可以根據(jù)國內(nèi)市場的特殊需求,定制和優(yōu)化指令集,開發(fā)出更符合本土用戶習(xí)慣和應(yīng)用場景的 CPU 產(chǎn)品。這種定制化的能力使得國產(chǎn) CPU 在性能和功能上能夠與國際大廠的產(chǎn)品相媲美,甚至在某些特定領(lǐng)域?qū)崿F(xiàn)超越。其次,在自由迭代方面,國產(chǎn) CPU 廠商具備了對 X86 架構(gòu)進行持續(xù)升級和優(yōu)化的能力。
因此,在安全性方面,國產(chǎn) X86 CPU 廠商具備自主可控的能力,他們可以通過自主研發(fā)和創(chuàng)新,確保 CPU 產(chǎn)品在設(shè)計和制造過程中的安全性。
GPU 廠商更是進入黃金時刻
GPU 市場的火熱程度還要遠(yuǎn)遠(yuǎn)夸張于 CPU 市場。
盡管 FPGA、各類 ASIC 芯片也能執(zhí)行大量運算,但 GPU 的通用性無疑讓它更具吸引力。
在 AI 服務(wù)器的構(gòu)建中,GPU 的價值量顯著高于 CPU。一臺 AI 服務(wù)器通常僅搭載 1-2 塊 CPU,但 GPU 的數(shù)量則可能大大增加。根據(jù) GPU 數(shù)量的不同,AI 服務(wù)器可分為四路、八路和十六路服務(wù)器,其中搭載 8 塊 GPU 的八路 AI 服務(wù)器最為常見。這種配置使得 AI 服務(wù)器在處理大規(guī)模數(shù)據(jù)和高復(fù)雜度算法時具有更高的效率和穩(wěn)定性。
以浪潮的服務(wù)器產(chǎn)品為例,我們可以更直觀地感受到 GPU 在 AI 服務(wù)器中的價值。浪潮的通用服務(wù)器 NF5280M6 采用 1~2 顆第三代 Intel Xeon 可擴展處理器,每顆 CPU 的售價約為 64000 元,因此該服務(wù)器的芯片成本大約在 64000~128000 元之間。然而,在浪潮的 AI 服務(wù)器 NF5688M6 中,情況則大不相同。該服務(wù)器采用了 2 顆第三代 Intel Xeon 可擴展處理器和 8 顆英偉達 A800 GPU 的組合。據(jù)英偉達官網(wǎng)顯示,每顆 A800 的售價高達 104000 元。因此,僅計算芯片成本,該 AI 服務(wù)器的芯片成本就達到了約 96 萬元。
可以看到,隨著 AI 服務(wù)器的廣泛普及和應(yīng)用,GPU 也迎來量價齊升。
作為全球領(lǐng)先的 GPU 制造商,英偉達憑借其卓越的技術(shù)和創(chuàng)新能力,成功抓住了 AI 發(fā)展的黃金機遇。不斷推出性能更強大、功能更豐富的 GPU 產(chǎn)品,滿足了 AI 服務(wù)器日益增長的計算需求。英偉達不僅收獲了接到手軟的訂單,還成功占領(lǐng)了 AI 服務(wù)器市場的制高點。
當(dāng)然,國產(chǎn) GPU 廠商也不會錯過這一好時機。他們加大研發(fā)力度,努力提升產(chǎn)品性能和質(zhì)量,以滿足國內(nèi) AI 服務(wù)器市場的迫切需求。
2023 年上半年,中國加速芯片的市場規(guī)模超過 50 萬張。從技術(shù)角度看,GPU 卡占有 90% 的市場份額;從品牌角度看,中國本土 AI 芯片品牌出貨超過 5 萬張,占比整個市場 10% 左右的份額。
國產(chǎn) GPU 有兩條主要的發(fā)展路線:分別為傳統(tǒng)的 2D/3D 圖形渲染 GPU 和專注高性能計算的 GPGPU,近年來,國產(chǎn) GPU 廠商在圖形渲染 GPU 和高性能計算 GPGPU 領(lǐng)域上均推出了較為成熟的產(chǎn)品。
國產(chǎn)算力 GPU 的主要廠商包括海光信息、寒武紀(jì)、平頭哥、華為昇騰、天數(shù)智芯、燧原科技、摩爾線程、壁仞科技、沐曦等公司,部分產(chǎn)品的單卡指標(biāo)和參數(shù)已經(jīng)與英偉達產(chǎn)品接近或持平。目前國產(chǎn)算力 GPU 芯片在推理場景應(yīng)用較多且具備一定競爭力,如含光 800、思元 370、MTTS3000 等等。
隨著國家對自主可控技術(shù)的重視和支持力度不斷加大,國產(chǎn) GPU 廠商的發(fā)展前景十分廣闊。他們有望在未來通過技術(shù)創(chuàng)新和市場拓展,逐步縮小與國際巨頭的差距,實現(xiàn)國產(chǎn) GPU 在 AI 服務(wù)器市場的更大突破。
DDR5、HBM 成為 AI 服務(wù)器標(biāo)配
HBM(高帶寬內(nèi)存)以其高帶寬、高容量、低延時和低功耗的優(yōu)勢,成為 AI 服務(wù)器中 GPU 的搭載標(biāo)配。英偉達推出的多款用于 AI 訓(xùn)練的芯片 A100、H100 和 H200,均采用 HBM 顯存:
A100 采用 80GB HBM2 顯存,峰值帶寬高達 1.6TB/s。
H100 采用 80GB HBM3 顯存,峰值帶寬高達 3.2TB/s。
H200 采用 96GB HBM3 顯存,峰值帶寬高達 5.12TB/s。
HBM 顯存的應(yīng)用,大幅提升了 AI 訓(xùn)練的速度和效率,是當(dāng)前 AI 計算領(lǐng)域必不可少的重要技術(shù)。
此外,針對 AI 服務(wù)器的高性能要求,更強大的內(nèi)存——DDR5 需求隨之提升。與 DDR4 相比,DDR5 具備更高速度、更大容量和更低能耗等特點。DDR5 內(nèi)存的最高傳輸速率達 6.4Gbps,比 DDR4 高出一倍。
美光科技此前曾表示,AI 服務(wù)器對 DRAM 和 NAND 的容量需求分別是常規(guī)服務(wù)器的 8 倍和 3 倍。AI 服務(wù)器的增長,對內(nèi)存的拉動可謂是肉眼可見,而且需求相當(dāng)明確。中金公司此前指出,2023-2025 年僅 AI 即會為存儲帶來 80 億美元增量市場。
央企加快智算中心建設(shè),國產(chǎn) AI 服務(wù)器機遇大增
2 月 19 日,國務(wù)院國資委召開中央企業(yè)人工智能專題推進會。明確指出中央企業(yè)要加快布局和發(fā)展人工智能產(chǎn)業(yè),加快建設(shè)一批智能算力中心:同時開展 AI+專項行動,加快重點行業(yè)賦能,構(gòu)建一批產(chǎn)業(yè)多模態(tài)優(yōu)質(zhì)數(shù)據(jù)集,打造從基礎(chǔ)設(shè)施、算法工具、智能平臺到解決方案的大模型賦能產(chǎn)業(yè)。央企帶頭加速智算中心建設(shè)、推動 AI 賦能產(chǎn)業(yè),有望提升國產(chǎn)算力需求,帶動相關(guān)產(chǎn)業(yè)發(fā)展。
根據(jù) 2023 年 10 月,中國電信發(fā)布的《AI 算力服務(wù)器(2023-2024 年)集中采購項目》中標(biāo)候選人結(jié)果顯示,總金額約為 84.63 億元,包括 AI 服務(wù)器 4175 臺以及 IB 交換機 1182 臺,其中使用國產(chǎn)(鯤鵬)芯片的 AI 服務(wù)器 1977 臺,占整體采購數(shù)量的 47.35%。
近日,中國聯(lián)通發(fā)布 2024 年人工智能服務(wù)器集中采購項目資格預(yù)審公告,公告顯示,2024 年中國聯(lián)通人工智能服務(wù)器集中采購項目已批準(zhǔn),招標(biāo)人為中國聯(lián)合網(wǎng)絡(luò)通信有限公司及省分公司、聯(lián)通數(shù)字科技有限公司等。此次中國聯(lián)通將采購人工智能服務(wù)器合計 2503 臺,關(guān)鍵組網(wǎng)設(shè)備 RoCE 交換機合計 688 臺,本次采購不劃分標(biāo)包。
在信創(chuàng)、國產(chǎn)化趨勢下,此次招標(biāo)中國產(chǎn)服務(wù)器或占大多數(shù),而隨著運營商招投標(biāo)國產(chǎn)服務(wù)器占比的提升,國產(chǎn)服務(wù)器廠商有望受益。
以下是數(shù)家在「AI 服務(wù)器」概念領(lǐng)域中備受矚目,被視為未來市場潛力巨大的黑馬公司。
IDC 數(shù)據(jù)顯示,2023 年上半年,從銷售額來看,浪潮、新華三、寧暢位居前三,占據(jù)了 70% 以上的市場份額;從出貨臺數(shù)看,浪潮、坤前、寧暢位居前三名,占近 60% 的市場份額。
浪潮信息,主營通用服務(wù)器、邊緣服務(wù)器、AI 服務(wù)器和存儲等。從 2020 年至 2022 年,服務(wù)器業(yè)務(wù)的銷售收入在浪潮信息總營收中占比始終保持在 95% 以上。2023 年上半年,浪潮信息的服務(wù)器及部件業(yè)務(wù)實現(xiàn)營收 244.99 億元,在總營收中占比高達 98.80%。長期以來,浪潮服務(wù)器在中國市場份額都在 30% 左右,位居中國第一,全球第二。
新華三為紫光股份旗下的核心企業(yè),新華三擁有計算、存儲、網(wǎng)絡(luò)、5G、安全、終端等全方位的數(shù)字化基礎(chǔ)設(shè)施整體能力。2023 年上半年,新華三服務(wù)器以 16% 的市場份額穩(wěn)居中國市場第二,其中刀片服務(wù)器(一種高度整合的高性能服務(wù)器系統(tǒng))以 54% 的市場份額蟬聯(lián)中國市場第一。
寧暢信息創(chuàng)立于 2019 年,成立時間雖短,但寧暢團隊在服務(wù)器領(lǐng)域已有 15 年,公司員工中超 90% 是研發(fā)人員,是服務(wù)器領(lǐng)域的「黑馬」公司之一。2023 年上半年,寧暢液冷服務(wù)器市占率增速位居第一,市場占有率增速高達 500%。
坤前計算機成立于 2012 年,是一家成熟服務(wù)器生產(chǎn)商,包含 AI 服務(wù)器、通用服務(wù)器、存儲服務(wù)器、邊緣計算服務(wù)器、高密度服務(wù)器以及國產(chǎn)服務(wù)器系列。中興通訊也是我國知名的服務(wù)器供應(yīng)商之一。據(jù) IDC 發(fā)布數(shù)據(jù),2022 年中興通訊服務(wù)器銷售額和機架服務(wù)器出貨量提升至國內(nèi)前五。在電信行業(yè),中興通訊服務(wù)器及存儲產(chǎn)品發(fā)貨量多年蟬聯(lián)第一,市場份額超過 30%,是中國移動、中國聯(lián)通、中國電信三大運營商的主流供應(yīng)商。
評論