以協(xié)助因應(yīng)AI永無止盡的能源需求為使命
人工智能(AI)擁有超越上個(gè)世紀(jì)所有顛覆性創(chuàng)新的潛力,在醫(yī)療保健、生產(chǎn)力、教育等許多領(lǐng)域?yàn)樯鐣?huì)帶來的幫助,將超乎我們的想象。為了讓這些復(fù)雜的AI工作負(fù)載得以運(yùn)作,全球數(shù)據(jù)中心所需的運(yùn)算量也將急速成長。然而,這永無止盡的運(yùn)算需求反映了一大挑戰(zhàn):數(shù)據(jù)中心需要無比龐大的電力,才能推動(dòng)這項(xiàng)突破性技術(shù)。
當(dāng)前數(shù)據(jù)中心的用電量已經(jīng)十分驚人:全球每年需要460太瓦/時(shí)(TWh)的電力,相當(dāng)于德國全國的用電量。預(yù)計(jì)在2030年前,AI的崛起將讓這個(gè)數(shù)值成長3倍,超過印度這個(gè)全球人口最多國家的總用電量。
未來的AI模型將持續(xù)擴(kuò)大且更加聰明,進(jìn)而刺激對更多運(yùn)算的需求,對電力的需求也將隨之增加,形成互相推升的循環(huán)。如何找到降低大型數(shù)據(jù)中心用電量的方法,對于如何突破社會(huì)發(fā)展與實(shí)踐AI承諾來說相當(dāng)關(guān)鍵。
換句話說,沒有電力就沒有AI。
企業(yè)必須重新審視全局以因應(yīng)能源效率問題。
重新構(gòu)想AI未來:由Arm驅(qū)動(dòng)的未來
追求能源效率是Arm的DNA。Arm最早推出的產(chǎn)品即是運(yùn)用電池供電,并啟動(dòng)了手機(jī)革命。這讓業(yè)界重新思考如何打造芯片,以滿足對AI日益成長的需求。
在一個(gè)傳統(tǒng)的服務(wù)器機(jī)柜中,光是運(yùn)算芯片就可消耗超過50%的電力預(yù)算。工程師們正在設(shè)法減少這個(gè)數(shù)值,每一瓦電力都很重要。
在探尋解方的過程中,全球最大的AI超大規(guī)模運(yùn)算業(yè)者紛紛改采Arm解決方案來降低用電量,這并不令人意外。相較于市場上的其他方案,Arm最新的Neoverse CPU是效能最高、能源效率最佳的云端數(shù)據(jù)中心處理器。Neoverse提供超大規(guī)模運(yùn)算業(yè)者客制化芯片的彈性,將要求嚴(yán)苛的工作負(fù)載優(yōu)化,同時(shí)提供先進(jìn)的效能和能源效率,省下的每一度電都可以投入更多的運(yùn)算。這就是現(xiàn)在Amazon、Microsoft、Google 和Oracle都采用Arm Neoverse技術(shù),來處理通用型運(yùn)算,與進(jìn)行基于 CPU 的 AI 推論和訓(xùn)練的原因。Arm Neoverse正成為各云端數(shù)據(jù)中心的實(shí)質(zhì)標(biāo)準(zhǔn)。
請參考近期發(fā)表訊息中的數(shù)據(jù):
? AWS基于Arm架構(gòu)的Graviton:相較于市場競品,Amazon Sagemaker的AI推論效能高出25%,Web應(yīng)用程序效能高出0%,數(shù)據(jù)庫效能高出40%,能源效率則提升60%。
? Google Cloud基于Arm架構(gòu)的Axion:支持基于CPU的AI推論和訓(xùn)練、YouTube、Google Earth等服務(wù),相較于競品的傳統(tǒng)式架構(gòu),效能高出50%,能源效率提升60%。
? Microsoft Azure基于Arm架構(gòu)的Cobalt:效能比市場競品高出40%,支持 Microsoft Teams等服務(wù),并與Maia加速芯片結(jié)合,推動(dòng)Azure的端對端AI架構(gòu)。
? Oracle Cloud基于Arm架構(gòu)的Ampere Altra Max:相較于傳統(tǒng)的競爭者,每機(jī)柜服務(wù)器的效能高出2.5倍,用電量降低2.8倍,并已用于生成式AI推論模型:LLM 訓(xùn)練的數(shù)據(jù)匯整、標(biāo)記,以及批次推論使用場景。
顯然Arm Neoverse已大幅提高云端通用型運(yùn)算的效能和能源效率。然而,客戶現(xiàn)在發(fā)現(xiàn)加速運(yùn)算也能帶來同樣的效益。大規(guī)模AI訓(xùn)練需要獨(dú)特的加速運(yùn)算架構(gòu),例如 NVIDIA Grace Blackwell平臺(tái)(GB200),它將NVIDIA的Blackwell GPU架構(gòu)與基于Arm 架構(gòu)的Grace CPU相結(jié)合。相較于使用同級LLM架構(gòu)的NVIDIA H100 GPU,基于Arm 的運(yùn)算架構(gòu)可實(shí)現(xiàn)系統(tǒng)級設(shè)計(jì)的優(yōu)化,將用電量降低25倍,并將每個(gè)GPU的效能提高達(dá)30倍。這些優(yōu)化能夠帶來顛覆性的效能和節(jié)能效果,歸功于 Arm Neoverse 能實(shí)現(xiàn)前所未有的客制化芯片的彈性。
隨著Arm部署規(guī)模的擴(kuò)大,這些企業(yè)在數(shù)據(jù)中心總用電量可望節(jié)省高達(dá)15%。省下的龐大電量,將可用于在相同的功耗范圍內(nèi)提升AI能力,而無需增加用電。具體來看,這些省下的電力可以用來執(zhí)行20億次ChatGPT查詢,支持四分之一的日常網(wǎng)絡(luò)搜尋流量,照亮 20% 的美國家庭,或者為類似哥斯達(dá)黎加面積相仿的國家提供電力。
這對能源消耗和環(huán)境永續(xù)產(chǎn)生了驚人的影響。
從基礎(chǔ)面來看,Arm CPU正在驅(qū)動(dòng)AI革命,同時(shí)造福地球。
AI運(yùn)算的未來建構(gòu)于Arm之上。
(本文作者Rene Haas為Arm CEO)
評論