臺積電4納米打造英偉達Blackwell架構GPU,建構迄今最強GB200
GPU大廠英偉達19日清晨在美國加州圣荷西召開的GTC2024,發表號稱迄今最強AI芯片GB200,今年稍晚出貨。GB200采新Blackwell架構GPU,英偉達創辦人暨執行長黃仁勛表示,兩年前Hopper架構GPU已非常出色,但現在需要更強大的GPU。
本文引用地址:http://www.ex-cimer.com/article/202403/456565.htm英偉達每兩年更新頻率,升級一次GPU架構,大幅提升AI芯片性能。英偉達2022年發表Hopper架構H100AI芯片后,引領全球AI市場風潮。如今再推采Blackwell架構的AI芯片性能更強大,更擅長處理AI任務,Blackwell架構是以數學家David Harold Blackwell之名命名。
黃仁勛表示,Blackwell架構GPU的AI運算性能在FP8及NEW FP6都可達20petaflops,是前一代Hopper架構運算性能8petaflops的2.5倍。NEWFP4更可達40petaflops,是前代Hopper架構GPU運算性能8petaflops5倍。取決于各種Blackwell架構GPU設備的記憶體容量和頻寬配置,工作運算執行力的實際性能可能會更高。黃仁勛強調,有額外處理能力,使人工智慧企業訓練更大更復雜的模型。
Blackwell架構GPU的體積龐大,采臺積電4納米(4NP)打造,整合兩個獨立制造的裸晶(Die),共2,080億個電晶體,透過NVLink5.0介面像拉鏈綁住芯片。英偉達用10TB/sec NVLink5.0連接兩塊裸晶,官方稱介面為NV-HBI。Blackwell complex的NVLink5.0介面為1.8TB頻寬,是前代Hopper架構GPU NVLink4.0介面速度的兩倍。
英偉達最新GB200 AI芯片,含兩個Blackwell GPU和一個Arm架構Grace CPU,推理模型性能比H100提升30倍,成本和能耗降至25分之一。
英偉達還對有大型需求的企業提供服務器成品,提供完整服務器出貨,如GB200 NVL72服務器,提供36個CPU和72個Blackwell架構GPU,完善一體水冷散熱方案,可實現總計720petaflops的AI訓練性能或1,440petaflops推理性能。電纜長度累計近2英里,共5,000條獨立電纜。
亞馬遜AWS計劃采購2萬片GB200芯片組建的服務器集群,部署27兆個參數模型。除了亞馬遜AWS,DELL、Alphabet、Meta、微軟、OpenAI、Oracle和TESLA成為Blackwell系列的采用者之一。
評論