藍(lán)海變成紅海?AMD在AI領(lǐng)域向英偉達(dá)發(fā)起挑戰(zhàn)!
最近今年隨著各種生成式AI的大伙,英偉達(dá)著實(shí)是風(fēng)光了好一陣子。作為被大眾成為新一代“工業(yè)革命”的生成式AI,在現(xiàn)實(shí)中雖剛剛進(jìn)入應(yīng)用階段,作為AI訓(xùn)練最優(yōu)秀的硬件生產(chǎn)商的英偉達(dá),股票可謂是節(jié)節(jié)高升,面對(duì)這一片藍(lán)海,其他廠商不可能不眼紅,于是就在前不久(2023年6月13日)英偉達(dá)的老對(duì)手AMD在數(shù)據(jù)中心和人工智能首映式上就發(fā)布了全新一代AI芯片,號(hào)稱世界上最強(qiáng)的AI處理芯片。
本文引用地址:http://www.ex-cimer.com/article/202306/447759.htm
英偉達(dá)AI計(jì)算平臺(tái)H100
在會(huì)議開始時(shí),AMD 全球總裁兼 CEO 蘇姿豐表示:“今天,我們?cè)跀?shù)據(jù)中心戰(zhàn)略上又向前邁出了重要一步,因?yàn)槲覀償U(kuò)展了第四代 EPYC 處理器系列,為云和技術(shù)計(jì)算工作負(fù)載提供了新的領(lǐng)先解決方案,并宣布了與最大的云提供商的新公共實(shí)例和內(nèi)部部署。人工智能是塑造下一代計(jì)算的決定性技術(shù),也是 AMD 最大的戰(zhàn)略增長(zhǎng)機(jī)會(huì)。我們專注于加速 AMD AI 平臺(tái)在數(shù)據(jù)中心的大規(guī)模部署,計(jì)劃于今年晚些時(shí)候推出我們的 Instinct MI300 加速器,以及為我們的硬件優(yōu)化的企業(yè)級(jí) AI 軟件生態(tài)系統(tǒng)不斷壯大。”
隨后,蘇姿豐博士便發(fā)布了三款全新的面對(duì)數(shù)據(jù)中心和AI平臺(tái)的芯片,分別是:新一代的 Epyc 處理器,Bergamo 是針對(duì)云原生應(yīng)用的產(chǎn)品線,也是第一款使用 Zen 4c 架構(gòu)的產(chǎn)品;最新的緩存堆疊 X 芯片,代號(hào)為 Genoa-X,其與具有相同內(nèi)核數(shù)的 Intel Xeon 的比較,性能提高了 2.2 倍和 2.9 倍;新款 GPU 專用的 MI300X AI 加速器,并表示 MI300X 和 8-GPU Instinct 平臺(tái)將在第三季度出樣,并在第四季度推出。我們分別來簡(jiǎn)要介紹一下。
正如上文所說,Bergamo 是針對(duì)云原生應(yīng)用的產(chǎn)品線,Bergamo所使用的Zen 4c架構(gòu)是一種“青春版”,進(jìn)行了一系列的精簡(jiǎn),重新設(shè)計(jì)了L3快取系統(tǒng),對(duì)比完整的Zen 4架構(gòu),其芯片面積減少了35%。
在具體規(guī)模方面, Bergamo Epyc 處理器具有 最高128 個(gè)核心和 256 個(gè)線程,分布在八個(gè)核心復(fù)合芯片上。其中每一個(gè)CCD芯片之上,有16個(gè)Zen 4c,而一顆Bergamo其上最多集成8個(gè)CCD,因此其最高具備128 核心,同時(shí)其采用了臺(tái)積電5nm工藝制造,共有高達(dá) 820 億個(gè)晶體管。
AMD Bergamo Epyc 處理器
而Meta將作為Bergamo芯片最先一批客戶,Meta計(jì)劃為其基礎(chǔ)架構(gòu)使用Bergamo,它的性能比上一代 Milan 芯片高出 2.5 倍。Meta 還將使用 Bergamo 作為其存儲(chǔ)平臺(tái)。
接下來便便是AMD推出的Genoa-X,其針對(duì)的場(chǎng)景主要是高性能計(jì)算,例如:流體力學(xué)、分子動(dòng)力學(xué)、有限元分析等等對(duì)于帶寬要求極高的科學(xué)計(jì)算應(yīng)用。為此AMD在Genoa-X CPU 在每個(gè)芯片計(jì)算芯片上堆疊了 64MB SRAM 塊,因此其三級(jí)緩存來到了驚人的1.1GB的大小。得益于如此恐怖的三級(jí)緩存大小,Genoa-X 與具有相同內(nèi)核數(shù)的 Intel Xeon 的比較,其對(duì)于流體力學(xué)的計(jì)算能力直接提升了2.2倍。
AMD Genoa-X
而本次發(fā)布會(huì)的重磅內(nèi)容,自然是AMD面向AI的計(jì)算平臺(tái),Instinct MI300 加速器。它的對(duì)標(biāo)對(duì)手,正是近期大紅大紫的英偉達(dá)“地球最強(qiáng)”GPU計(jì)算平臺(tái),H100系列。AMD Instinct MI300 于去年 6 月首次發(fā)布,并在 2023 年國(guó)際消費(fèi)電子展上進(jìn)行了更深入的詳細(xì)介紹,這是 AMD 在 AI 和 HPC 市場(chǎng)的重要一步。
AMD直面英偉達(dá)推出的AI計(jì)算平臺(tái)MI300系列
在本次發(fā)布會(huì)之上,蘇姿豐發(fā)布了兩款MI300系列加速器,分別是MI300A和MI300X。其中,MI300A是“基礎(chǔ)款”,MI300X則是硬件性能更高的“大模型優(yōu)化款”。
我們先來看看MI300A的基本情況,據(jù)AMD表示,MI300A是首款AMD面對(duì)AI和高性能計(jì)算(HPC)推出的APU。它一共擁有13個(gè)小芯片,包含9個(gè)5nm制程GPU+CPU,以及4個(gè)6nm制程的小芯片(base dies),包含1460億個(gè)晶體管,其中有24個(gè)Zen 4 CPU核心,1個(gè)CDNA 3圖形引擎,128GB的HBM3內(nèi)存。九個(gè)計(jì)算裸片混合了 5nm CPU 和 GPU,它們以 3D 方式堆疊在四個(gè) 6nm 基礎(chǔ)裸片之上,這些裸片是處理內(nèi)存和 I/O 流量以及其他功能的有源中介層。對(duì)比與上一代產(chǎn)品MI250,性能提升了8倍,效率提升了5倍。
作為重量級(jí)產(chǎn)品的MI300X,AMD在PPT上打出了十分令人矚目的一行字:For LLM——大語言模型專用。AMD表示,MI300X的高帶寬內(nèi)存(HBM)密度,最高可達(dá)英偉達(dá)H100的2.4倍,高帶寬內(nèi)存帶寬最高可達(dá)H100的1.6倍,顯然MI300X能運(yùn)行比H100更大的AI模型。在發(fā)布會(huì)上,蘇姿豐博士還現(xiàn)場(chǎng)運(yùn)行了Hugging Face 的falcon-40b-instruct模型,寫了首關(guān)于舊金山(這次AMD發(fā)布會(huì)地址)的小詩(shī),以此來展示MI300X在本地處理大語言模型的強(qiáng)大算力。
在硬件參數(shù)方面,MI300X包含12個(gè)小芯片,1530億個(gè)晶體管,192GB的HBM3內(nèi)存,內(nèi)存帶寬達(dá)到5.2TB/s,Infinity Fabric帶寬達(dá)到896GB/s。這次MI300X所提供的HBM密度是對(duì)手英偉達(dá)H100的2.4倍,HBM帶寬則是1.6倍。單單從硬件參數(shù)上來看,MI300X無疑是已經(jīng)超過了英偉達(dá)的H100,成為了這個(gè)星球上,最強(qiáng)的LLM訓(xùn)練硬件,但是有趣的是,就在MI300系列發(fā)布的時(shí)刻,資本市場(chǎng)的反應(yīng)卻不是很樂觀。
隨著發(fā)布會(huì)的進(jìn)行,AMD的股票是一跌再跌。跌幅最大的時(shí)候一度超過了3.61%,而英偉達(dá)這邊倒是迎來的一波小小的漲幅。看來對(duì)于投資者來說,對(duì)于AMD強(qiáng)勢(shì)發(fā)布的MI300系列好像并不是很好看。鑒于AMD這幾年來在AI方面的遲緩,再加上MI300X要等到今年年末才有可能被AMD推向市場(chǎng),這種股價(jià)變動(dòng),倒也是在意料之中。
不管怎么說,英偉達(dá)已經(jīng)在AI計(jì)算領(lǐng)域稱王稱霸了許久,現(xiàn)在終于有一個(gè)實(shí)力“靠譜”的新選手上臺(tái)挑戰(zhàn)了,無論結(jié)果如何,對(duì)于整個(gè)市場(chǎng)來說一定是樂于見到的,比起英偉達(dá)的一家獨(dú)大,百家爭(zhēng)鳴才是一個(gè)良性的環(huán)境。
評(píng)論