史上最大AI芯片誕生:462平方厘米、40萬核心、1.2萬億晶體管,創(chuàng)下4項世界紀錄
本文經(jīng)AI新媒體量子位(公眾號 ID: QbitAI)授權轉(zhuǎn)載,轉(zhuǎn)載請聯(lián)系出處。
美國一家芯片公司Cerebras推出了史上最大AI芯片,號稱“晶圓級引擎”(Cerebras Wafer Scale Engine,簡稱WSE)。
WSE將邏輯運算、通訊和存儲器集成到單個硅片上,是一種專門用于深度學習的芯片。它創(chuàng)下了4項世界紀錄:
晶體管數(shù)量最多的運算芯片:總共包含1.2萬億個晶體管。雖然三星曾造出2萬億個晶體管的芯片,卻是用于存儲的eUFS。
芯片面積最大:尺寸約20厘米×23厘米,總面積46,225平方毫米。面積和一塊晶圓差不多。
片上緩存最大:包含18GB的片上SRAM存儲器。
運算核心最多:包含40萬個處理核心。
WSE由臺積電代工,但是并沒有使用當前最先進的7nm工藝,而是使用相對較老的16nm制程工藝制造。
臺積電運營高級副總裁JK Wang表示:“我們對與Cerebras合作制造WSE非常滿意,這是晶圓級開發(fā)的行業(yè)里程碑?!?/p>
雖然WSE制造成本可能很高,但Cerebras認為片上互連比構(gòu)建和連接獨立的內(nèi)核速度更快、成本更低。
與其他芯片對比
WSE可以說是個龐然大物,一般的芯片都可以放在手掌心,而WSE面積比Mac的鍵盤還要大。官方在介紹這款芯片時,需要用雙手捧著,和展示晶圓沒什么兩樣。
WSE面積比英偉達最大的GPU核心V100還要大56倍,V100核心的尺寸為815平方毫米,包含211億個晶體管。
最近AMD為數(shù)據(jù)中心提供的Epyc 2芯片,也是世界上最快的x86處理器,也只有320億個晶體管,數(shù)量僅為WSE的30分之一。
英特爾最新的桌面級處理器i9-9900k有16MB緩存,英偉達RTX 2080Ti有5.5MB二級緩存,在WSE 18GB緩存面前也是小巫見大巫。RTX 2080Ti已經(jīng)堪稱功耗怪獸,TDP為250W,而WSE則需要15千瓦的供電。
性能參數(shù)
WSE包含40萬個對AI優(yōu)化的計算核心,稱為稀疏線性代數(shù)核心(SLAC),它靈活、可編程,并針對支持所有神經(jīng)網(wǎng)絡計算的稀疏線性代數(shù)進行了優(yōu)化。
SLAC的可編程性確保內(nèi)核可以在不斷變化的機器學習領域中運行所有神經(jīng)網(wǎng)絡算法。
由于稀疏線性代數(shù)核心針對神經(jīng)網(wǎng)絡計算基元進行了優(yōu)化,因此它們可實現(xiàn)業(yè)界最佳利用率,通常是GPU的3~4倍。此外,WSE核心包括Cerebras發(fā)明的稀疏性收集技術,加速深度學習這類稀疏工作負載的計算性能。
零在深度學習計算中很普遍。通常要相乘的向量和矩陣中的大多數(shù)元素都是零。然而乘以零會浪費計算資源。
通常GPU和TPU被設計為永不遇到零的計算引擎,它們即使有零也會乘以每個元素。當深度學習中50-98%的數(shù)據(jù)為零時,大多數(shù)乘法都被浪費了。
由于Cerebras稀疏線性代數(shù)核心不會乘以零,所有零數(shù)據(jù)都會被濾除,并且可以在硬件中跳過,從而可以用著節(jié)約的資源去完成有用的工作。
內(nèi)存是每個計算機體系結(jié)構(gòu)的關鍵組件。更接近計算核心的緩存能帶來更低的延遲和更好的數(shù)據(jù)移動效率。
高性能深度學習需要大量計算,并且頻繁訪問數(shù)據(jù)。這需要計算核心和存儲器之間的緊密接近,但是在GPU中并非如此,大容量的顯存并不在GPU核心上,而是外置的。
WSE片上的緩存達到了18GB,是GPU緩存的3000倍;可提供每秒9PB的內(nèi)存帶寬, 比GPU快10,000倍。
Swarm是WSE上使用的處理器之間的通信結(jié)構(gòu),它只用傳統(tǒng)通訊技術功耗的幾分之一就實現(xiàn)了突破性的帶寬和低延遲。
Swarm提供低延遲、高帶寬的2D網(wǎng)格,可連接WSE上的所有40萬個核心,帶寬為每秒100 petabits。WSE通信能量成本遠低于每比特1pJ,這比圖形處理單元低近兩個數(shù)量級。
面臨的問題
為何其他芯片廠商不制造如此大尺寸的芯片呢?這是因為在制造晶圓的過程中不可避免會有一些雜質(zhì),這些雜質(zhì)會導致芯片的故障。
通常的做法是將一片很大的晶圓切割成若干個小片,從中挑選出其中可用的部分,封裝成芯片,而將報廢部分丟棄。
而Cerebras的芯片已經(jīng)和晶圓面積差不多大了,是在一個晶圓上切割出一塊大的芯片,制造過程中不可避免會產(chǎn)生缺陷。
為了解決缺陷導致良率不高的問題,Cerebras在設計的芯片時候考慮了1~1.5%的冗余,添加了額外的核心,當某個核心出現(xiàn)問題時將其屏蔽不用,因此有雜質(zhì)不會導致整個芯片報廢。
Cerebras團隊遇到的另外一個問題是芯片的刻蝕。今天的光刻設備仍然只能刻蝕面積較小的單個芯片。因此Cerebras與臺積電合作發(fā)明了新技術,來處理具有萬億加晶體管芯片的刻蝕和通訊問題。
即使芯片制造成功,接下來還要面臨三重挑戰(zhàn):熱膨脹、封裝和冷卻。
Cerebras的芯片功率達15千瓦,與AI集群相當。給單個芯片提供巨大的功率,要考慮多方面的因素。
由于芯片在運行中會變得非常熱,但是不同材料的熱膨脹系數(shù)不同。這意味著將芯片與PCB的熱膨脹系數(shù)不能差距太大,否則兩者之間產(chǎn)生裂縫。
Cerebras在芯片上方安裝了一塊“冷卻板”,使用多個垂直安裝的水管直接冷卻芯片。由于芯片太大而無法放入任何傳統(tǒng)封裝中,Cerebras還設計了結(jié)合了連接PCB和晶圓兩者的定制連接器以及冷卻裝置。
關于Cerebras
Cerebras公司由Sean Lie(首席硬件架構(gòu)師)、Andrew Feldman(首席執(zhí)行官)等人于2016年創(chuàng)立。后者曾創(chuàng)建微型服務器公司SeaMicro,并以3.34億美元的價格出售給AMD。
該公司在加州有194名員工,其中包括173名工程師,迄今為止已經(jīng)從Benchmark等風投機構(gòu)獲得了1.12億美元的投資。
參考資料:
https://www.pcworld.com/article/3432977/cerebras-systems-new-deep-learning-chip-is-as-big-as-your-keyboard-and-the-largest-ever.html
https://www.crunchbase.com/organization/cerebras-systems#section-overview
評論