IBM:模擬芯片可為機(jī)器學(xué)習(xí)加速1000倍
人工智能或許能解決一些科學(xué)和行業(yè)最棘手的挑戰(zhàn),但要實現(xiàn)人工智能,需要新一代的計算機(jī)系統(tǒng)。IBM在博客中的一篇文章中指出,通過使用基于相變存儲器(Phase-Change Memory,簡稱PCM)的模擬芯片,機(jī)器學(xué)習(xí)可以加速一千倍。
本文引用地址:http://www.ex-cimer.com/article/201902/397652.htm相變存儲器基于硫化物玻璃材料,這種材料在施加合適的電流時會將其相從晶態(tài)變?yōu)榉蔷B(tài)并可恢復(fù)。每相具有不同的電阻水平,在相位改變之前是穩(wěn)定的。兩個電阻構(gòu)成二進(jìn)制的1或0。
PCM是非易失性的,訪問延遲與DRAM水平相當(dāng),他們都是存儲級內(nèi)存的代表。英特爾與美光聯(lián)合開發(fā)的3D XPoint技術(shù)就基于PCM。
IBM在博客中透露,為了實現(xiàn)AI真正的潛力,在紐約州立大學(xué)和創(chuàng)始合作伙伴成員的支持下,IBM正在建立一個研究中心,以開發(fā)新一代AI硬件,并期待擴(kuò)展其納米技術(shù)的聯(lián)合研究工作。
IBM Research AI硬件中心合作伙伴涵蓋半導(dǎo)體全產(chǎn)業(yè)鏈上的公司,包括IBM制造和研究領(lǐng)域的戰(zhàn)略合作伙伴三星,互聯(lián)解決方案公司Mellanox Technologies,提供仿真和原型設(shè)計解決方案軟件平臺提供商Synopsys,半導(dǎo)體設(shè)備公司Applied Materials和Tokyo Electron Limited(TEL)。
還與紐約州奧爾巴尼的紐約州立大學(xué)理工學(xué)院主辦方合作,進(jìn)行擴(kuò)展的基礎(chǔ)設(shè)施支持和學(xué)術(shù)合作,并與鄰近的倫斯勒理工學(xué)院(RPI)計算創(chuàng)新中心(CCI)合作,開展人工智能和計算方面的學(xué)術(shù)合作。
新的處理硬件
IBM研究院的半導(dǎo)體和人工智能硬件副總裁Mukesh Khare表示,目前的機(jī)器學(xué)習(xí)限制可以通過使用新的處理硬件來打破,例如:
數(shù)字AI核心和近似計算
帶模擬內(nèi)核的內(nèi)存計算
采用優(yōu)化材料的模擬核心
圖1:IBM Research AI硬件中心制定的一個路線圖,在未來十年內(nèi)將AI計算性能效率提高1000倍,并提供數(shù)字AI核心和模擬AI核心管道。
Mukesh Khare提到將深度神經(jīng)網(wǎng)絡(luò)(DNN)映射到模擬交叉點陣列(模擬AI核心)。它們在陣列交叉點處具有非易失性存儲器材料以存儲權(quán)重。
DNN計算中的數(shù)值被加權(quán)以提高訓(xùn)練過程中決策的準(zhǔn)確性。
這些可以直接用交叉點PCM陣列實現(xiàn),無需主機(jī)服務(wù)器CPU干預(yù),從而提供內(nèi)存計算,無需數(shù)據(jù)搬移。與英特爾XPoint SSD或DIMM等數(shù)字陣列形成對比,這是一個模擬陣列。
PCM沿著非晶態(tài)和晶態(tài)之間的8級梯度記錄突觸權(quán)重。每個步驟的電導(dǎo)或電阻可以用電脈沖改變。這8級在DNN計算中提供8位精度。
圖2:非易失性存儲器的交叉開關(guān)陣列可以通過在數(shù)據(jù)位置處執(zhí)行計算來加速完全連接的神經(jīng)網(wǎng)絡(luò)的訓(xùn)練。
模擬存儲器芯片內(nèi)部的計算
在IBM的研究報告中指出:
“模擬非易失性存儲器(NVM)可以有效地加速”反向傳播(Backpropagation)“算法,這是許多最新AI技術(shù)進(jìn)步的核心。這些存儲器允許使用基礎(chǔ)物理學(xué)在這些算法中使用的“乘法-累加”運算在模擬域中,在權(quán)重數(shù)據(jù)的位置處并行化。
“與大規(guī)模電路相乘并將數(shù)字相加在一起不同,我們只需將一個小電流通過電阻器連接到一根導(dǎo)線上,然后將許多這樣的導(dǎo)線連接在一起,讓電流積聚起來。這讓我們可以同時執(zhí)行許多計算,而不順序執(zhí)行。也不是在數(shù)字存儲芯片和處理芯片之間的傳輸數(shù)字?jǐn)?shù)據(jù),我們可以在模擬存儲芯片內(nèi)執(zhí)行所有計算 ?!?/p>
圖3:我們的模擬AI內(nèi)核是性能效率內(nèi)存計算方法的一部分,通過消除與內(nèi)存之間的數(shù)據(jù)傳輸來突破所謂的馮·諾伊曼結(jié)構(gòu)瓶頸,從而提高了性能。深度神經(jīng)網(wǎng)絡(luò)被映射到模擬交叉點陣列,并且切換新的非易失性材料特性以在交叉點中存儲網(wǎng)絡(luò)參數(shù)。
評論