清華發(fā)布《AI芯片技術白皮書》:新計算范式,挑戰(zhàn)馮諾依曼、CMOS瓶頸
隨著底層芯片技術的進步,人工智能算法也將獲得更好的支持和更快的發(fā)展。而在這一過程中,人工智能本身也很有可能被用于研發(fā)新的芯片技術,形成算法和芯片相互促進的良性循環(huán)局面。
本文引用地址:http://www.ex-cimer.com/article/201901/397163.htm通過《AI芯片技術白皮書》,可以清晰地看到人工智能芯片是人工智能產業(yè)和半導體產業(yè)交叉融合的新節(jié)點,涉及多個學科、多個領域的理論和技術基礎,突顯對基礎扎實、創(chuàng)新能力強的人才的需求。
科技巨頭的AI芯片動作頻出
從最近幾大科技巨頭在AI芯片領域的動作頻頻就不難看出。比如亞馬遜開始設計制造AI芯片,從而為Alexa語音助手的質量提升以及Echo智能音響設備提供更強大的技術能力,而蘋果、三星、華為在智能手機處理器上集成深度學習引擎方面也展開了一場較量。
其背后的推動力來自于深度學習對超強算力的需求。NVIDIA顯然是這波浪潮中最大的受益者,其股價從2016年的32.25美元上漲至2018年的245.8美元,兩年間市值飆升近8倍。被認為是NVIDIA最大競爭對手的谷歌宣布了對第二代TPU的全面開放,而且價格誘人,每云TPU每小時6.5美元。可以說是又向NVIDIA開了一炮。
云端+邊緣結合是AI芯片發(fā)展現狀
在應用場景上,AI芯片的應用主要分為云端和終端,以深度學習的算法來說,云端人工智能硬件負責“訓練+推斷”,終端人工智能硬件負責“推斷”,因而終端的計算量更小,相對沒有傳輸問題。
總的來說,云側AI處理主要強調精度、處理能力、內存容量和帶寬,同時追求低延時和低功耗;邊緣設備中的AI處理則主要關注功耗、響應時間、體積、成本和隱私安全等問題。目前云和邊緣設備在各種AI應用中往往是配合工作。最普遍的方式是在云端訓練神經網絡,然后在云端或者邊緣設備進行推斷。
?、僭贫薃I計算:目前各大科技巨頭紛紛在自有云平臺基礎上搭載人工智能系統(tǒng),主要有IBM的waston、亞馬遜的AWS、以及國內的阿里云、百度云平臺等。其中英偉達的GPU采用更為廣泛,賽靈思、英特爾、百度等廠商也在積極采用FPGA在云端進行加速,一些初創(chuàng)公司,如深鑒科技等也在開發(fā)專門支持FPGA的AI開發(fā)工具。另外,AI領域專用架構芯片ASIC則因其更好的性能和功耗,成為云端領域新的攪局者,如谷歌的TPU。
?、谶吘堿I計算:智能手機是目前應用最為廣泛的邊緣計算設備,包括蘋果、華為、高通、聯發(fā)科和三星在內的手機芯片廠商紛紛推出或者正在研發(fā)專門適應AI應用的芯片產品。自動駕駛是未來邊緣AI計算的最重要應用之一,MobileEyeSOC和NVIDIADrivePX系列提供神經網絡的處理能力可以支持半自動駕駛和完全自動駕駛。
新計算范式讓AI芯片更上一層樓
人工智能產業(yè)得以快速發(fā)展,都離不開芯片。隨著大數據的積聚、理論算法的革新、計算能力的提升及網絡設施的發(fā)展,使得持續(xù)積累了半個多世紀的人工智能產業(yè),又一次迎來革命性的進步,人工智能的研究和應用進入全新的發(fā)展階段。
AI芯片的計算既主要特點:
?、偬幚韮热萃欠墙Y構化數據,如視頻、圖像及語音等,需要通過樣本訓練、擬合基環(huán)境交互等方式,利用大量數據來訓練模型,再用訓練好的模型處理數據;
?、谔幚磉^程需要很大的計算量,基本的計算主要是線性代數運算,大規(guī)模并行計算硬件更為適合;
?、厶幚磉^程參數量大,需要巨大的存儲容量,高帶寬、低延時的訪存能力,及計算單元和存儲器件間豐富且靈活的連接。
評論