AI時代 處理器市場群雄爭霸誰能領跑?
后起之秀概率芯片
本文引用地址:http://www.ex-cimer.com/article/201605/291817.htm2016 年 4月16 日,MIT Techonolgy Review 報道,DARPA 投資了一款叫做“S1”的概率芯片。模擬測試中,使用 S1 追蹤視頻里的移動物體,每幀處理速度比傳統(tǒng)處理器快了近 100 倍,而能耗還不到傳統(tǒng)處理器的 2%。MIT 媒體實驗室教授、Twitter 首席媒體科學家 Deb Roy 評論稱,近似計算的潮流正在興起。
美國 Singular Computing 公司開發(fā)的“S1”概率芯片,獲得 DARPA 投資,能夠讓計算機更好地分析圖像。來源:MIT Techonolgy Review
紐約州立大學石溪分校終身教授顧險峰從最基礎的數(shù)學層面分析了概率芯片的優(yōu)點,專用概率芯片可以發(fā)揮概率算法簡單并行的特點,極大提高系統(tǒng)性能。概率芯片所使用的隨機行走概率方法有很多優(yōu)點:算法邏輯異常簡單,不需要復雜的數(shù)據(jù)結構,不需要數(shù)值代數(shù)計算;計算精度可以通過模擬不同數(shù)目的隨機行走自如控制;不同的隨機行走相互獨立,可以大規(guī)模并行模擬;模擬過程中,不需要全局信息,只需要網絡的局部信息。
顧險峰最后總結,依隨著英特爾重組,傳統(tǒng) CPU 體系機構獨霸江山的時代將一去不復返,概率芯片和其他更多采用全新架構的專用處理器分庭抗禮的時代即將來臨!
早在 2008 年 MIT Techonolgy Review “十大科技突破”預測中,概率芯片就榜上有名。通過犧牲微小的計算精度,換取能耗明顯降低,概率芯片在歷來追求精準的芯片領域獨樹一幟??紤]到 DARPA 投資 S1,概率芯片很可能后來居上。
實力股 FPGA
2012年,百度決定自主設計深度學習專有的體系結構和芯片,經過深入研究和論證,為讓項目快速落地及迭代,工程師最后決定使用 FPGA 實現(xiàn)百度第一版自主設計的深度學習專有芯片。
作為 GPU 在算法加速上強有力的競爭者,F(xiàn)PGA 硬件配置靈活且單位能耗通常比 GPU 低。更重要的是,F(xiàn)PGA 相比 GPU 價格便宜。但是,使用 FPGA 需要具體硬件的知識,而許多研究者和應用科學家并不具備,因此 FPGA 常被視為一種行家專屬的架構。
加州大學計算機博士劉少山認為,F(xiàn)PGA 具有低能耗、高性能以及可編程等特性,十分適合感知計算。在能源受限的情況下,F(xiàn)PGA 相對于 CPU 與 GPU 有明顯的性能與能耗優(yōu)勢。此外,感知算法不斷發(fā)展意味著感知處理器需要不斷更新,F(xiàn)PGA 具有硬件可升級、可迭代的優(yōu)勢。由于 FPGA 的低能耗特性,F(xiàn)PGA 很適合用于傳感器的數(shù)據(jù)預處理工作。可以預見,F(xiàn)PGA 與傳感器的緊密結合將會很快普及。而后隨著視覺、語音、深度學習的算法在 FPGA 上的不斷優(yōu)化,F(xiàn)PGA 將逐漸取代 GPU 與 CPU 成為機器人上的主要芯片。
目前,還沒有任何深度學習工具明確支持 FPGA,但顯然它是支實力股。
GPU:未來市場霸主?
憑借強大的并行計算能力,在機器學習快速發(fā)展的推動下,GPU 目前在深度學習芯片市場非常受歡迎,大有成為主流的趨勢?;ヂ?lián)網巨頭,比如谷歌、Facebook、微軟、Twitter 和百度等公司都在使用 GPU 分析圖片、視頻和音頻文件,改進搜索和圖像標簽等應用功能。GPU 也被大量應用于 VR/AR 相關產業(yè)。此外,很多汽車生產商也在使用 GPU 芯片發(fā)展無人車,主要是用于傳感器??梢哉f,GPU 是眼下智能產品市場用戶覆蓋率最廣泛的芯片。
半導體研究公司 Tractica LLC 預計,到 2024 年深度學習項目在 GPU 上的花費將從 2015 年的 4360 萬增長到 41 億美元,在相關軟件上的花費將從 1.09 億增長到 104 億。
但也有人認為,通用芯片 GPU 相比深度學習專用芯片并不具有優(yōu)勢。
這有一定道理,但設計新的芯片需要很多年,研發(fā)成本可能高達數(shù)千萬甚至數(shù)億美元。而且,專用芯片比通用芯片更難編程,最重要的是,專用芯片——根據(jù)定義——只提升特定任務的性能表現(xiàn),這也是為什么谷歌要設計 TPU 輔助 GPU 和 CPU。
英偉達工程架構副總裁 Marc Hamilton 在接受采訪時表示,谷歌的 TPU 是一個非常有意思的技術,但 TPU 的發(fā)布進一步印證了他們的觀點,那就是人工智能處理器將繼續(xù)從通用的 CPU 轉向 GPU 和 TPU 等其他芯片。此外,GPU 的技術也在不斷發(fā)展。
Hamilton 還提到了百度人工智能科學家 Bryan Catanzaro 的話:深度學習并不是一個那么窄的領域,從計算角度看,深度學習多樣化而且演化迅速;要是制造一款適用于所有深度學習的專用芯片,本質上也就成了 GPU。
當然,GPU 也不乏競爭者。除了 AMD,Nervana、Movidius 等公司都在模仿 GPU 的并行計算能力制作芯片,但是著眼于把數(shù)據(jù)更快轉移和分攤給圖像所需要的功能。
永遠有更多的選擇
除了采用其他架構,研究人員很早就開始探索使用新材料制作芯片。2015 年,三星、Gobal Foundries、IBM 和紐約州立大學等機構組成的研究聯(lián)盟推出了一個 7 納米的微芯片,其晶體管大約一半都由硅 - 鍺(SiGe)合金制成。石墨烯也是芯片研發(fā)一個重點。機器學習加速新材料發(fā)現(xiàn),也意味著使用新材料制作的芯片出現(xiàn)幾率大大提高。
總之,谷歌自己打造 TPU 預示著未來更多非半導體公司或許也將開始生產硬件;硬件制造商必須不斷改進自己的產品,貼近用戶越來越多樣化的需求。
評論