<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > AI芯片的“華山論劍”

          AI芯片的“華山論劍”

          作者: 時間:2018-08-29 來源:網(wǎng)絡(luò) 收藏

            智能時代就要到來,市場格局一變再變。兩個典型例子:引領(lǐng)處理器市場 40 多年的英特爾 2015 年底收購?fù)?Altera,今年 4 月就宣布計劃裁員 1.2 萬;另一方面,GPU 巨頭英偉達(dá)今年 3 月推出加速人工智能和深度學(xué)習(xí)的 Tesla P100,投入研發(fā)經(jīng)費超過 20 億美元,據(jù)《華爾街日報》報道,今年 5 月英偉達(dá)售出的 GPU 比去年同月增長 62%,公司當(dāng)前市值 240 億美元。

          本文引用地址:http://www.ex-cimer.com/article/201808/391341.htm

            深度學(xué)習(xí)應(yīng)用大量涌現(xiàn)使超級計算機的架構(gòu)逐漸向深度學(xué)習(xí)應(yīng)用優(yōu)化,從傳統(tǒng) CPU 為主 GPU 為輔的英特爾處理器變?yōu)?GPU 為主 CPU 為輔的結(jié)構(gòu)。不過,未來相當(dāng)長一段時間內(nèi),計算系統(tǒng)仍將保持 CPU + 協(xié)處理器的混合架構(gòu)。但是,在協(xié)處理市場,隨著人工智能尤其是機器學(xué)習(xí)應(yīng)用大量涌現(xiàn),廠商紛紛完善產(chǎn)品、推出新品,都想成為智能時代協(xié)處理器的領(lǐng)跑者——但問題是,誰會擔(dān)當(dāng)這個角色呢?

            TPU:始于谷歌,終于谷歌

            要說新的芯片,首先不得不提谷歌在剛剛結(jié)束的 I/O 大會上披露的 TPU。

            有輿論稱,谷歌自己打造芯片,勢必對芯片制造商產(chǎn)生巨大影響。確實,面向機器學(xué)習(xí)專用的處理器是芯片行業(yè)的發(fā)展趨勢,而且未來其他大公司也很有可能組建芯片團隊,設(shè)計自己專用的芯片。


            谷歌TPU芯片

            TPU 團隊主要負(fù)責(zé)人、計算機體系結(jié)構(gòu)領(lǐng)域大牛 Norm Jouppi 介紹,TPU 專為谷歌 TensorFlow 等機器學(xué)習(xí)應(yīng)用打造,能夠降低運算精度,在相同時間內(nèi)處理更復(fù)雜、更強大的機器學(xué)習(xí)模型并將其更快投入使用。 Jouppi 表示,谷歌早在 2013 年就開始秘密研發(fā) TPU,并且在一年前將其應(yīng)用于谷歌的數(shù)據(jù)中心。TPU 從測試到量產(chǎn)只用了 22 天,其性能把人工智能技術(shù)往前推進(jìn)了差不多 7 年,相當(dāng)于摩爾定律 3 代的時間。

            有媒體評論稱 TPU 不僅為谷歌帶來了巨大的人工智能優(yōu)勢,也對市面上已有的芯片產(chǎn)品構(gòu)成了威脅。

            這后半句話值得商榷。GPU 巨頭、英偉達(dá) CEO 黃仁勛日前告訴《華爾街日報》,兩年前谷歌就意識到 GPU 更適合訓(xùn)練,而不善于做訓(xùn)練后的分析決策。由此可知,谷歌打造 TPU 的動機只是想要一款更適合做分析決策的芯片。這一點在谷歌的官方聲明里也得到了印證:TPU 只在特定機器學(xué)習(xí)應(yīng)用中作輔助使用,公司將繼續(xù)使用其他廠商制造的 CPU 和 GPU。

            谷歌云服務(wù)副總裁 Diane Greene 也表示,谷歌并沒有對外銷售 TPU 的打算——拋開 TPU 本來就是為了谷歌自己設(shè)計的這個事實以外,谷歌對外銷售芯片的可能性很低,就像 Facebook 主張全球提供免費互聯(lián)網(wǎng),也并不是自己要做運營商。

            因此,TPU 再好,也僅適用于谷歌,而且還是用于輔助 CPU 和 GPU。

            TrueNorth 坐山觀虎斗?

            第二個要說的是 IBM TrueNorth。IBM 在 2014 年研發(fā)出脈沖神經(jīng)網(wǎng)絡(luò)芯片 TrueNorth,走的是“類腦計算”的路線。類腦計算的假設(shè)是,相似的結(jié)構(gòu)可能會實現(xiàn)相似的功能,所以類腦計算研究者使用神經(jīng)形態(tài)器件制造與人腦神經(jīng)網(wǎng)絡(luò)相似的電子神經(jīng)網(wǎng)絡(luò),希望后者具有與人腦類似的功能,并進(jìn)一步反過來理解人類智能。


            帶有IBM TrueNorth的DRAPA SyNAPSE

            TrueNorth 一張郵票大小,有 54 億個晶體管,構(gòu)成的神經(jīng)元陣列包含 100 萬個數(shù)字神經(jīng)元,這些神經(jīng)元之間又通過 2.56 億個電突觸彼此通信。由于采用了異步架構(gòu),TrueNorth 的能耗很低,54 億個晶體管僅用 70 毫瓦;而且,只有在特定神經(jīng)元被開啟并和其他神經(jīng)元通信時才會產(chǎn)生能耗。TrueNorth 設(shè)計師 Filipp Akopyan 表示,TrueNorth 的目標(biāo)是 Edge-of-the-Net 和大數(shù)據(jù)解決方案,所以必須要能夠用超低功耗實時處理大量數(shù)據(jù)。

            在此基礎(chǔ)上,2016年 4 月 IBM 推出了用于深度學(xué)習(xí)的類腦超級計算平臺 IBM TrueNorth,含 16 個 TrueNorth 芯片,處理能力相當(dāng)于 1600 萬個神經(jīng)元和 40 億個神經(jīng)鍵,消耗的能量只需 2.5 瓦。

            將低能耗芯片用于深度學(xué)習(xí)無疑是一大重舉,美國 LLNL 數(shù)據(jù)科學(xué)副主任 Jim Brase 表示,類腦計算與未來高性能計算和模擬發(fā)展趨勢一致。但是,新智元芯片群的幾位專家討論后一致認(rèn)為,TrueNorth 雖然與人腦某些結(jié)構(gòu)和機理較為接近,但智能算法的精度或效果有待進(jìn)一步提高,離大規(guī)模商業(yè)應(yīng)用還有一段距離。

            因此,未來 10 年芯片市場群雄逐鹿,TrueNorth 大概不會有亮相的機會。

            寒武紀(jì):中國的智能芯片

            寒武紀(jì)是國際首個深度學(xué)習(xí)專用處理器芯片。2012 年,中科院計算所和法國 Inria 等機構(gòu)共同提出了國際上首個人工神經(jīng)網(wǎng)絡(luò)硬件的基準(zhǔn)測試集 benchNN。這項工作提升了人工神經(jīng)網(wǎng)絡(luò)處理速度,有效加速了通用計算,大大推動了國際體系結(jié)構(gòu)學(xué)術(shù)圈對神經(jīng)網(wǎng)絡(luò)的接納度。此后,中科院計算所和法國 Inria 的研究人員共同推出了一系列不同結(jié)構(gòu)的 DianNao 神經(jīng)網(wǎng)絡(luò)硬件加速器結(jié)構(gòu)。


            寒武紀(jì)芯片板卡

            2016 年 3 月,中科院計算所陳云霽、陳天石課題組、寒武紀(jì)公司提出的寒武紀(jì)深度學(xué)習(xí)處理器指令集 Cambricon 被計算機體系結(jié)構(gòu)領(lǐng)域頂級國際會議 ISCA 2016 接收,在所有近 300 篇投稿中排名第一,在深度學(xué)習(xí)處理器指令集方面取得了開創(chuàng)性進(jìn)展。指令集是計算機軟硬件生態(tài)體系的核心,英特爾和 ARM 正是通過其指令集控制了 PC 和嵌入式生態(tài)體系。

            2016 年 4 月,寒武紀(jì)進(jìn)入產(chǎn)業(yè)化運營,陳天石也從中科院計算所的副研究員變成了北京中科寒武紀(jì)科技有限公司的 CEO。陳天石表示,寒武紀(jì)產(chǎn)業(yè)化運營的主要方向?qū)⑹歉咝阅芊?wù)器芯片、高能效終端芯片和服務(wù)機器人芯片。

            寒武紀(jì)芯片預(yù)計 2018 年左右上市,其表現(xiàn)如何,值得期待。

            后起之秀概率芯片

            2016 年 4月16 日,MIT Techonolgy Review 報道,DARPA 投資了一款叫做“S1”的概率芯片。模擬測試中,使用 S1 追蹤視頻里的移動物體,每幀處理速度比傳統(tǒng)處理器快了近 100 倍,而能耗還不到傳統(tǒng)處理器的 2%。MIT 媒體實驗室教授、Twitter 首席媒體科學(xué)家 Deb Roy 評論稱,近似計算的潮流正在興起。


            美國 Singular Computing 公司開發(fā)的“S1”概率芯片(來源:MIT Techonolgy Review)

            紐約州立大學(xué)石溪分校終身教授顧險峰從最基礎(chǔ)的數(shù)學(xué)層面分析了概率芯片的優(yōu)點,專用概率芯片可以發(fā)揮概率算法簡單并行的特點,極大提高系統(tǒng)性能。概率芯片所使用的隨機行走概率方法有很多優(yōu)點:算法邏輯異常簡單,不需要復(fù)雜的數(shù)據(jù)結(jié)構(gòu),不需要數(shù)值代數(shù)計算;計算精度可以通過模擬不同數(shù)目的隨機行走自如控制;不同的隨機行走相互獨立,可以大規(guī)模并行模擬;模擬過程中,不需要全局信息,只需要網(wǎng)絡(luò)的局部信息。

            顧險峰最后總結(jié),隨著英特爾重組,傳統(tǒng) CPU 體系機構(gòu)獨霸江山的時代將一去不復(fù)返,概率芯片和其他更多采用全新架構(gòu)的專用處理器分庭抗禮的時代即將來臨。

            早在 2008 年 MIT Techonolgy Review “十大科技突破”預(yù)測中,概率芯片就榜上有名。通過犧牲微小的計算精度換取能耗明顯降低,概率芯片在歷來追求精準(zhǔn)的芯片領(lǐng)域獨樹一幟,但正因如此,再考慮到 DARPA 已經(jīng)投資 S1,概率芯片很可能后來居上。

            實力股 FPGA

            2012年,百度決定自主設(shè)計深度學(xué)習(xí)專有的體系結(jié)構(gòu)和芯片,經(jīng)過深入研究和論證,為了讓項目快速落地及迭代,工程師最后決定使用 FPGA 實現(xiàn)百度第一版自主設(shè)計的深度學(xué)習(xí)專有芯片。

            作為 GPU 在算法加速上強有力的競爭者,F(xiàn)PGA 硬件配置最靈活,單位能耗也通常比 GPU 低。更重要的是,F(xiàn)PGA 相比 GPU 價格便宜(雖然性價比不一定是最好的)。使用 FPGA 需要具體硬件的知識,對許多開發(fā)者有一定難度,因此 FPGA 也常被視為一種行家專屬的架構(gòu)。不過,現(xiàn)在也出現(xiàn)了用軟件平臺編程 FPGA,弱化了軟硬件語言間的障礙,讓更多開發(fā)者使用 FPGA 成為可能。

            加州大學(xué)計算機博士劉少山認(rèn)為,F(xiàn)PGA 具有低能耗、高性能以及可編程等特性,十分適合感知計算。在能源受限的情況下,F(xiàn)PGA 相對于 CPU 與 GPU 有明顯的性能與能耗優(yōu)勢。FPGA 低能耗的特點很適合用于傳感器的數(shù)據(jù)預(yù)處理工作。此外,感知算法不斷發(fā)展意味著感知處理器需要不斷更新,F(xiàn)PGA 具有硬件可升級、可迭代的優(yōu)勢。劉少山預(yù)計,F(xiàn)PGA 與傳感器的緊密結(jié)合將會很快普及,而后隨著視覺、語音、深度學(xué)習(xí)的算法在 FPGA 上的不斷優(yōu)化,F(xiàn)PGA 將逐漸取代 GPU 與 CPU 成為機器人上的主要芯片。

            目前還沒有任何深度學(xué)習(xí)工具明確支持 FPGA,但顯然它是一支實力股。

            GPU:未來市場霸主?

            憑借強大的并行計算能力,在機器學(xué)習(xí)快速發(fā)展的推動下,GPU 目前在深度學(xué)習(xí)芯片市場非常受歡迎,大有成為主流的趨勢。互聯(lián)網(wǎng)巨頭,比如谷歌、Facebook、微軟、Twitter 和百度等公司都在使用 GPU 分析圖片、視頻和音頻文件,改進(jìn)搜索和圖像標(biāo)簽等應(yīng)用功能。GPU 也被應(yīng)用于 VR/AR 相關(guān)的產(chǎn)業(yè)。此外,很多汽車生產(chǎn)商也在使用 GPU 作為傳感器芯片發(fā)展無人車。可以說,GPU 是眼下智能產(chǎn)品市場用戶覆蓋率最廣泛的芯片。

            研究公司 Tractica LLC 預(yù)計,到 2024 年深度學(xué)習(xí)項目在 GPU 上的花費將從 2015 年的 4360 萬增長到 41 億美元,在相關(guān)軟件上的花費將從 1.09 億增長到 104 億。

            但是,也有人認(rèn)為通用芯片 GPU 相比深度學(xué)習(xí)專用芯片并不具有優(yōu)勢。

            這有一定道理。然而,設(shè)計新的芯片需要很多年,研發(fā)成本可能高達(dá)幾千萬甚至幾十億美元。而且,專用芯片比通用芯片更難編程。最重要的是,專用芯片——根據(jù)定義——只提升特定任務(wù)的性能表現(xiàn),這也是為什么谷歌要制作 TPU 輔助 GPU 和 CPU。

            英偉達(dá)工程架構(gòu)副總裁 Marc Hamilton 表示,谷歌的 TPU 是一個非常有意思的技術(shù),但其發(fā)布進(jìn)一步印證了他們的觀點,那就是人工智能處理器將繼續(xù)從通用的 CPU 轉(zhuǎn)向 GPU 和 TPU 等其他芯片。此外,GPU 技術(shù)也在不斷發(fā)展,從算法層面加速智能感知計算速度。

            Hamilton 還提到了百度人工智能科學(xué)家 Bryan Catanzaro 的話:深度學(xué)習(xí)并不是一個那么窄的領(lǐng)域,從計算角度看,深度學(xué)習(xí)是多樣化的而且演化迅速;要是制造一款適用于所有深度學(xué)習(xí)應(yīng)用的專用芯片,本質(zhì)上也就成了 GPU 或 DSP。

            當(dāng)然,GPU 也有缺陷,比如不如 FPGA 靈活。同時,GPU 也不乏競爭者:除了同樣具備并行計算能力的 AMD,Nervana、Movidius 等公司都在制作與 GPU 類似的芯片,但側(cè)重于把數(shù)據(jù)更快轉(zhuǎn)移和分?jǐn)偨o圖像所需要的功能。

            小結(jié)

            除了采用其他架構(gòu),研究人員很早就開始探索使用新材料制作芯片。2015 年,三星、Gobal Foundries、IBM 和紐約州立大學(xué)等機構(gòu)組成的研究聯(lián)盟推出了一個 7 納米的微芯片,其晶體管大約一半都由硅鍺(SiGe)合金制成。石墨烯也是芯片研發(fā)一個重點。機器學(xué)習(xí)加速新材料發(fā)現(xiàn),也意味著使用新材料制作的芯片出現(xiàn)幾率大大提高。

            總之,谷歌自己打造 TPU 預(yù)示著未來更多非半導(dǎo)體公司或許也將開始生產(chǎn)硬件;硬件制造商必須不斷改進(jìn)自己的產(chǎn)品,與 CPU 進(jìn)行更好的配合,并且貼近用戶越來越多樣化的需求。



          關(guān)鍵詞: AI 芯片

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();