<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 嵌入式系統(tǒng) > 業(yè)界動態(tài) > 超越CPU與GPU之爭,英特爾研發(fā)神經(jīng)元AI處理器

          超越CPU與GPU之爭,英特爾研發(fā)神經(jīng)元AI處理器

          作者: 時間:2017-09-26 來源:量子位 收藏
          編者按:隨著AI的重要性日益增加,英特爾已經(jīng)意識到CPU不是唯一,英特爾正不斷擁抱其他芯片。

            剛剛,黃仁勛在北京跑步上臺演講,莊嚴宣布:CPU的時代結(jié)束了。

          本文引用地址:http://www.ex-cimer.com/article/201709/364849.htm

            好巧,說:不單CPU不行了,GPU也不行了。

            這位CPU霸主表示,隨著高度動態(tài)和非結(jié)構(gòu)既然數(shù)據(jù)的相關(guān)需求逐漸增加,未來計算的需求將超越經(jīng)典的CPU和GPU體系結(jié)構(gòu)。

            那怎么辦?

            這么說,肯定有辦法。實驗室今天宣布,正在研發(fā)出代號“Loihi”的自學(xué)習神經(jīng)元芯片,模仿了大腦的功能,能從環(huán)境反饋中直接學(xué)習。

            所謂自學(xué)習、模仿大腦,意思是Loihi內(nèi)部由128個計算核心組成,每個核心有1024個“神經(jīng)元”,總計超過13萬個神經(jīng)元和1.3億個突觸鏈接,和大腦的神經(jīng)元一樣,它們可以調(diào)整相互之間的聯(lián)系,以適應(yīng)新的任務(wù)。

            從神經(jīng)元數(shù)量上講,Loihi比龍蝦的大腦還要復(fù)雜一點。不過與人腦相比還相去甚遠,人腦由超過800億個神經(jīng)元組成。

            Loihi不需要通過傳統(tǒng)的方式進行訓(xùn)練,而且會隨著時間的增加變得越來越智能,而且功耗極低,這款處理器使用異步脈沖方式進行計算。

            “大腦內(nèi)部的溝通沒有想象中的頻繁”,英特爾實驗室資深首席工程師兼首席科學(xué)家Narayan Srinivasa表示:“這款芯片只有脈沖出現(xiàn)時才消耗能量”。

            下面是英特爾對Loihi芯片的詳細說明。

            Loihi簡介

            Loihi芯片包含模擬大腦基本機制的數(shù)字電路,使機器學(xué)習更快、更高效,同時降低對計算資源的需求。

            神經(jīng)形態(tài)芯片模型的靈感來自于神經(jīng)元通信和學(xué)習的方式,利用了可根據(jù)時間調(diào)節(jié)的脈沖和塑料觸突。基于模式和關(guān)聯(lián),這將幫助計算機實現(xiàn)自組織,做出決策。

            Loihi芯片提供了非常靈活的片上學(xué)習能力,將訓(xùn)練和推理整合至同一塊芯片上。這幫助機器實現(xiàn)自動化,實時調(diào)整,而無需等待來自云計算平臺的下一次信息更新。

            研究人員已證明,與其他典型的脈沖神經(jīng)網(wǎng)絡(luò)相比,在解決MNIST數(shù)字識別問題時,以實現(xiàn)一定準確率所需要的總操作數(shù)來看,Loihi芯片學(xué)習速度提高了100萬倍。

            與卷積神經(jīng)網(wǎng)絡(luò)和深度學(xué)習神經(jīng)網(wǎng)絡(luò)相比,Loihi芯片在同樣的任務(wù)中需要更少的資源。

            在優(yōu)化汽車和工業(yè)應(yīng)用,以及個人機器人方面,這款測試芯片的自學(xué)能力帶來了巨大潛力,例如識別汽車或自行車的運動。在非結(jié)構(gòu)化環(huán)境中,這些應(yīng)用可以受益于自動化操作和持續(xù)學(xué)習。

            此外,與通常用于訓(xùn)練人工智能系統(tǒng)的芯片相比,Loihi芯片的能效提升了1000倍。

            參數(shù)

            全異步神經(jīng)形態(tài)多核心網(wǎng)絡(luò),支持多種稀疏、分層和循環(huán)神經(jīng)網(wǎng)絡(luò)拓撲結(jié)構(gòu)。每個神經(jīng)元可以與成千上萬個其他神經(jīng)元通信。

            每個神經(jīng)形態(tài)核心都包含一個學(xué)習引擎,在操作中可以通過編程去適配網(wǎng)絡(luò)參數(shù),支持監(jiān)督學(xué)習、無監(jiān)督學(xué)習、強化學(xué)習和其他學(xué)習范式。

            芯片的制造采用了英特爾14納米工藝。

            總共提供了13萬個神經(jīng)元和1.3億個觸突。

            對于多種算法的開發(fā)和測試,實現(xiàn)了極高的算法效率。這些算法包括路徑規(guī)劃、約束滿足、稀疏編碼、字典學(xué)習,以及動態(tài)模式學(xué)習和適配。

            下一步

            英特爾表示,在計算機和算法創(chuàng)新的推動下,人工智能的變革性力量預(yù)計將給社會帶來重大影響。這家芯片巨頭正通過多種產(chǎn)品,解決從網(wǎng)絡(luò)邊緣到數(shù)據(jù)中心和云計算平臺,人工智能計算任務(wù)的獨特需求。

            隨著人工智能計算任務(wù)越來越多多樣化,越來越復(fù)雜,研究者將關(guān)注當前主流計算架構(gòu)的局限性,提出新的顛覆性方法。展望未來,英特爾認為,神經(jīng)形態(tài)計算帶來了一種方式,以類似大腦的結(jié)構(gòu)提供超大規(guī)模的計算性能。

            但英特爾不是第一家使用神經(jīng)科學(xué)指導(dǎo)芯片設(shè)計的公司。

            IBM已經(jīng)構(gòu)建了兩代神經(jīng)形態(tài)處理器,稱為TrueNorth,這個芯片同樣基于脈沖神經(jīng)元模式。TrueNorth芯片包括4096個核心和540萬個晶體管,功耗70毫瓦,模擬了一百萬個神經(jīng)元和2.56億個突觸,這個數(shù)字在Loihi之上。

            TrueNorth相當于一個蜜蜂的大腦。

            不過與英特爾的芯片不同,TrueNorth芯片無法基于輸入數(shù)據(jù)進行學(xué)習。IBM的研究得到了DARPA的資助,并且與兩家實驗室合作,但目前也沒有商業(yè)可用性的進展。

            不少AI專家對神經(jīng)元芯片心存疑慮。IBM在2014年發(fā)表TrueNorth的第一篇論文時,Yann LeCun就曾指出,這類芯片很難運行卷積神經(jīng)網(wǎng)絡(luò)進行圖像識別計算。Srinivasa也證實Loihi在某些深度學(xué)習模型上表現(xiàn)不佳。

            無論英特爾神經(jīng)元芯片最終結(jié)果如何,這都顯示出英特爾已經(jīng)意識到CPU不是唯一。隨著AI的重要性日益增加,英特爾正不斷擁抱其他芯片。2015年,英特爾億167億美元收購FPGA廠商Altera。去年,英特爾4億美元收購AI芯片商Nervana。

            至于Loihi,2018年上半年,英特爾將與部分大學(xué)和研究機構(gòu)分享Loihi測試芯片。不過,這款芯片有可能三五年內(nèi),都是實驗性的產(chǎn)品。



          關(guān)鍵詞: 英特爾 AI處理器

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();