<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 什么是DNN?它對(duì)AI發(fā)展意味著什么

          什么是DNN?它對(duì)AI發(fā)展意味著什么

          作者: 時(shí)間:2022-07-04 來源:電子工程世界 收藏

          為了讓AI加速器在最短延遲內(nèi)達(dá)到最佳精準(zhǔn)度,特別是在自動(dòng)駕駛車中,TFLOP已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針,然而,有專家認(rèn)為這種野蠻處理方式并不可持續(xù)…… 

          本文引用地址:http://www.ex-cimer.com/article/202207/435864.htm

          為了讓人工智能(AI)加速器在最短延遲內(nèi)達(dá)到最佳精準(zhǔn)度,特別是在自動(dòng)駕駛車(AV)中,TFLOP(兆次浮點(diǎn)運(yùn)算)已經(jīng)成為許多所謂大腦芯片的關(guān)鍵指針。這場(chǎng)競(jìng)賽的選手包括Nvidia的Xavier、Mobileye的EyeQ5、特斯拉(Tesla)的全自動(dòng)駕駛(FSD)計(jì)算機(jī)芯片,以及NXP-Kalray芯片。

          然而,有專家認(rèn)為這種野蠻處理方式并不可持續(xù)。在EE Times的一次獨(dú)家專訪中,DeepScale執(zhí)行長(zhǎng)Forrest Iandola提出其不可持續(xù)的理由,是因?yàn)锳I硬件設(shè)計(jì)師所持有的許多常見假設(shè)已經(jīng)過時(shí)。隨著AI應(yīng)用日益增多,AI供貨商從中積累更多的經(jīng)驗(yàn),這導(dǎo)致不同的AI任務(wù)開始需求不同的技術(shù)方法。如果事實(shí)的確如此,AI使用者購(gòu)買AI技術(shù)的方式將會(huì)改變,供貨商也必將做出回應(yīng)。

          20191008NT31P1 

          DeepScale執(zhí)行長(zhǎng)Forrest Iandola

          Iandola表示,就拿神經(jīng)網(wǎng)絡(luò)架構(gòu)搜尋(NAS)為例,其快速發(fā)展不僅加快優(yōu)化()的搜尋過程,并降低這一過程的成本。他相信有一種方法可以“在目標(biāo)任務(wù)和目標(biāo)運(yùn)算平臺(tái)上建立最低延遲、最高精準(zhǔn)度的,”而不是依賴于更大的芯片來處理所有的AI任務(wù)。

          Iandola設(shè)想未來AI芯片或傳感器系統(tǒng)(如計(jì)算機(jī)視覺、雷達(dá)或光達(dá))供貨商不僅提供硬件,而且還會(huì)提供自己的高速、高效的——為應(yīng)用而設(shè)計(jì)的DNN架構(gòu)。任何供貨商都會(huì)為不同的運(yùn)算平臺(tái)匹配各自所需的DNN,如果事實(shí)真是如此,那AI競(jìng)賽中的所有賭注都將失效。

          需要明確的是,目前無論是芯片公司還是傳感器供貨商都沒有提出上述前景。甚至很少有人在特定硬件上運(yùn)作有針對(duì)性AI任務(wù)的可能性。

          Iandola及其DeepScale團(tuán)隊(duì)最近設(shè)計(jì)了一系列DNN模型,稱為“SqueezeNAS”。在最近的一篇報(bào)告中,他們聲稱,當(dāng)在目標(biāo)平臺(tái)上搜尋延遲時(shí),SqueezeNAS“可以建立更快、更準(zhǔn)確的模型”。這篇報(bào)告推翻了AI小區(qū)先前對(duì)NAS、乘積累加(MAC)運(yùn)算和將ImageNet精確度應(yīng)用于目標(biāo)任務(wù)時(shí)所做的一些假設(shè)。

          DeepScale于2015年由Iandola和Kurt Keutzer教授共同創(chuàng)立,是一家位于加州山景城的新創(chuàng)公司,致力于開發(fā)“微型DNN”。兩位聯(lián)合創(chuàng)始人曾在加州大學(xué)柏克萊大學(xué)分校共事,DeepScale因其快速高效的DNN研究而在科學(xué)界備受推崇。

          手工設(shè)計(jì)(Manual designs)

          要想真正理解機(jī)器學(xué)習(xí)在計(jì)算機(jī)視覺方面的最新進(jìn)展的意義,需要了解其發(fā)展歷史。

          還記得AlexNet網(wǎng)絡(luò)結(jié)構(gòu)模型在2012年贏得ImageNet影像分類競(jìng)賽嗎?這為研究人員打開了競(jìng)爭(zhēng)的大門,讓他們專注于ImageNet研究,并尋找能夠在計(jì)算機(jī)視覺任務(wù)上達(dá)到最高精準(zhǔn)度的DNN,以此開展競(jìng)爭(zhēng)。

          20191008NT31P2 

          ImageNet分類錯(cuò)誤統(tǒng)計(jì)。(數(shù)據(jù)源:ResearchGate)

          通常,這些計(jì)算機(jī)視覺研究人員依靠專家工程師,他們會(huì)手工設(shè)計(jì)快速且高精準(zhǔn)度的DNN架構(gòu)。

          從2012年到2016年,他們提高了計(jì)算機(jī)視覺的準(zhǔn)確性,但都是透過大幅增加執(zhí)行DNN所需資源來實(shí)現(xiàn)這一目標(biāo)。Iandola解釋,例如,贏得2014年ImageNet比賽冠軍的VGGNet,其使用的運(yùn)算量是AlexNet的10倍,參數(shù)是AlexNet的2倍。

          到2016年,學(xué)術(shù)研究界發(fā)現(xiàn)利用增加DNN的資源需求來提高準(zhǔn)確性“不可持續(xù)”。SqueezeNet便是研究人員尋找的眾多替代方案之一,由Iandola及其同事在2016年發(fā)表,它展示出在微小預(yù)算(低于5MB)參數(shù)下ImageNet的“合理的準(zhǔn)確性”。

          Squeezenet引發(fā)了兩個(gè)重大變化。相對(duì)于SqueezeNet和其他早期運(yùn)算而言,MobileNetV1能夠大幅度減少M(fèi)AC的數(shù)量,Shufflenetv1是為行動(dòng)端CPU實(shí)現(xiàn)低延遲而優(yōu)化的DNN。

          利用機(jī)器學(xué)習(xí)改善機(jī)器學(xué)習(xí)

          如前所述,所有這些先進(jìn)DNN都是透過手工設(shè)計(jì)和調(diào)整神經(jīng)網(wǎng)絡(luò)架構(gòu)開發(fā)而成。由于手工流程需要專業(yè)的工程師大量的除錯(cuò),這很快就成為一個(gè)成本太高、耗時(shí)太久的提議。

          因而基于機(jī)器學(xué)習(xí),實(shí)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)設(shè)計(jì)自動(dòng)化的理念,NAS應(yīng)運(yùn)而生。NAS是一種搜尋最佳神經(jīng)網(wǎng)絡(luò)架構(gòu)的算法,并改變了AI格局。Iandola稱,“到2018年,NAS已經(jīng)開始構(gòu)建能夠以較低延遲運(yùn)行的DNN,并且比以前手工設(shè)計(jì)的DNN產(chǎn)生更高的準(zhǔn)確性?!?/p>

          強(qiáng)化學(xué)習(xí)(Reinforcement Learning)

          隨后,計(jì)算機(jī)視覺界開始使用基于機(jī)器學(xué)習(xí)的強(qiáng)化方法——強(qiáng)化學(xué)習(xí)。換句話說,“機(jī)器學(xué)習(xí)得到回饋來改善機(jī)器學(xué)習(xí),”Iandola解釋。在基于強(qiáng)化學(xué)習(xí)的NAS下,未經(jīng)訓(xùn)練的強(qiáng)化學(xué)習(xí)獲得建議,指定層數(shù)和參數(shù)來訓(xùn)練DNN架構(gòu)。一旦對(duì)DNN進(jìn)行訓(xùn)練,訓(xùn)練運(yùn)作的結(jié)果將作為回饋,從而推動(dòng)強(qiáng)化學(xué)習(xí)執(zhí)行更多DNN來展開訓(xùn)練。

          經(jīng)證明,基于強(qiáng)化學(xué)習(xí)的NAS是有效的。Google MnasNet就是一個(gè)很好的例子,它在ImageNet延遲和準(zhǔn)確性方面都優(yōu)于ShuffleNet。但它也有一個(gè)關(guān)鍵的弱點(diǎn):成本太高?;趶?qiáng)化學(xué)習(xí)的搜尋通常需要數(shù)千個(gè)GPU天(GPU day),以訓(xùn)練數(shù)百乃至數(shù)千個(gè)不同的DNN,才能生成理想的設(shè)計(jì)?!癎oogle負(fù)擔(dān)得起,”Iandola表示,但大多數(shù)其他公司負(fù)擔(dān)不起。

          現(xiàn)實(shí)地說,一個(gè)基于強(qiáng)化學(xué)習(xí)的NAS要訓(xùn)練一千個(gè)DNN,每個(gè)DNN通常需要一個(gè)GPU天??紤]到目前亞馬遜(Amazon)云端服務(wù)平臺(tái)的價(jià)格,Iandola估計(jì),一個(gè)使用基于強(qiáng)化學(xué)習(xí)的NAS搜尋所花費(fèi)的云端運(yùn)算時(shí)間可能耗資高達(dá)7萬美元。

          超級(jí)網(wǎng)絡(luò)(Supernetwork)

          在這種情況下,去年底出現(xiàn)了一種新的NAS類型,稱為基于“超級(jí)網(wǎng)絡(luò)”的搜尋。它的典型代表包括FBNet(Facebook柏克萊網(wǎng)絡(luò))和SqueezNet。

          20191008NT31P3 

          搜尋時(shí)間減少100倍。(數(shù)據(jù)源:DeepScale)

          Iandola解釋:“超級(jí)網(wǎng)絡(luò)采用一步到位的方法,而不是培訓(xùn)1,000個(gè)獨(dú)立的DNN?!崩?,一個(gè)DNN有20個(gè)模塊,每個(gè)模塊有13個(gè)選項(xiàng)。若為每個(gè)模塊選擇一個(gè)最喜歡的選項(xiàng),“你正在以10個(gè)DNN訓(xùn)練運(yùn)作花費(fèi)為代價(jià),一次性訓(xùn)練一個(gè)匯集了千兆種DNN設(shè)計(jì)的DNN,”Iandola解釋。

          結(jié)果顯示,基于超級(jí)網(wǎng)絡(luò)的NAS可以在10個(gè)GPU天的搜尋時(shí)間內(nèi)建立DNN,其延遲和準(zhǔn)確性優(yōu)于MnasNet?!斑@讓搜尋成本從7萬多美元減少到大約700美元的亞馬遜云端服務(wù)GPU時(shí)間,”Iandola說。

          “10個(gè)GPU天”的搜尋時(shí)間相當(dāng)于在一臺(tái)如衣柜般大小的8 GPU機(jī)器上花費(fèi)一天的時(shí)間,”Iandola解釋。

          20191008NT31P4

          基于強(qiáng)化學(xué)習(xí)與基于超級(jí)網(wǎng)絡(luò)的NAS比較。(數(shù)據(jù)源:DeepScale)

          過時(shí)的假設(shè)

          機(jī)器學(xué)習(xí)的簡(jiǎn)短歷史向我們展示神經(jīng)結(jié)構(gòu)搜尋的出現(xiàn)如何為計(jì)算機(jī)視覺研究奠定基礎(chǔ)。但是在這個(gè)過程中,它也反駁了研究團(tuán)體早期的一些假設(shè),Iandola指出。

          那么,哪些假設(shè)需要糾正呢?

          Iandola稱,大多數(shù)AI系統(tǒng)設(shè)計(jì)者認(rèn)為,ImageNet分類中最精確的神經(jīng)網(wǎng)絡(luò)可以為目標(biāo)任務(wù)提供最精確的骨干網(wǎng)絡(luò)。但計(jì)算機(jī)視覺包括許多AI任務(wù)——從目標(biāo)檢測(cè)、分割和3D空間到目標(biāo)追蹤、距離估計(jì)和自由空間等?!安⒎撬腥蝿?wù)都是平等的,”Iandola強(qiáng)調(diào)。

          ImageNet的準(zhǔn)確性與目標(biāo)任務(wù)的準(zhǔn)確性沒有太緊密的關(guān)聯(lián)?!斑@沒法保證?!彼f。

          來看由Iandola團(tuán)隊(duì)創(chuàng)建的SqueezeNet。Iandola解釋,這是一個(gè)小型的神經(jīng)網(wǎng)絡(luò),它的ImageNet分類精準(zhǔn)度明顯低于VGG,但在“用于辨識(shí)一組影像中相似斑塊的任務(wù)”時(shí),它比VGG更準(zhǔn)確。

          隨著分類任務(wù)達(dá)到極限,Iandola堅(jiān)信是時(shí)候?yàn)椴煌娜蝿?wù)設(shè)計(jì)不同的神經(jīng)網(wǎng)絡(luò)了。

          另一個(gè)普遍的假設(shè)是“在目標(biāo)運(yùn)算平臺(tái)上減少M(fèi)AC將產(chǎn)生更低的延遲?!比欢?,最近的研究說明,減少M(fèi)AC與減少延遲并無太大關(guān)聯(lián)?!皳碛休^少M(fèi)AC的神經(jīng)網(wǎng)絡(luò)并不總是能夠?qū)崿F(xiàn)較低的延遲,”Iandola指出。

          在Iandola的SqueezeNAS報(bào)告中,他堅(jiān)持認(rèn)為,不僅僅是不同的AI任務(wù)需要不同的DNN。為目標(biāo)運(yùn)算平臺(tái)(如CPU、GPU或TPU的特定版本)選擇合適的DNN也非常重要。

          例如,他引用了為不同智能型手機(jī)優(yōu)化網(wǎng)絡(luò)的FBNet作者的話。他們發(fā)現(xiàn)DNN在iPhonex上運(yùn)作得很快,但在三星Galaxy S8上執(zhí)行得很慢。在報(bào)告中,Iandola的團(tuán)隊(duì)總結(jié),“即使MAC的數(shù)量保持不變,不同的卷積維數(shù)也會(huì)根據(jù)處理器和核心實(shí)現(xiàn)決定運(yùn)作得更快或更慢?!?/p>

          對(duì)自動(dòng)駕駛的影響

          今天,DeepScale已經(jīng)與多家汽車供貨商建立了合作關(guān)系,包括Visteon、Hella Aglaia Mobile Vision GmbH和其他未透露名稱的公司。DeepScale一直在開發(fā)微型DNN,該公司聲稱,他們?cè)诒WC最先進(jìn)的性能的同時(shí),它們需要的運(yùn)算量更少。

          在SqueezNas的報(bào)告中,Iandola和他的同事解釋,其團(tuán)隊(duì)使用基于超級(jí)網(wǎng)絡(luò)的NAS來設(shè)計(jì)一個(gè)用于語義分割的DNN,用于辨識(shí)道路、車道、車輛和其他物體的精確形狀等具體任務(wù)?!拔覀儗?duì)NAS系統(tǒng)進(jìn)行配置,以優(yōu)化Cityscapes語義分割數(shù)據(jù)集的高精準(zhǔn)度,同時(shí)在小型車輛級(jí)運(yùn)算平臺(tái)上實(shí)現(xiàn)低延遲?!?/p>

          隨著SqueezNAS的發(fā)展,DeepScale對(duì)自己的定位是:在優(yōu)化DNN、AI硬件和特定AI任務(wù)之間的協(xié)同關(guān)系方面成為先行者。

          隨著AI芯片即將席卷市場(chǎng),Iandola認(rèn)為系統(tǒng)設(shè)計(jì)師必須明智地選擇加速器。他們應(yīng)該確切地考慮硬件應(yīng)該執(zhí)行哪種AI任務(wù),以及硬件加速器應(yīng)該在哪種神經(jīng)網(wǎng)絡(luò)上運(yùn)作。

          安全攝影機(jī)、自動(dòng)駕駛車和智能型手機(jī)都將使用AI芯片??紤]到每個(gè)系統(tǒng)所需的速度、準(zhǔn)確性、延遲和應(yīng)用程序大不相同,確定合適的硬件和NAS就變得至關(guān)重要。

          Iandola表示,對(duì)于OEM車廠來說,要把一個(gè)測(cè)試版自動(dòng)駕駛車變成一個(gè)商業(yè)產(chǎn)品,必須把目前儲(chǔ)存在自動(dòng)駕駛車后行李箱中的刀鋒服務(wù)器抽取出來。Iandola預(yù)測(cè),汽車制造商可能會(huì)要求硬件芯片公司提供適合硬件平臺(tái)的優(yōu)化DNN。

          對(duì)于Nvidia這樣的公司來說,這可能不成問題,因?yàn)樗腉PU得到了一個(gè)大型軟件生態(tài)系統(tǒng)的支持。然而,大多數(shù)其他AI硬件供貨商將會(huì)嚇出一身冷汗。

          此外,隨著一系列新的傳感器——攝影機(jī)、光達(dá)和雷達(dá)——被設(shè)計(jì)進(jìn)自動(dòng)駕駛車,汽車OEM將面臨一些殘酷的現(xiàn)實(shí),例如,每個(gè)傳感器可能使用不同類型的神經(jīng)網(wǎng)絡(luò)。另一個(gè)例子是,不同品牌設(shè)計(jì)的光達(dá)使用不同的AI硬件。Iandola指出,“今天,無論是傳感器供貨商還是AI處理器公司都沒有提供針對(duì)其硬件進(jìn)行優(yōu)化推薦的神經(jīng)網(wǎng)絡(luò)?!?/p>

          Iandola表示,OEM車廠和一級(jí)零組件供貨商將開始要求優(yōu)化DNN,以匹配特定硬件和AI任務(wù),這將無法避免?!拔覀兿嘈?,使用NAS優(yōu)化目標(biāo)運(yùn)算平臺(tái)上的低延遲變得越來越重要?!?/p>

          隨著基于超級(jí)網(wǎng)絡(luò)的NAS出現(xiàn),NAS的成本已經(jīng)在下降。因此,現(xiàn)在可能是時(shí)候讓硬件供貨商開始尋找自己的優(yōu)化DNN。當(dāng)被問及DeepScale是否計(jì)劃透過合作、授權(quán)或?yàn)锳I硬件公司開發(fā)優(yōu)化DNN來填補(bǔ)這一缺口時(shí),Iandola說,“我們還沒有真正考慮過這個(gè)問題?!?/p>



          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();