<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > Graphcore公布最新MLPerf訓(xùn)練結(jié)果:AI性能再刷新高

          Graphcore公布最新MLPerf訓(xùn)練結(jié)果:AI性能再刷新高

          作者: 時間:2021-12-02 來源:電子產(chǎn)品世界 收藏

          近日,Graphcore(擬未)正式公布其參與MLPerf測試的最新結(jié)果。結(jié)果顯示,與首次提交的MLPerf訓(xùn)練結(jié)果相比,對于ResNet-50模型,Graphcore通過軟件優(yōu)化,在IPU-POD16上實(shí)現(xiàn)了24%的性能提升,在IPU-POD64上實(shí)現(xiàn)了41%的性能提升;對于自然語言處理(NLP)模型BERT來說,在IPU-POD16上實(shí)現(xiàn)了5%的性能提升,在IPU-POD64上實(shí)現(xiàn)了12%的性能提升。此次MLPerf測試結(jié)果證明了Graphcore的IPU系統(tǒng)越來越強(qiáng)大、高效,軟件日益成熟且更快、更易使用。

          本文引用地址:http://www.ex-cimer.com/article/202112/430062.htm

          MLPerf還對比了市面上的Graphcore與NVIDIA的產(chǎn)品,通過在GPU占據(jù)優(yōu)勢的模型ResNet-50上進(jìn)行測試,結(jié)果表明Graphcore的IPU-POD16在計算機(jī)視覺模型ResNet-50方面的表現(xiàn)優(yōu)于NVIDIA的DGX A100。在DGX A100上訓(xùn)練ResNet-50需要29.1分鐘,而IPU-POD16僅耗時28.3分鐘,這是自Graphcore首次提交以來僅通過軟件實(shí)現(xiàn)的性能提升。其中,IPU-POD16對ResNet-50的軟件驅(qū)動性能提高了24%,在IPU-POD64上對ResNet-50的軟件驅(qū)動性能提升甚至更高,達(dá)到41%,對于Graphcore具有里程碑式的意義。

          1638413962408997.png

          Graphcore最近發(fā)布的IPU-POD128和IPU-POD256橫向擴(kuò)展系統(tǒng)也得出了結(jié)果,與上一輪MLPerf訓(xùn)練相比,Graphcore的IPU-POD16的BERT性能提高了5%,IPU-POD64的BERT性能提高了12%。

          ●   對于Graphcore較大的旗艦系統(tǒng),在IPU-POD128上訓(xùn)練ResNet-50的時間為5.67分鐘,在IPU-POD256上為3.79分鐘。

          ●   對于自然語言處理(NLP)模型BERT,Graphcore在開放和封閉類別分別提交了IPU-POD16、IPU-POD64和IPU-POD128的結(jié)果,在新的IPU-POD128上的訓(xùn)練時間為5.78分鐘。

          MLPerf的封閉分區(qū)嚴(yán)格要求提交者使用完全相同的模型實(shí)施和優(yōu)化器方法,其中包括定義超參數(shù)狀態(tài)和訓(xùn)練時期。開放分區(qū)旨在通過在模型實(shí)施中提供更大的靈活性來促進(jìn)創(chuàng)新,同時確保達(dá)到與封閉分區(qū)完全相同的模型準(zhǔn)確性和質(zhì)量。通過在開放分區(qū)展示BERT訓(xùn)練的結(jié)果,Graphcore能夠讓客戶了解產(chǎn)品在實(shí)際運(yùn)行中的性能,從而讓他們更傾向于使用此類優(yōu)化。

          1638413997388321.png

          新模型在大規(guī)模系統(tǒng)上的巨大優(yōu)勢

          MLPerf及其組織機(jī)構(gòu)MLCommons作為第三方驗證機(jī)構(gòu),在幫助客戶獨(dú)立評估人工智能計算系統(tǒng)的能力和不同公司提供的軟件棧的成熟度方面發(fā)揮著重要作用。當(dāng)然,客戶繼續(xù)在生產(chǎn)中使用ResNet和BERT等模型的同時,也在探索創(chuàng)新的新模型,并期待Graphcore更大的旗艦系統(tǒng)實(shí)現(xiàn)大規(guī)模機(jī)器智能。例如,在Graphcore的旗艦產(chǎn)品IPU-POD256上,創(chuàng)新的計算機(jī)視覺EfficientNet-B4僅用1.8小時便可完成訓(xùn)練,盡管這并非Graphcore本次向MLPerf提交的內(nèi)容,但在實(shí)際應(yīng)用中的確有更強(qiáng)的性能優(yōu)勢。

          1638414019827939.png

          此外,在絕對吞吐量性能以及擴(kuò)展到更大的IPU-POD系統(tǒng)方面,Graphcore在MLPerf之外的一系列模型中也得到了一系列令人印象深刻的結(jié)果,包括用于自然語言處理的GPT類模型和用于計算機(jī)視覺的ViT(Transformer視覺模型)。

          1638414038796423.png

          通過設(shè)計實(shí)現(xiàn)大規(guī)模高效

          在本輪或任何一輪MLPerf原始數(shù)據(jù)中,每個制造商系統(tǒng)相關(guān)的主機(jī)處理器數(shù)量都十分驚人,一些參與者甚至指定要求每兩個人工智能處理器配有一個CPU。而Graphcore的主機(jī)處理器與IPU的比率始終是最低的。與其他產(chǎn)品不同,IPU僅使用主機(jī)服務(wù)器進(jìn)行數(shù)據(jù)移動,無需主機(jī)服務(wù)器在運(yùn)行時分派代碼。因此,IPU系統(tǒng)需要的主機(jī)服務(wù)器更少,從而實(shí)現(xiàn)了更靈活、更高效的橫向擴(kuò)展系統(tǒng)。

          對于BERT-Large這一類自然語言處理模型,IPU-POD64只需要一個雙CPU的主機(jī)服務(wù)器。ResNet-50需要更多的主機(jī)處理器來支持圖像預(yù)處理,因此Graphcore為每個IPU-POD64指定了四個雙核服務(wù)器。1比8的比例仍然低于其他所有MLPerf參與者。事實(shí)上,在本輪MLPerf 1.1訓(xùn)練中,Graphcore為BERT提供了最快的單服務(wù)器訓(xùn)練時間結(jié)果,為10.6分鐘。

          Graphcore大中華區(qū)總裁兼全球首席營收官盧濤表示:“自2021年初首次提交MLPerf測試以來,Graphcore取得了巨大進(jìn)步,這與Graphcore不懈創(chuàng)新的企業(yè)精神是分不開的。無論是設(shè)計系統(tǒng)、選擇架構(gòu)之初,還是至少每三個月推出一次重大軟件更新,都是Graphcore創(chuàng)新精神的體現(xiàn)。同時,Graphcore不懈創(chuàng)新的熱情也感染和吸引了眾多軟硬件合作伙伴——從Hugging Face和PyTorch Lightning到VMware和Docker Hub,它們都積極支持Graphcore不斷創(chuàng)新,以助力AI開發(fā)者在易于使用的系統(tǒng)上獲得絕佳的人工智能計算性能?!?/p>



          關(guān)鍵詞:

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();