<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 消費(fèi)電子 > 業(yè)界動(dòng)態(tài) > 2017GPU技術(shù)大會(huì)英偉達(dá):千人數(shù)年30億美元打造全新計(jì)算卡

          2017GPU技術(shù)大會(huì)英偉達(dá):千人數(shù)年30億美元打造全新計(jì)算卡

          作者: 時(shí)間:2017-05-11 來源:DeepTech 收藏

            北京時(shí)間5月10日24:00,黃仁勛在2017年技術(shù)大會(huì)( Technology Conference, GTC)上發(fā)表主題演講。隨著過去一年AI技術(shù)的快速發(fā)展,Nvidia這家“意外”成為AI寵兒的公司市值也是節(jié)節(jié)攀升。

          本文引用地址:http://www.ex-cimer.com/article/201705/359052.htm

            當(dāng)然,任何聰明的商人都不會(huì)放過快速擴(kuò)張的窗口期。如果讀者們還有印象,DT君曾在今年1月拉斯維加斯的CES上現(xiàn)場(chǎng)報(bào)道過黃仁勛的開幕致辭。如果說CES上黃仁勛更多談到的是公司戰(zhàn)略和商業(yè)模式,那么一年一度的GTC則是Nvidia引爆各種“核武器”的試驗(yàn)場(chǎng),勢(shì)必順應(yīng)技術(shù)發(fā)展潮流推出一批令人印象深刻的硬件產(chǎn)品?!?/p>

            黃仁勛在這場(chǎng)歷時(shí)兩個(gè)多小時(shí)的演講中,充滿激情的發(fā)布一系列最新產(chǎn)品,簡(jiǎn)單來說就是如下這些:計(jì)算加速、Volta架構(gòu)與Tensor核心、TensorRT、搭載Tesla V100的DGX與HGX、Nvidia  Cloud云平臺(tái)、Xavier系統(tǒng)芯片及加深度學(xué)習(xí)速器開源、豐田汽車正式搭載Nvidia Drive PX,以及ISAAC機(jī)器人模擬系統(tǒng)。

            以下是DT君整理的黃仁勛在本次GTC大會(huì)上演講的大致內(nèi)容:

            Nvidia剛剛于昨天下午公布了一份漂亮的2018財(cái)年Q1財(cái)報(bào),公司收入增長(zhǎng)非常迅速,而且在每個(gè)業(yè)務(wù)領(lǐng)域都有不俗表現(xiàn)。今年我們會(huì)帶給大家怎樣的驚喜?

            Nvidia數(shù)據(jù)中心業(yè)務(wù)增長(zhǎng)非常迅猛,這得益于公司在神經(jīng)網(wǎng)絡(luò)方面的技術(shù)優(yōu)勢(shì),以及基于Pascal架構(gòu)產(chǎn)品的出色性能。Nvidia也會(huì)繼續(xù)促進(jìn)數(shù)據(jù)業(yè)務(wù)的發(fā)展,同時(shí)也會(huì)向開發(fā)者們提供更高效的硬件和工具,以及更多的培訓(xùn)機(jī)會(huì)。

            微處理器的性能在過去30年提升了近百萬倍,但在過去幾年中,這一進(jìn)程慢了下來,不論是在制造工藝改進(jìn),還是工業(yè)過程控制方面。這導(dǎo)致目前我們似乎走到了一個(gè)十字路口。

            圖丨后摩爾時(shí)代

            對(duì)于CPU來說,GPU是一種有著特殊用途的加速器,而GPU的并行處理能力現(xiàn)在已經(jīng)成為了一種不可或缺的計(jì)算能力,這是Nvidia最初也沒想到的。從十年前發(fā)布G80到現(xiàn)在,Nvidia已經(jīng)在GPU領(lǐng)域耕耘了很長(zhǎng)時(shí)間,也經(jīng)歷了長(zhǎng)期的技術(shù)積累,現(xiàn)在似乎到了收獲的時(shí)候。

            就拿GPU技術(shù)大會(huì)來說,參加這個(gè)大會(huì)的人數(shù)在五年間增長(zhǎng)了三倍。今天的大會(huì)上,全球10家最大的汽車公司在這里,全球最頂尖的10家科技公司在這里,80家AI創(chuàng)業(yè)公司在這里。GPU從來沒有像現(xiàn)在這樣受到如此的關(guān)注,這一點(diǎn)令我們非常欣慰。

            下面要宣布的是Holodeck計(jì)劃。這其實(shí)是一個(gè)全息圖像平臺(tái),包括VR技術(shù)、全動(dòng)作追蹤,以及3D虛擬形象。所有的效果都是實(shí)時(shí)渲染的。今天的Demo我們找到了著名的超跑廠商柯尼塞格公司,那里的工作人員會(huì)以虛擬形象接入現(xiàn)場(chǎng),畫面上的超級(jí)跑車也是實(shí)時(shí)渲染的。

            圖丨Holodeck計(jì)劃

            畫面上的機(jī)器人都是實(shí)時(shí)捕捉的真人動(dòng)作,他們可以使用Holodeck提供的工具來與車輛互動(dòng),比如進(jìn)入駕駛室進(jìn)行操作,將跑車透明化,展示內(nèi)部結(jié)構(gòu),甚至直接分解整部跑車。

            

           

            

           

            圖丨Holodeck演示柯尼塞格的工作人員與跑車互動(dòng)

            可能Holodeck現(xiàn)在的效果還不盡人意,但可以看見它會(huì)向什么方向發(fā)展。沉浸式VR體驗(yàn)、高精度渲染,以及對(duì)周圍環(huán)境的物理模擬。Holodeck平臺(tái)將在今年9月正式開放。

            接下來的話題是“機(jī)器學(xué)習(xí)時(shí)代”。黃仁勛展示了在過去五年中,基于AI的神經(jīng)網(wǎng)絡(luò)都發(fā)展出了哪些能力,并表示我們正在進(jìn)入一個(gè)機(jī)器自學(xué)、機(jī)器自編程的時(shí)代,這將是人類技術(shù)領(lǐng)域最重要的革命之一。

            近期一個(gè)重要的創(chuàng)新就是對(duì)抗網(wǎng)絡(luò),神經(jīng)網(wǎng)絡(luò)A嘗試其誤導(dǎo)神經(jīng)網(wǎng)絡(luò)B,但B網(wǎng)絡(luò)試圖對(duì)抗這種誤導(dǎo),每次對(duì)抗成功,正確的決策行為就會(huì)被強(qiáng)化。

            圖丨用深度學(xué)習(xí)進(jìn)行光線追蹤

            舉個(gè)例子,用深度學(xué)習(xí)來試圖為一張色彩不完整的圖片重新上色,機(jī)器自己會(huì)知道哪些地方是需要優(yōu)化的,而不用還原光照條件,同時(shí)還節(jié)省了大量的計(jì)算資源。

            當(dāng)前,全世界最熱門的課程之一可能就是機(jī)器學(xué)習(xí)了。比如在斯坦福大學(xué)、麻省理工學(xué)院等,越來越多的人投入到了這個(gè)領(lǐng)域。隨著人才的涌入和計(jì)算能力的提升,真正迎來了“計(jì)算的民主化時(shí)代”。

            圖丨現(xiàn)代AI大爆發(fā)

            而Nvidia在這個(gè)新時(shí)代的戰(zhàn)略就是:為機(jī)器學(xué)習(xí)創(chuàng)造最高效的平臺(tái)。黃仁勛也非常自信的表示,世界上所有提供云服務(wù)的平臺(tái),沒有一個(gè)不會(huì)用到Nvidia的GPU產(chǎn)品。同時(shí)Nvidia一刻也沒有放松在AI領(lǐng)域的基礎(chǔ)科研及應(yīng)用開發(fā)。

            圖丨Nvidia與1300家深度學(xué)習(xí)初創(chuàng)公司建立了合作關(guān)系

            下面將發(fā)布的是一個(gè)重量級(jí)產(chǎn)品,Nvidia投入數(shù)千人、耗時(shí)數(shù)年的研發(fā)成果,也是公司歷史上難度最大、最昂貴的項(xiàng)目:Tesla V100正式發(fā)布!

            Tesla V100采用臺(tái)積電12nm工藝制程,815平方毫米面積,共210億個(gè)晶體管,15Tflops的單精度浮點(diǎn)性能,7.5Tflops的雙精度浮點(diǎn)性能,擁有5120個(gè)CUDA,16MB緩存,采用16GB HBM2顯存,顯存帶寬為900GB/S。

            圖丨Tesla V100

            Nvidia總共投入了30億美元來打造這款產(chǎn)品。黃仁勛在發(fā)布這款產(chǎn)品時(shí)顯得非常激動(dòng),稱Tesla V100的研發(fā)是一項(xiàng)幾乎不可能完成的任務(wù),令人難以置信。

            接下來,黃仁勛通過一系列視頻及游戲展示了Tesla V100怪獸級(jí)的性能。那些曾經(jīng)在Titan X上需要數(shù)分鐘才能處理完成的任務(wù),在Tesla V100上只需要花數(shù)秒就能完成。

            此外,基于8塊Tesla V100搭建的DGX-1也開始預(yù)售,價(jià)格為149000美元(合100萬人民幣),預(yù)計(jì)在今年第三季度交付。

            圖丨DGX-1

            當(dāng)然,Nvidia還準(zhǔn)備了低配版本的DGX Station,搭載了4塊Tesla V100,售價(jià)為69000美元(合48萬人民幣)。

            此外,新發(fā)布的產(chǎn)品還包括Nvidia GPU Cloud, 這款產(chǎn)品為用戶提供云端硬件的同時(shí),也提供軟件入口,只需要花幾分鐘進(jìn)行簡(jiǎn)單設(shè)置,就可以開始運(yùn)行深度學(xué)習(xí)相關(guān)任務(wù)。其優(yōu)點(diǎn)是全棧優(yōu)化、實(shí)時(shí)更新、Nvidia官方負(fù)責(zé)測(cè)試及維護(hù)。其測(cè)試版將在今年7月推出。

            圖丨Nvidia GPU Cloud

            當(dāng)然,Nvidia的發(fā)布會(huì)必然會(huì)談到自動(dòng)駕駛的話題。黃仁勛宣布,豐田汽車已全面采用Nvidia Drive PX平臺(tái)。

            隨后介紹的是Xavier系統(tǒng)芯片,這套搭載Volta架構(gòu)GPU的系統(tǒng)其實(shí)早在2016年就已經(jīng)公布。Xavier擁有用于負(fù)責(zé)單線程任務(wù)的CPU、負(fù)責(zé)并行任務(wù)的GPU,以及負(fù)責(zé)深度學(xué)習(xí)的Tensor內(nèi)核。Nvidia表示,會(huì)將Xavier的深度學(xué)習(xí)加速器進(jìn)行開源。

            

            圖丨Xavier系統(tǒng)芯片

            Xavier系統(tǒng)芯片對(duì)AI研究其實(shí)是具有重大意義的,但不知為何,黃仁勛在這一部分并沒有花太多時(shí)間進(jìn)行詳述,而是快速轉(zhuǎn)到了最后一個(gè)話題:如何用深度學(xué)習(xí)來訓(xùn)練機(jī)器人。

            全新的機(jī)器人訓(xùn)練系統(tǒng)ISAAC模擬器,允許人們?cè)谔摂M環(huán)境下訓(xùn)練真實(shí)世界的機(jī)器人。由一個(gè)GPU來進(jìn)行物理計(jì)算,其他GPU則根據(jù)計(jì)算出來的物理結(jié)果來進(jìn)行神經(jīng)網(wǎng)絡(luò)訓(xùn)練。

            圖丨ISAAC機(jī)器人模擬器

            這套機(jī)器人模擬器借鑒了遺傳學(xué)領(lǐng)域的一些算法,并將其應(yīng)用到神經(jīng)網(wǎng)絡(luò)中,去嘗試教機(jī)器人打高爾夫。



          關(guān)鍵詞: 英偉達(dá) GPU

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();