<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 黃仁勛深夜炸場(chǎng)!一鍵構(gòu)建元宇宙

          黃仁勛深夜炸場(chǎng)!一鍵構(gòu)建元宇宙

          —— GH200大幅降低大語言模型推理成本!
          作者: 時(shí)間:2023-08-09 來源:網(wǎng)易科技 收藏

          出品|網(wǎng)易科技《智見焦點(diǎn)》

          本文引用地址:http://www.ex-cimer.com/article/202308/449423.htm

          作者|趙芙瑤

          編輯|丁廣勝

          購(gòu)置芯片,買的越多,省得越多?只需一臺(tái)電腦,在家就能微調(diào)大模型?從前費(fèi)時(shí)費(fèi)力又燒錢的元宇宙,如今用生成式AI已經(jīng)可以快速生成數(shù)字孿生模型,迅速構(gòu)建虛擬世界?

          8月8日,皮衣教主帶著的一系列更新,在SIGGRAPH 現(xiàn)場(chǎng)發(fā)表NVIDIA主題演講。SIGGRAPH是計(jì)算機(jī)圖形學(xué)的年度頂級(jí)會(huì)議,也是計(jì)算機(jī)圖形學(xué)和交互技術(shù)領(lǐng)域的一個(gè)重要組織。

          自1993年創(chuàng)立以來,在計(jì)算機(jī)圖形學(xué)領(lǐng)域扎根,推動(dòng)著圖形處理器(GPU)技術(shù)的發(fā)展,包括實(shí)時(shí)光線追蹤技術(shù)的突破、多核與眾核處理器創(chuàng)新以及在人工智能和深度學(xué)習(xí)領(lǐng)域加速算法的訓(xùn)練和推理。這也是時(shí)隔五年后,皮衣教主再一次登上SIGGRAPH的演講臺(tái)。

          英偉達(dá)黃仁勛疊BUFF!在家就能微調(diào)大模型、一鍵構(gòu)建元宇宙,GH200大幅降低大語言模型推理成本!

          那么此次演講,皮衣教主給各路看客帶來了哪些驚喜?劃重點(diǎn)了!

          一、+Grace Hopper:降低大語言模型推理成本

          今年五月,發(fā)布了系統(tǒng),專為處理大規(guī)模的生成式人工智能(Generative AI)工作負(fù)載而設(shè)計(jì)。將256個(gè)NVIDIA Grace Hopper? Superchip完全連接成一個(gè)單一的GPU,可以支持處理大規(guī)模的推薦系統(tǒng)、生成式人工智能和圖分析等領(lǐng)域的模型。

          此次演講,又詳細(xì)介紹了自己“如數(shù)家珍”的GH200,在他看來,未來的前沿模型將會(huì)在大規(guī)模系統(tǒng)上進(jìn)行訓(xùn)練和應(yīng)用。每個(gè)節(jié)點(diǎn)上都會(huì)有一個(gè)單一的Grace Hopper,這種架構(gòu)在過去60年來一直是計(jì)算的方式,現(xiàn)在在加速計(jì)算和AI計(jì)算方面將成為主流,未來將使得前沿模型能夠更好地進(jìn)行訓(xùn)練和應(yīng)用。

          也就是說,此類系統(tǒng)可以進(jìn)行普適性應(yīng)用,未來的前沿模型將成為各種應(yīng)用的前端。每個(gè)應(yīng)用程序、每個(gè)數(shù)據(jù)庫(kù),在與計(jì)算機(jī)交互時(shí),都可能首先與一個(gè)大型語言模型進(jìn)行交互。這些模型將理解用戶的意圖、愿望和特定情境,并以最佳方式呈現(xiàn)信息。這種模型將進(jìn)行智能查詢和搜索,甚至可能用于音樂生成等領(lǐng)域?!霸谟?jì)算的未來,加速計(jì)算和AI計(jì)算將成為主流。”黃仁勛信心滿滿的展望道。

          在能源效率和成本效益方面,黃仁勛反復(fù)強(qiáng)調(diào):“買的越多,省得越多”。這可不是“信口開河”,加速計(jì)算在生成式AI應(yīng)用程序的能源效率和成本效益方面相當(dāng)于20倍的Moore定律和目前的CPU擴(kuò)展方式。Moore定律是由英特爾創(chuàng)始人之一戈登·摩爾提出的觀點(diǎn)。其核心內(nèi)容是,集成電路上可以容納的晶體管數(shù)量,大約每隔18個(gè)月到24個(gè)月就會(huì)增加一倍。換句話說,處理器的性能大約每?jī)赡攴槐叮瑫r(shí)價(jià)格下降為之前的一半。那么,20倍的Moore定律是什么概念?

          黃仁勛舉了一個(gè)生動(dòng)的例子:具體來說,打造一個(gè)數(shù)據(jù)中心,使用通用計(jì)算的GPU需要1億美元,而使用加速計(jì)算的Grace Hopper僅需800萬美元。而且使用通用計(jì)算的能耗是兆瓦級(jí)別,而使用Grace Hopper僅需262千瓦(即262,000瓦),能耗減少了20倍。成本方面,使用Grace Hopper相較通用計(jì)算成本減少了12倍。使用加速計(jì)算可以顯著降低能耗,同時(shí)大幅降低成本。也就是說購(gòu)買越多GH200,節(jié)省的成本就越多。

          英偉達(dá)黃仁勛疊BUFF!在家就能微調(diào)大模型、一鍵構(gòu)建元宇宙,GH200大幅降低大語言模型推理成本!

          二、 進(jìn)擊的Omniverse:元宇宙觸手可及?

          在生成式AI現(xiàn)在可以自動(dòng)生成數(shù)字孿生模型之前,數(shù)字孿生模型的構(gòu)建是一個(gè)相對(duì)復(fù)雜的過程,涉及多維虛擬模型和融合數(shù)據(jù)的驅(qū)動(dòng)。無論是多維虛擬模型構(gòu)建、數(shù)據(jù)采集與傳感器集成還是模型融合和校準(zhǔn)、交互式仿真和優(yōu)化等流程,以往的數(shù)字孿生模型構(gòu)建過程更多地依賴于專業(yè)人員的經(jīng)驗(yàn)和手動(dòng)操作,需要將實(shí)際數(shù)據(jù)與虛擬模型進(jìn)行集成和校準(zhǔn),以實(shí)現(xiàn)監(jiān)控、仿真、預(yù)測(cè)和優(yōu)化等功能。

          這樣的制作過程,別說是個(gè)人,就連許多“財(cái)大氣粗”的企業(yè)也望而卻步。然而,英偉達(dá)Omniverse的更新讓數(shù)字孿生的門檻進(jìn)一步降低,目前開發(fā)者、企業(yè)和行業(yè)已經(jīng)能夠使用 OpenUSD 框架和生成式 AI 優(yōu)化改進(jìn)3D 流程,也就是說,開發(fā)者可以隨意在Omniverse上制作自己的專屬虛擬助理和數(shù)字人,企業(yè)也可以在此平臺(tái)上自動(dòng)生成產(chǎn)品的數(shù)字孿生廣告大片。

          黃仁勛現(xiàn)場(chǎng)展示了世界上最大的廣告公司W(wǎng)PP與電動(dòng)汽車制造商比亞迪基于Omniverse的合作。OmniVerse Cloud允許比亞迪使用高保真數(shù)據(jù)創(chuàng)建實(shí)時(shí)數(shù)字孿生體,從而實(shí)現(xiàn)物理精確的模擬。WPP的藝術(shù)家可以在同一環(huán)境中使用AutoDesk、Adobe和SideFX等工具進(jìn)行無縫協(xié)作,使得比亞迪可以通過OmniVerse Cloud連接不同時(shí)間和空間的設(shè)計(jì)師和開發(fā)者,從而快速構(gòu)建具有物理級(jí)準(zhǔn)確性的虛擬世界。

          來感受下生成的炫酷數(shù)字孿生大片,汽車顏色與場(chǎng)景都可以隨意變換,上一秒還是黑色,下一秒就能變?yōu)榧t色,上一個(gè)畫面還在草原,下一幀就直接出現(xiàn)在雪地!

          黃仁勛進(jìn)一步介紹道,Open USD技術(shù)使WPP能夠創(chuàng)建一個(gè)超級(jí)數(shù)字孿生體,將所有可能的變化整合到一個(gè)單一資產(chǎn)中。這個(gè)數(shù)字孿生體部署在Universe Class GDNA網(wǎng)絡(luò)上,實(shí)現(xiàn)了完全交互式的三維配置器,可以將高保真度的實(shí)時(shí)三維體驗(yàn)傳送到全球100多個(gè)地區(qū)的設(shè)備上。該解決方案還可以生成個(gè)性化的內(nèi)容,用于全球營(yíng)銷活動(dòng),USD模型位于三維環(huán)境中,可以使用現(xiàn)實(shí)世界中的掃描數(shù)據(jù)或生成式AI工具進(jìn)行創(chuàng)建。

          同時(shí),Machinima應(yīng)用也得到了更新,以幫助用戶更好地構(gòu)建逼真的虛擬形象。引入了NVIDIA Omniverse Avatar Cloud Engine (ACE),以及新的Omniverse連接器和應(yīng)用,這使用戶可以輕松地構(gòu)建和自定義虛擬助理和數(shù)字人。

          目前,Omniverse用戶已經(jīng)可以通過OmniLive增強(qiáng)USD(Universal Scene Description)工作流中的交互,將真實(shí)世界的實(shí)時(shí)準(zhǔn)確性引入3D虛擬世界。

          三、AI Workbench:在家就能Fine-tune,AI幫你疊BUFF?

          只需一臺(tái)電腦,在家就可以測(cè)試、微調(diào)大模型?用皮衣教主黃仁勛的話來總結(jié)就是:“人人都可以生成AI”。

          這已經(jīng)不是天方夜譚,黃仁勛此次現(xiàn)場(chǎng)宣布英偉達(dá)發(fā)布了全新的統(tǒng)一工作空間,名為 NVIDIA AI Workbench。該平臺(tái)為開發(fā)者提供了一個(gè)統(tǒng)一、易用的工作空間,使他們能夠在個(gè)人電腦或工作站上快速創(chuàng)建、測(cè)試和微調(diào)生成式 AI 模型,然后將這些模型擴(kuò)展到幾乎所有數(shù)據(jù)中心、公有云或 DGX Cloud。

          英偉達(dá)黃仁勛疊BUFF!在家就能微調(diào)大模型、一鍵構(gòu)建元宇宙,GH200大幅降低大語言模型推理成本!

          與此同時(shí),黃仁勛宣布 NVIDIA 將與初創(chuàng)企業(yè) Hugging Face 一起為數(shù)百萬開發(fā)者提供生成式 AI 超級(jí)計(jì)算,幫助他們構(gòu)建大型語言模型等高級(jí)AI應(yīng)用。開發(fā)者將能夠使用 Hugging Face 平臺(tái)內(nèi)的 NVIDIA DGX Cloud AI 超級(jí)計(jì)算訓(xùn)練和調(diào)整高級(jí) AI 模型。

          英偉達(dá)黃仁勛疊BUFF!在家就能微調(diào)大模型、一鍵構(gòu)建元宇宙,GH200大幅降低大語言模型推理成本!

          具體而言,AI Workbench和Hugging Face將怎樣幫打工人解放雙手呢?

          NVIDIA基于新一代Ada Lovelace架構(gòu)的NVIDIA RTX 6000工作站GPU,為設(shè)計(jì)師和創(chuàng)作者提供了具有2-4倍性能提升的強(qiáng)大工具。這款GPU可以使設(shè)計(jì)師和工程師能夠驅(qū)動(dòng)先進(jìn)的基于模擬的工作流程,構(gòu)建和驗(yàn)證更復(fù)雜的設(shè)計(jì)。藝術(shù)家可以將敘事推向新的高度,創(chuàng)造更引人入勝的內(nèi)容,構(gòu)建沉浸式虛擬環(huán)境??茖W(xué)家、研究人員和醫(yī)療專業(yè)人員可以在工作站上利用超級(jí)計(jì)算能力來加速開發(fā)生命救助藥物和程序,其性能達(dá)到上一代RTX A6000的2-4倍。

          NVIDIA的RTX 6000 Ada Generation GPU則采用了Ada架構(gòu)AI和可編程著色器技術(shù),可為神經(jīng)圖形和高級(jí)虛擬世界模擬提供理想的平臺(tái),可用于使用NVIDIA Omniverse Enterprise創(chuàng)建元宇宙內(nèi)容和工具。

          除了RTX 6000之外,NVIDIA還推出了三款全新的工作站GPU:RTX 5000、RTX 4500和RTX 4000,這些新產(chǎn)品在規(guī)格上各有不同。RTX 5000采用了AD102芯片,是RTX 6000的削減版本,提供12800 CUDA核心和32GB GPU內(nèi)存。RTX 4500采用了AD104芯片,擁有24GB GPU內(nèi)存。而RTX 4000是入門級(jí)的工作站GPU,采用了20GB GPU內(nèi)存和6144 CUDA核心。這些新GPU將為設(shè)計(jì)師、創(chuàng)作者和工程師提供更廣泛的選擇,以滿足不同領(lǐng)域的需求。也就是說,有了AI Workbench和Hugging Face,打工人完全可以疊BUFF,利用平臺(tái)完成更加精細(xì)、更加復(fù)雜的內(nèi)容。

          英偉達(dá)黃仁勛疊BUFF!在家就能微調(diào)大模型、一鍵構(gòu)建元宇宙,GH200大幅降低大語言模型推理成本!

          毫無疑問的是,NVIDIA無論在生成式人工智能、數(shù)字孿生建模方面的進(jìn)展還是AI Workbench的推出以及與Hugging Face的合作,都是在推動(dòng)人工智能、虛擬現(xiàn)實(shí)以及內(nèi)容創(chuàng)作的未來,降低生成式AI的門檻,讓“不會(huì)用AI的低成本用上AI,會(huì)用AI的用的更加?jì)故觳⒏庸?jié)省成本”,給諸多行業(yè)提供“加速器”。皮衣教主黃仁勛,正在人工智能、圖形和模擬領(lǐng)域不斷推動(dòng)技術(shù)的邊界,帶來新的驚喜。



          關(guān)鍵詞: 英偉達(dá) 黃仁勛 GH200

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();