<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 英偉達(dá)H100具有800億晶體管首次使用HBM3

          英偉達(dá)H100具有800億晶體管首次使用HBM3

          作者: 時間:2022-03-25 來源:ZOL 收藏

          Nvidia在其年度GTC會議上宣布了一系列以AI為重點的企業(yè)產(chǎn)品。其中包括其新的硅架構(gòu)Hopper的細(xì)節(jié);第一個使用該架構(gòu)的數(shù)據(jù)中心GPU ;一個新的Grace CPU "超級芯片";以及該公司聲稱將建立世界上最快的AI超級計算機(jī)的模糊計劃,名為Eos。

          本文引用地址:http://www.ex-cimer.com/article/202203/432424.htm

          Nvidia從過去十年的人工智能熱潮中受益匪淺,其GPU被證明是流行的、數(shù)據(jù)密集型深度學(xué)習(xí)方法的完美匹配。Nvidia表示,隨著AI領(lǐng)域?qū)?shù)據(jù)計算需求的增長,它希望提供更多的火力。

          特別是,該公司強(qiáng)調(diào)了一種被稱為變形金剛的機(jī)器學(xué)習(xí)系統(tǒng)的普及。這種方法已經(jīng)取得了令人難以置信的成果,為從OpenAI的GPT-3等語言模型到DeepMind的AlphaFold等醫(yī)療系統(tǒng)提供動力。在幾年的時間里,此類模型的規(guī)模呈指數(shù)級增長。例如,當(dāng)OpenAI在2019年推出GPT-2時,它包含15億個參數(shù)(或連接)。當(dāng)谷歌在兩年后訓(xùn)練一個類似的模型時,它使用了1.6萬億個參數(shù)。

          隨著AI要求更多的計算機(jī),Nvidia希望提供它

          "訓(xùn)練這些巨型模型仍然需要幾個月的時間,"Nvidia產(chǎn)品管理高級總監(jiān)Paresh Kharya在一次新聞發(fā)布會上說。"所以你解雇了一個工作,并等待一個半月,看看會發(fā)生什么??s短這個訓(xùn)練時間的一個關(guān)鍵挑戰(zhàn)是,隨著你在數(shù)據(jù)中心增加GPU的數(shù)量,性能收益開始下降。"

          Nvidia表示,其新的Hopper架構(gòu)將有助于改善這些困難。該架構(gòu)以先驅(qū)計算機(jī)科學(xué)家和美國海軍少將Grace Hopper的名字命名,與上一代芯片相比,該架構(gòu)專門用于在 GPU上加速變形金剛模型的訓(xùn)練,而新的第四代Nivida NVlink可以連接多達(dá)256個 GPU,帶寬比上一代高9倍。

          H100 GPU本身包含800億個晶體管,是第一個支持PCle Gen5和利用的GPU,使內(nèi)存帶寬達(dá)到3TB/s。Nvidia表示,H100 GPU在FP16、FP32和FP64計算方面比其上一代A100快三倍,在8位浮點數(shù)學(xué)方面快六倍。

          "對于巨型變形金剛模型的訓(xùn)練,H100將提供高達(dá)9倍的性能,在幾天內(nèi)完成過去需要幾周的訓(xùn)練,"Kharya說。

          該公司還宣布了一個新的數(shù)據(jù)中心CPU--Grace CPU超級芯片,它由兩個CPU組成,通過一個新的低延遲NVLink-C2C直接連接。該芯片旨在與新的基于Hopper的GPU一起 "服務(wù)于巨型HPC和AI應(yīng)用",并可用于純CPU系統(tǒng)或GPU加速的服務(wù)器。它有144個Arm核心和1TB/s的內(nèi)存帶寬。

          史上最強(qiáng)?英偉達(dá)H100具有800億晶體管首次使用HBM3

          新的格雷斯CPU "超級芯片 "由兩個CPU連接而成。


          除了硬件和基礎(chǔ)設(shè)施新聞,Nvidia還宣布了其各種企業(yè)人工智能軟件服務(wù)的更新,包括Maxine(提供音頻和視頻增強(qiáng)功能的SDK,旨在為虛擬化身等提供動力)和Riva(用于語音識別和文本轉(zhuǎn)語音的SDK)。

          該公司還預(yù)告說,它正在建造一臺新的人工智能超級計算機(jī),它聲稱在部署時將是世界上最快的。這臺名為Eos的超級計算機(jī)將采用Hopper架構(gòu),包含約4600個H100 GPU,提供18.4 exaflops的 "AI性能"。該系統(tǒng)將只用于Nvidia的內(nèi)部研究,該公司表示它將在幾個月后上線。

          在過去幾年中,一些對人工智能有濃厚興趣的公司已經(jīng)建立或宣布了他們自己的內(nèi)部 "人工智能超級計算機(jī)",用于內(nèi)部研究,包括微軟、特斯拉和Meta。這些系統(tǒng)與普通的超級計算機(jī)沒有直接的可比性,因為它們的運(yùn)行精度較低,這使得一些公司能夠通過宣布世界上最快的超級計算機(jī)而迅速地相互跨越。

          然而,在他的主題演講中,Nvidia首席執(zhí)行官黃仁勛確實表示,Eos在運(yùn)行傳統(tǒng)的超級計算機(jī)任務(wù)時,將架設(shè)275 petaFLOPS的計算量--比 "美國最快的科學(xué)計算機(jī)"(Summit)快1.4倍。"我們期望Eos成為世界上最快的人工智能計算機(jī),"黃說。"Eos將成為我們的OEM和云合作伙伴最先進(jìn)的AI基礎(chǔ)設(shè)施的藍(lán)圖"。



          關(guān)鍵詞: 英偉達(dá) H100 HBM3

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();