<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 新品快遞 > 英偉達(dá)發(fā)布最強(qiáng) AI 加速卡--Blackwell GB200,今年發(fā)貨

          英偉達(dá)發(fā)布最強(qiáng) AI 加速卡--Blackwell GB200,今年發(fā)貨

          作者: 時間:2024-03-19 來源:IT之家 收藏

          IT之家 3 月 19 日閃訊速報,發(fā)布最強(qiáng) AI 加速卡--Blackwell GB200,今年發(fā)貨。

          本文引用地址:http://www.ex-cimer.com/article/202403/456521.htm

          在今天召開的 GTC 開發(fā)者大會上,正式發(fā)布了最強(qiáng) AI 加速卡 GB200,并計劃今年晚些時候發(fā)貨。

          GB200 采用新一代 AI 圖形處理器架構(gòu) Blackwell,黃仁勛在 GTC 大會上表示:“Hopper 固然已經(jīng)非常出色了,但我們需要更強(qiáng)大的 GPU”。

          目前按照每隔 2 年的更新頻率,升級一次 GPU 架構(gòu),從而大幅提升性能。英偉達(dá)于 2022 年發(fā)布了基于 Hopper 架構(gòu)的 H100 加速卡,而現(xiàn)在推出基于 Blackwell 的加速卡更加強(qiáng)大,更擅長處理 AI 相關(guān)的任務(wù)。

          Blackwell GPU

          黃仁勛表示,Blackwell 的 AI 性能可達(dá) 20 petaflops,而 H100 僅為 4 petaflops。Nvidia 表示,額外的處理能力將使人工智能公司能夠訓(xùn)練更大、更復(fù)雜的模型。

          Blackwell GPU 體積龐大,采用臺積電的 4 納米(4NP)工藝蝕刻而成,整合兩個獨立制造的裸晶(Die),共有 2080 億個晶體管,然后通過 NVLink 5.0 像拉鏈一樣捆綁芯片。

          英偉達(dá)表示每個 Blackwell Die 的浮點運算能力要比 Hopper Die 高出 25%,而且每個封裝中有兩個 Blackwell 芯片,總性能提高了 2.5 倍。如果處理 FP4 八精度浮點運算,性能還能提高到 5 倍。取決于各種 Blackwell 設(shè)備的內(nèi)存容量和帶寬配置,工作負(fù)載的實際性能可能會更高。

          英偉達(dá)使用 10 TB / sec NVLink 5.0 連接每塊 Die,官方稱該鏈路為 NV-HBI。Blackwell complex 的 NVLink 5.0 端口可提供 1.8 TB / 秒的帶寬,是 Hopper GPU 上 NVLink 4.0 端口速度的兩倍。

          GB200

          英偉達(dá)表示 GB200 包含了兩個 B200 Blackwell GPU 和一個基于 Arm 的 Grace CPU 組成,推理大語言模型性能比 H100 提升 30 倍,成本和能耗降至 25 分之一。

          NVIDIA Grace Blackwell 生產(chǎn)板

          NVIDIA Grace Blackwell 開發(fā)板

          IT之家援引英偉達(dá)官方報告,訓(xùn)練一個 1.8 萬億個參數(shù)的模型以前需要 8000 個 Hopper GPU 和 15 兆瓦的電力。如今,Nvidia 首席執(zhí)行官表示,2000 個 Blackwell GPU 就能完成這項工作,耗電量僅為 4 兆瓦。

          在參數(shù)為 1,750 億的 GPT-3 LLM 基準(zhǔn)測試中,Nvidia 稱 GB200 的性能是 H100 的 7 倍,而訓(xùn)練速度是 H100 的 4 倍。

          英偉達(dá)還面向有大型需求的企業(yè)提供成品服務(wù),提供完整的服務(wù)器出貨,例如 GB200 NVL72 服務(wù)器,提供了 36 個 CPU 和 72 個 Blackwell GPU,并完善提供一體水冷散熱方案,可實現(xiàn)總計 720 petaflops 的 AI 訓(xùn)練性能或 1,440 petaflops(又稱 1.4 exaflops)的推理性能。它內(nèi)部使用電纜長度累計接近 2 英里,共有 5000 條獨立電纜。

          機(jī)架上的每個托盤包含兩個 GB200 芯片或兩個 NVLink 交換機(jī),每個機(jī)架有 18 個 GB200 芯片和 9 個 NVLink 交換機(jī),英偉達(dá)稱,一個機(jī)架總共可支持 27 萬億個參數(shù)模型。而作為對比,GPT-4 的參數(shù)模型約為 1.7 萬億。

          該公司表示,亞馬遜、谷歌、微軟和甲骨文都已計劃在其云服務(wù)產(chǎn)品中提供 NVL72 機(jī)架,但不清楚它們將購買多少。

          英偉達(dá)表示亞馬遜 AWS 已計劃采購由 2 萬片 GB200 芯片組建的服務(wù)器集群,可以部署 27 萬億個參數(shù)的模型。

          Nvidia 也樂于為公司提供其他解決方案。下面是用于 DGX GB200 的 DGX Superpod,它將八個系統(tǒng)合而為一,總共擁有 288 個 CPU、576 個 GPU、240TB 內(nèi)存和 11.5 exaflops 的 FP4 計算能力。

          英偉達(dá)稱,其系統(tǒng)可擴(kuò)展至數(shù)萬 GB200 超級芯片,并通過其新型 Quantum-X800 InfiniBand(最多 144 個連接)或 Spectrum-X800 以太網(wǎng)(最多 64 個連接)與 800Gbps 網(wǎng)絡(luò)連接在一起。

          英偉達(dá)目前并未公布 GB200 以及整套方案的售價信息。




          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();