800 億個(gè)晶體管!英偉達(dá)發(fā)布首款基于 Hopper 架構(gòu)的 GPU — NVIDIA H100
在3月23日舉行的GTC 大會(huì)上,英偉達(dá)正式宣布推出采用 NVIDIA Hopper 架構(gòu)的新一代加速計(jì)算平臺(tái),同時(shí)發(fā)布其首款基于 Hopper 架構(gòu)的 GPU — NVIDIA H100。
本文引用地址:http://www.ex-cimer.com/article/202203/432285.htm根據(jù)英偉達(dá)介紹,H100 NVIDIA GPU帶來(lái)了六項(xiàng)突破性創(chuàng)新:
第一,世界最先進(jìn)的芯片。英偉達(dá)表示,H100 由 800 億個(gè)晶體管構(gòu)建而成,這些晶體管采用了專(zhuān)為 NVIDIA 加速計(jì)算需求設(shè)計(jì)的尖端的 TSMC 4N 工藝。同時(shí),H100 是首款支持 PCIe 5.0 的 GPU,也是首款采用 HBM3 的 GPU,可實(shí)現(xiàn) 3TB/s 的顯存帶寬。
第二,搭載新的 Transformer 引擎。H100 加速器的 Transformer 引擎旨在不影響精度的情況下,將這些網(wǎng)絡(luò)的速度提升至上一代的六倍。
第三,第二代安全多實(shí)例 GPU 。與上一代產(chǎn)品相比,在云環(huán)境中 Hopper 架構(gòu)通過(guò)為每個(gè) GPU 實(shí)例提供安全的多租戶配置,將 MIG 的部分能力擴(kuò)展了 7 倍。
第四,機(jī)密計(jì)算。H100 是全球首款具有機(jī)密計(jì)算功能的加速器,可保護(hù) AI 模型和正在處理的客戶數(shù)據(jù)??蛻暨€可以將機(jī)密計(jì)算應(yīng)用于醫(yī)療健康和金融服務(wù)等隱私敏感型行業(yè)的聯(lián)邦學(xué)習(xí),也可以應(yīng)用于共享云基礎(chǔ)設(shè)施。
第五,第 4 代 NVIDIA NVLink。為加速大型 AI 模型,NVLink 結(jié)合全新的外接 NVLink Switch,可將 NVLink 擴(kuò)展為服務(wù)器間的互聯(lián)網(wǎng)絡(luò),最多可以連接多達(dá) 256 個(gè) H100 GPU,相較于上一代采用 NVIDIA HDR Quantum InfiniBand網(wǎng)絡(luò),帶寬高出9倍。
第六,DPX 指令。新的 DPX 指令可加速動(dòng)態(tài)規(guī)劃,適用于包括路徑優(yōu)化和基因組學(xué)在內(nèi)的一系列算法,與 CPU 和上一代 GPU 相比,其速度提升分別可達(dá) 40 倍和 7 倍。
據(jù)了解,NVIDIA H100可部署于各種數(shù)據(jù)中心,包括內(nèi)部私有云、云、混合云和邊緣數(shù)據(jù)中心。這款產(chǎn)品預(yù)計(jì)于今年晚些時(shí)候全面發(fā)售,屆時(shí)企業(yè)可從全球各大云服務(wù)提供商和計(jì)算機(jī)制造商處購(gòu)買(mǎi),或者直接從NVIDIA官方渠道購(gòu)買(mǎi)。NVIDIA 的第四代 DGX 系統(tǒng) DGX H100 配備 8 塊 H100 GPU,以全新的 FP8 精度提供 32 Petaflop 的 AI 性能,并支持?jǐn)U展,能夠滿足大型語(yǔ)言模型、推薦系統(tǒng)、醫(yī)療健康研究和氣候科學(xué)的海量計(jì)算需求。
英偉達(dá)創(chuàng)始人兼 CEO 黃仁勛表示:“數(shù)據(jù)中心正在轉(zhuǎn)變成‘AI 工廠’。它們處理大量數(shù)據(jù),以實(shí)現(xiàn)智能。NVIDIA H100 是全球 AI 基礎(chǔ)設(shè)施的引擎,讓企業(yè)能夠利用其實(shí)現(xiàn)自身 AI 業(yè)務(wù)的加速?!?/p>
評(píng)論