<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 網絡與存儲 > 新品快遞 > Supermicro推支持NVIDIA Blackwell和? HGX H100/H200的機柜級即插即用液冷AI SuperCluster

          Supermicro推支持NVIDIA Blackwell和? HGX H100/H200的機柜級即插即用液冷AI SuperCluster

          —— 為AI時代的重大創(chuàng)新,并提供免費液冷與額外價值
          作者: 時間:2024-06-07 來源: 收藏

          , Inc.NASDAQSMCIAI、云端、儲存和 5G/邊緣領域的全方位IT解決方案制造商,推出可立即部署式液冷型AI數據中心。此數據中心專為云端原生解決方案而設計,透過加速各界企業(yè)對生成式AI的運用,并針對 AI Enterprise軟件平臺優(yōu)化,適用于生成式AI的開發(fā)與部署。透過4U液冷技術,近期推出的 GPU在單一GPU上充分發(fā)揮20 PetaFLOPSAI效能,且與較早的GPU相比,能提供4倍的AI訓練效能與30倍的推論效能,并節(jié)省額外成本。配合此率先上市的策略,近期推出基于 架構的完善產品系列,支持新型NVIDIA TM B100、B200GB200 Grace Superchip

          本文引用地址:http://www.ex-cimer.com/article/202406/459681.htm

          Supermicro總裁暨執(zhí)行長梁見后表示:「Supermicro 在打造與部署具有機柜級液冷技術的AI解決方案方面持續(xù)領先業(yè)界。數據中心的液冷配置設計可幾近免費,并透過能持續(xù)降低用電量的優(yōu)勢為客戶提供額外價值。我們的解決方案針對NVIDIA AI Enterprise軟件優(yōu)化,滿足各行各業(yè)的客戶需求,并提供世界規(guī)模級效率的全球制造產能。因此我們得以縮短交付時間,更快提供搭配NVIDIA H100H200,以及即將推出的B100、B200GB200解決方案的可立即使用型液冷或氣冷運算叢集。從液冷板到CDU乃至冷卻塔,我們的機柜級全方位液冷解決方案最大可以降低數據中心40%的持續(xù)用電量。」

          生成式AI 與NVIDIA AI Enterprise、NIM微服務整合,并透過大規(guī)??蓴U展的運算單元,提供立即性投資報酬率效益和更低的AI運行成本,進而簡化AI以利快速部署

          在臺北國際計算機展(COMPUTEX 2024)上,Supermicro展示了即將推出,并針對NVIDIA Blackwell GPU優(yōu)化的系統(tǒng),包括基于NVIDIA B20010U氣冷系統(tǒng)和4U液冷系統(tǒng)。此外,Supermicro也將提供8U氣冷型NVIDIA HGX B100系統(tǒng)、NVIDIA GB200 NVL72機柜(具有72個透過NVIDIA NVLink 交換器互連的GPU)與新型 NVIDIA MGX?系統(tǒng)(支持NVIDIA H200 NVL PCIe GPU與最新發(fā)表的NVIDIA GB200 NVL2架構)。

          NVIDIA創(chuàng)辦人暨執(zhí)行長黃仁勛表示:「生成式AI正在推動整個運算堆棧的重置,新的數據中心將會透過GPU進行運算加速,并針對AI優(yōu)化。Supermicro設計了頂尖的NVIDIA加速運算和網絡解決方案,使價值數兆美元的全球數據中心能夠針對AI時代優(yōu)化?!?/span>

          隨著大型語言模型(Large Language ModelLLM)的快速發(fā)展以及MetaLlama-3MistralMixtral 8x22B等開源模型不斷推出,企業(yè)更容易取得并使用當今最先進的AI模型。簡化AI基礎設施并以最具成本效益的方式提供存取能力,對于支持目前的急速AI變革至關重要。Supermicro云端原生AI 使實時存取的云端便利性和可移植性之間得以連結,并透過NVIDIA AI Enterprise讓任何規(guī)模的AI項目從評估測試階段無縫順暢地進行到實際作業(yè)階段。這提供了能在任何地方運行并安全管理數據的靈活性,包括自架系統(tǒng)或地端大型數據中心。

          隨著各界企業(yè)急速進行生成式AI的實驗性使用,SupermicroNVIDIA密切合作,確保無縫且靈活地從AI應用的實驗和評估試行推動至作業(yè)部署和大規(guī)模數據中心AI。此順暢流程是藉由NVIDIA AI Enterprise軟件平臺的機柜、叢集級優(yōu)化而實現(xiàn),能使從初步探索至可擴展AI落地的過程更流暢無阻。

          托管服務涉及基礎架構的選擇、數據共享和生成式AI策略控管。NVIDIA NIM微服務作為 NVIDIA AI Enterprise的一部分,可在無缺陷情況下提供托管生成式AI和開源部署優(yōu)勢。其多功能推論運行環(huán)境透過微服務,可加速從開源模型到NVIDIA基礎模型等各類型生成式AI的部署。此外,NVIDIA NeMoTM可實現(xiàn)透過數據庋用、進階自定義和檢索增強生成(Retrieval-Augmented Generation,RAG)的客制模型開發(fā),以實現(xiàn)企業(yè)級解決方案。與搭配NVIDIA AI EnterpriseSupermicro SuperCluster整合后,NVIDIA NIM能為可擴展、加速型生成式AI作業(yè)的部署提供最快途徑。

          Supermicro目前的生成式AI SuperCluster產品包括:

                 液冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256H100/H200 GPU,為5個機柜規(guī)模的可擴展運算單元(包括 1 個專用網絡機柜)

                 氣冷型Supermicro NVIDIA HGX H100/H200 SuperCluster,具有256HGX H100/H200 GPU,為9個機柜規(guī)模的可擴展運算單元(包括1個專用網絡機柜)

                 Supermicro NVIDIA MGX GH200 SuperCluster,具有256GH200 GraceTM Hopper Superchip,為9個機柜規(guī)模的可擴展運算單元(包括1個專用網絡機柜)

          SupermicroSuperCluster支持NVIDIA AI Enterprise,其中包括NVIDIA NIM微服務和NVIDIA NeMo平臺,能實現(xiàn)端對端生成式AI客制,并針對NVIDIA Quantum-2 InfiniBand以及具有每GPU 400Gb/s網速的新型NVIDIA Spectrum-X以太網絡平臺優(yōu)化,可擴展到具有數萬個GPU的大型運算叢集。

          Supermicro即將推出的SuperCluster包括:

          ●       Supermicro NVIDIA HGX B200 SuperCluster,液冷型

          ●       Supermicro NVIDIA HGX B100/B200 SuperCluster,氣冷型

          ●       Supermicro NVIDIA GB200 NVL72 或 NVL36 SuperCluster,液冷型

          SupermicroSuperCluster解決方案針對LLM訓練、深度學習以及大規(guī)模與大批量推論優(yōu)化。SupermicroL11L12驗證測試及現(xiàn)場部署服務可為客戶提供無縫順暢體驗??蛻羰盏郊床寮从玫目蓴U充單元后即可在數據中心輕松部署,進而更快取得效益。

          圖片.png




          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();