Habana Gaudi2性能穩(wěn)超英偉達A100,助力實現(xiàn)高效AI訓練
近日,英特爾宣布Habana? Gaudi?2深度學習處理器在MLPerf行業(yè)測試中表現(xiàn)優(yōu)于英偉達A100提交的AI訓練時間,結(jié)果突顯了5月在英特爾On產(chǎn)業(yè)創(chuàng)新峰會上發(fā)布的Gaudi2處理器在視覺(ResNet-50)和語言(BERT)模型上訓練時間的優(yōu)勢。
本文引用地址:http://www.ex-cimer.com/article/202207/435893.htm英特爾公司執(zhí)行副總裁兼數(shù)據(jù)中心與人工智能事業(yè)部總經(jīng)理 Sandra Rivera表示:“非常高興能與大家分享Gaudi 2在MLPerf基準測試中的出色表現(xiàn),我也為英特爾團隊在產(chǎn)品發(fā)布僅一個月取得的成就感到自豪。我們相信,在視覺和語言模型中提供領先的性能能夠為客戶帶來價值,有助于加速其AI深度學習解決方案。”
借助Habana Labs的Gaudi平臺,英特爾數(shù)據(jù)中心團隊能夠?qū)W⒂谏疃葘W習處理器技術(shù),讓數(shù)據(jù)科學家和機器學習工程師得以高效地進行模型訓練,并通過簡單的代碼實現(xiàn)新模型構(gòu)建或現(xiàn)有模型遷移,提高工作效率的同時降低運營成本。
Habana Gaudi2處理器在縮短訓練時間(TTT)方面相較第一代Gaudi有了顯著提升。Habana Labs于2022年5月提交的Gaudi2處理器在視覺和語言模型訓練時間上已超越英偉達A100-80G的MLPerf測試結(jié)果。其中,針對視覺模型ResNet-50,Gaudi2處理器的TTT結(jié)果相較英偉達A100-80GB縮短了36%,相較戴爾提交的同樣針對ResNet-50和BERT模型、采用8個加速器的A100-40GB服務器,Gaudi2的TTT測試結(jié)果則縮短了45%。
MLCommons發(fā)布的數(shù)據(jù),2022年6月。https://mlcommons.org/en/training-normal-20/
相比于第一代Gaudi處理器,Gaudi2在ResNet-50模型的訓練吞吐量提高了3倍,BERT模型的訓練吞吐量提高了4.7倍。這些歸因于制程工藝從16納米提升至7納米、Tensor處理器內(nèi)核數(shù)量增加了三倍、增加GEMM引擎算力、封裝的高帶寬存儲容量提升了三倍、SRAM帶寬提升以及容量增加一倍。對于視覺處理模型的訓練,Gaudi2處理器集成了媒體處理引擎,能夠獨立完成包括AI訓練所需的數(shù)據(jù)增強和壓縮圖像的預處理。
兩代Gaudi處理器的性能都是在沒有特殊軟件操作的情況下通過Habana客戶開箱即用的商業(yè)軟件棧實現(xiàn)的。
通過商用軟件所提供的開箱即用性能,在Habana 8個GPU服務器與HLS-Gaudi2參考服務器上進行測試比對。其中,訓練吞吐量來自于NGC和Habana公共庫的TensorFlow docker,采用雙方推薦的最佳性能參數(shù)在混合精度訓練模式下進行測量。值得注意的是,吞吐量是影響最終訓練時間收斂的關(guān)鍵因素。
圖形測試配置詳見說明部分。
圖形測試配置見說明部分。
除了Gaudi2在MLPerf測試中的卓越表現(xiàn),第一代Gaudi在128個加速器和256個加速器的ResNet基準測試中展現(xiàn)了強大的性能和令人印象深刻的近線性擴展,支持客戶高效系統(tǒng)擴展。
Habana Labs首席運營官Eitan Medina表示:“我們最新的MLPerf測試結(jié)果證明Gaudi2在訓練性能方面顯著優(yōu)勢。我們將持續(xù)深度學習訓練架構(gòu)和軟件創(chuàng)新,打造最具性價比的AI訓練解決方案。”
關(guān)于MLPerf基準測試:MLPerf社區(qū)旨在設計公平且極具實際價值的基準測試,以公平地測量機器學習解決方案的準確度、速度和效率。該社區(qū)由來自學術(shù)界、研究實驗室和業(yè)界的AI領導者創(chuàng)建,他們確立基準并制定了一套嚴格的規(guī)則,以確保所有參與者均能夠公平公正地進行性能比對?;谝惶酌鞔_的規(guī)則,以及能夠?qū)Χ说蕉巳蝿者M行公平比較,目前MLPerf是AI行業(yè)唯一可靠的基準測試。此外,MLPerf基準測試結(jié)果要經(jīng)過為期一個月的同行評審,這將進一步驗證報告結(jié)果。
說明:
ResNet-50性能對比中使用的測試配置
A100-80GB:Habana于2022年4月在Azure實例Standard_ND96amsr_A100_v4上進行測量,使用了一個A100-80GB,其中應用了NGC的TF docker 22.03-tf2-py3(optimizer=sgd, BS=256)
A100-40GB:Habana于2022年4月在DGX-A100上進行測量,使用了一個A100-40GB,其中應用了NGC的TF docker 22.03-tf2-py3(optimizer=sgd, BS=256)
V100-32GB?:Habana于2022年4月在p3dn.24xlarge上進行測量,使用了一個V100-32GB,其中應用了NGC的TF docker 22.03-tf2-py3(optimizer=sgd, BS=256)
Gaudi2:Habana于2022年5月在Gaudi2-HLS系統(tǒng)上進行測量,使用了一個Gaudi2,其中應用了SynapseAI TF docker 1.5.0(BS=256)
結(jié)果可能有所不同。
BERT性能對比中使用的測試配置
A100-80GB:Habana于2022年4月在Azure實例Standard_ND96amsr_A100_v4上進行測試,使用了一個A100-80GB,包含NGC的TF docker 22.03-tf2-py3(Phase-1:Seq len=128,BS=312,accu steps=256;Phase-2:seq len=512,BS=40,accu steps=768)
A100-40GB:Habana于2022年4月在DGX-A100上進行測試,使用了一個A100-40GB,包含NGC的TF docker 22.03-tf2-py3(Phase-1:Seq len=128,BS=64,accu steps=1024;Phase-2:seq len=512,BS=16,accu steps=2048)
V100-32GB:Habana于2022年4月在上p3dn.24xlarge進行測試,使用了一個V100-32GB,包含NGC的TF docker 21.12-tf2-py3(Phase-1:Seq len=128,BS=64,accu steps=1024;Phase-2:seq len=512,BS=8,accu steps=4096)
Gaudi2:Habana于2022年5月在上Gaudi2-HLS進行測試,使用了一個Gaudi2,包含SynapseAI TF docker 1.5.0(Phase-1:Seq len=128,BS=64,accu steps=1024;Phase-2:seq len=512,BS=16,accu steps=2048)
結(jié)果可能有所不同。
Habana Labs、Habana、Habana標識、Gaudi和SynapseAI是Habana Labs的商標。
評論