<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > NVIDIA的GPU有多牛掰,全球最厲害的超算都被它承包了?

          NVIDIA的GPU有多牛掰,全球最厲害的超算都被它承包了?

          作者: 時間:2017-06-26 來源:EEFOCUS 收藏

            為向百萬兆級計算目標不斷邁進, 今日宣布,? Tesla? AI 超級計算機平臺將為最新一期的全球最節(jié)能高性能計算 (HPC) 系統(tǒng) Green500 榜單中排名前 13 的系統(tǒng)提供動力支持。所有這 13 臺計算機均使用 Tesla P100 數(shù)據(jù)中心 加速器,其中便包括基于 NVIDIA DGX-1? AI 超級計算機的四個系統(tǒng)。

          本文引用地址:http://www.ex-cimer.com/article/201706/360954.htm
          NVIDIA的 GPU有多牛掰,全球最厲害的超算都被它承包了?

            NVIDIA 今日還公布一些性能數(shù)據(jù),這些數(shù)據(jù)表明,相比兩年前發(fā)布的 Kepler 架構,NVIDIA Tesla 已將 HPC 應用程序的性能提升 3 倍之多。這大大超越摩爾定律對于性能提升的預測,甚至在其近些年開始減速之前便已如此。

            此外,NVIDIA 還宣布其 Tesla V100 加速器(已將 AI 和傳統(tǒng)的 HPC 應用程序整合在同一個平臺上)計劃于今年年底上線后為美國能源部 (DOE) 的 Summit 超級計算機提供 200 千萬次的 64 位浮點運算能力,以及超過 3 百億億次級的 AI 性能。

            NVIDIA GPU 將為入圍 Green500 榜單的全球最環(huán)保的超級計算機提供動力支持

            Green500榜單已于6月19日在法蘭克福舉辦的國際超級計算機大會上公布,由東京工業(yè)大學裝配并由 NVIDIA Tesla P100 GPU 驅(qū)動的新型 TSUBAME 3.0 系統(tǒng)摘得桂冠。TSUBAME 3.0 每瓦效能可達到 14.1 億次,這要比先前的頂級系統(tǒng)還要高出 50%,即 NVIDIA 自產(chǎn)的 SATURNV(在最新榜單上位列第十)。

            新榜單第 2 名至第 6 名的集群研發(fā)場所分別是雅虎日本、日本國立先進工業(yè)科技研究所、日本先進情報項目中心 (RIKEN)、劍橋大學以及最近加冕歐洲最快超級計算機 Piz Daint 系統(tǒng)的研究地 — 瑞士國家超級計算中心 (CSCS)。在榜單排名前 13 的系統(tǒng)中,由 NVIDIA 提供助力支持的其他關鍵系統(tǒng)包括 E4 計算機工程、牛津大學和東京大學。

            構筑在 NVIDIA DGX-1 AI 超級計算機上的系統(tǒng)將 NVIDIA Tesla GPU 加速器與全面優(yōu)化的 AI 軟件包相結合,其中包括 RIKEN 的 RAIDEN,牛津大學的 JADE、一家大型社交媒體和技術服務公司的混合集群以及 NVIDIA 自己的 SATURNV。

            NVIDIA 加速計算部門總經(jīng)理 Ian Buck 表示:“直面這項世界最艱巨挑戰(zhàn)的研究人員正在尋求一個強大、統(tǒng)一的計算架構,以充分利用 HPC 及 AI 的最新成就。我們的 AI 超級計算平臺可提供一個計算和數(shù)據(jù)科學架構,能夠賦予高精尖人才以多種能力去推進創(chuàng)新進程并解決其無法攻克的難題。”

            東京工業(yè)大學的 Satoshi Matsuoka 教授表示:“借助 TSUBAME 3.0 超級計算機,我們旨在為具有最佳節(jié)能效率的 HPC 和 AI 打造一個單一而又強大的平臺,使其成為日本國家級旗艦版超級計算機。最重要的是,我們運用數(shù)千萬億次級的高端生產(chǎn)機器達成這一目標。NVIDIA Tesla P100 GPU 使我們善于達成這些目標,因此我們便能夠提供革命性的 AI 超級計算平臺,用于推動本國的科研和教育事業(yè)。”

            Volta:努力實現(xiàn)百萬兆級的目標

            NVIDIA 透露在實現(xiàn) Summit 超級計算機百萬兆級性能方面的進展情況,并預期其速度、效率和 AI 計算能力將會大幅提升,并預定于今年年底向橡樹嶺領導計算設施(美國能源部駐橡樹嶺國家實驗室科學用戶設施辦公室)完成交付。

            Summit 搭載 Tesla V100 GPU 加速器,計劃提供 200 千萬億次的性能,而當前世界上最快速的系統(tǒng)為中國的 TaihuLight,也只能達到 93 千萬億次。此外,Summit 還有望具備強大的 AI 計算能力,實現(xiàn)超過 3百億億次級的半精度張量運算。

            橡樹嶺國家實驗室計算與計算科學董事會副主管Jeff Nichols表示:“AI 正在擴展 HPC,這二者會共同促進創(chuàng)新以幫助解決世界上一些最重大的挑戰(zhàn)。橡樹嶺的新興百萬兆級超級計算機 Summit 由 NVIDIA Volta GPU 提供助力,此款 GPU 擁有統(tǒng)一的架構,能夠在 AI 和 HPC 兩方面擁有出色的表現(xiàn)。我們相信 AI 超級計算將會幫助研究人員和科學工作者取得突破性成就。”

            各主要云服務上的 Volta

            V100 GPU 加速器的超強計算能力將于今年年底上線,由世界主要云服務供應商提供此項服務。一些企業(yè)已對 Volta 服務表現(xiàn)出極大的熱情并制定出支持計劃,其中包括 Amazon Web Services、百度、Google 云端平臺、Microsoft Azure 和騰訊。

            Volta:AI 超級計算的最終架構

            為擴展 Volta 的服務范圍,NVIDIA 還宣布其目前正在研發(fā)新型Tesla V100 GPU 加速器,此款加速器將以標準服務器的 PCIe 外形規(guī)格提供。隨著 PCIe 系統(tǒng)和先前公布的使用 NVIDIA NVLink? 互聯(lián)技術的系統(tǒng)的上市,Volta 承諾將徹底改革 HPC 并向各個超級計算機、企業(yè)和云服務提供開拓性的 AI 技術。

            PCIe 外形規(guī)格具體包括:

            ·借助 NVIDIA GPU BOOST? 技術實現(xiàn) 7 萬億次雙精度浮點運算能力、14 萬億次單精度浮點運算能力和 112 萬億次半精度浮點運算能力

            ·16GB 的 CoWoS HBM2 堆疊式顯存,提供 900GB/秒的顯存帶寬

            ·對 PCIe Gen 3 互聯(lián)的支持(雙向帶寬為 32GB/秒)

            ·功率為 250 瓦

            為基于 PCIe 的系統(tǒng)設計的 NVIDIA Tesla V100 GPU 加速器預計將于今年年底上市,由 NVIDIA 分銷商合作伙伴和制造商供應,其中包括 Hewlett Packard Enterprise (HPE)。

            Hewlett Packard Enterprise 的副總裁兼HPC 和 AI業(yè)務總經(jīng)理 Bill Mannel 表示:“HPE 很高興能夠借助 NVIDIA Tesla V100 技術架構獨步業(yè)界的領先優(yōu)勢來補足我們專門打造的 HPE Apollo 系統(tǒng)的深度學習和 AI 創(chuàng)新能力,以此提升客戶的洞察力和理解力。”“HPE 將從三個方面為 PCIe 與 VIDIA Volta 互聯(lián)提供支持。”



          關鍵詞: NVIDIA GPU

          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();