淺談存儲器體系結(jié)構(gòu)的未來發(fā)展趨勢
對存儲器帶寬的追求成為系統(tǒng)設(shè)計(jì)最突出的主題。SoC設(shè)計(jì)人員無論是使用ASIC還是FPGA技術(shù),其思考的核心都是必須規(guī)劃、設(shè)計(jì)并實(shí)現(xiàn)存儲器。系統(tǒng)設(shè)計(jì)人員必須清楚的理解存儲器數(shù)據(jù)流模式,以及芯片設(shè)計(jì)人員建立的端口。即使是存儲器供應(yīng)商也面臨DDR的退出,要理解系統(tǒng)行為,以便找到持續(xù)發(fā)展的新方法。
本文引用地址:http://www.ex-cimer.com/article/201710/367190.htm曾經(jīng)在斯坦福大學(xué)舉辦的熱點(diǎn)芯片大會上,尋求帶寬成為論文討論的主題,設(shè)計(jì)人員介紹了很多方法來解決所面臨的挑戰(zhàn)。從這些文章中,以及從現(xiàn)場工作的設(shè)計(jì)人員的經(jīng)驗(yàn)中,可以大概看出存儲器系統(tǒng)體系結(jié)構(gòu)今后會怎樣發(fā)展。
存儲器壁壘
基本問題很明顯:現(xiàn)代SoC時鐘頻率高達(dá)吉赫茲,并且具有多個內(nèi)核,與單通道DDR DRAM相比,每秒會發(fā)出更多的存儲器申請。僅僅如此的話,會有很顯然的方案來解決這一問題。但是,這背后還有重要的精細(xì)結(jié)構(gòu),使得這一問題非常復(fù)雜,導(dǎo)致有各種各樣的解決辦法。
SoC開發(fā)人員關(guān)注的重點(diǎn)從高速時鐘轉(zhuǎn)向多個內(nèi)核 , 這從根本上改變了存儲器問題。不再是要求一個 CPU每秒有更高的兆字節(jié)(MBps) ,現(xiàn)在,我們面臨很多不同的處理器——經(jīng)常是很多不同類型的處理器,都要求同時進(jìn)行訪問。而且,存儲器訪問的主要模式發(fā)生了變化。科學(xué)和商業(yè)數(shù)據(jù)處理任務(wù)通常涉及到大量的局部訪問,或者更糟糕的是采用相對緊湊的算法很慢的傳送大量的數(shù)據(jù)。配置適度規(guī)模的本地SRAM或者高速緩存,這類任務(wù)的一個CPU對主存儲器的需求并不高。
DRAM芯片設(shè)計(jì)人員利用了這種易用性,以便實(shí)現(xiàn)更高的密度和能效。相應(yīng)的,以可預(yù)測的順序申請大塊數(shù)據(jù)時,DRAM實(shí)現(xiàn)了最佳比特率——它允許塊間插。如果SoC不采用這種常用模式,存儲器系統(tǒng)的有效帶寬會降低一個數(shù)量級。
新的訪問模式
不好的是,SoC的發(fā)展使得DRAM設(shè)計(jì)人員的假設(shè)難以實(shí)現(xiàn)。多線程以及軟件設(shè)計(jì)新出現(xiàn)的趨勢改變了每一內(nèi)核訪問存儲器的方式。多核處理以及越來越重要的硬件加速意味著很多硬件要競爭使用主存儲器。這些趨勢使得簡單的局部訪問變得復(fù)雜,DRAM帶寬與此有關(guān)。
多線程意味著,當(dāng)一個存儲器申請錯過其高速緩存時,CPU不會等待:它開始執(zhí)行不同的線程,其指令和數(shù)據(jù)區(qū)會在與前面線程完全不同的物理存儲區(qū)中。仔細(xì)的多路高速緩存設(shè)計(jì)有助于解決這一問題,但是最終,連續(xù)DRAM申請仍然很有可能去訪問不相關(guān)的存儲區(qū),即使每一線程都仔細(xì)的優(yōu)化了其存儲器組織。相似的,競爭同一DRAM通道的多個內(nèi)核也會擾亂DRAM訪問順序。
軟件中的變化也會產(chǎn)生影響。表查找和鏈接表處理會對大數(shù)據(jù)結(jié)構(gòu)產(chǎn)生隨機(jī)分散存儲器訪問。數(shù)據(jù)包處理和大數(shù)據(jù)算法將這些任務(wù)從控制代碼轉(zhuǎn)移到大批量數(shù)據(jù)處理流程,系統(tǒng)設(shè)計(jì)人員不得不專門考慮怎樣高效的處理它們。虛擬化把很多虛擬機(jī)放到同一物理內(nèi)核中,使得存儲器數(shù)據(jù)流更加復(fù)雜。
傳統(tǒng)的解決方案
這些問題并不是什么新問題——只是變復(fù)雜了。因此,芯片和系統(tǒng)設(shè)計(jì)人員有很多成熟的方法來滿足越來越高的基帶帶寬需求,提高DRAM的訪問效率。這些方法包括軟件優(yōu)化、高速緩存以及部署DRAM多個通道等。
大部分嵌入式系統(tǒng)設(shè)計(jì)人員習(xí)慣于首先會想到軟件優(yōu)化。在單線程系統(tǒng)中,軟件在很大程度上過度使用了存儲器通道,能耗較高。但是在多線程、多核系統(tǒng)中,軟件開發(fā)人員對DRAM控制器上的實(shí)際事件順序的影響很小。一些經(jīng)驗(yàn)表明,他們很難改變實(shí)際運(yùn)行時數(shù)據(jù)流模式。DRAM控制器可以使用重新排序和公平算法,編程人員對此并不清楚。
高速緩存的效率會更高——如果高速緩存足夠大 ,能夠顯著減少DRAM數(shù)據(jù)流。例如,在嵌入式多核實(shí)現(xiàn)中,相對較小的L1指令高速緩存與規(guī)模適度的L2一同工作,能夠完全容納所有線程的熱點(diǎn)代碼,有效的減少了對主存儲器的指令獲取數(shù)據(jù)流。相似的,在信號處理應(yīng)用中,把相對較少的數(shù)據(jù)適配到L2或者本地SRAM中,可以去掉濾波器內(nèi)核負(fù)載。要產(chǎn)生較大的影響,高速緩存不一定要實(shí)際減少DRAM申請總數(shù)量——只需要保護(hù)主要申請?jiān)床槐黄渌蝿?wù)中斷,因此,編程人員能夠優(yōu)化主要任務(wù)。
當(dāng)芯片設(shè)計(jì)人員無法確定將要運(yùn)行在SoC中的各種任務(wù)時,則傾向于只要成本允許,提供盡可能多的高速緩存:所有CPU內(nèi)核和加速器的L1高速緩存、大規(guī)模共享L2,以及越來越大的管芯L3。在熱點(diǎn)芯片大會上,從平板電腦級應(yīng)用處理器到大量的服務(wù)器SoC,有很多高速緩存的實(shí)例。
在低端,AMD的Kabini SoC (圖1) 就是很有趣的研究。AMD資深研究員Dan Bouvier介紹了這一芯片,它包括四個Jaguar CPU內(nèi)核,共享了2兆字節(jié)(MB) L2高速緩存,而每個Jaguars有32千字節(jié)(KB)指令和數(shù)據(jù)高速緩存——并不是非傳統(tǒng)的協(xié)議。更驚奇的是芯片的圖形處理器,除了常用的顏色高速緩存以及用于渲染引擎的Z緩沖,還有它自己的L1指令高速緩存和128 KB L2。
圖1.AMD的Kabini SoC目標(biāo)應(yīng)用是平板電腦,但是仍然采用了大規(guī)模高速緩存,顯著提高了存儲器帶寬。
而在高端則是IBM的POWER8微處理器(圖2),IBM首席網(wǎng)絡(luò)設(shè)計(jì)師Jeff Stuecheli介紹了這一款芯片。這一650 mm2、22 nm芯片包括12個POWER體系結(jié)構(gòu)CPU內(nèi)核,每個都有32 KB指令和64 KB數(shù)據(jù)高速緩存。每個內(nèi)核還有自己512 KB的SRAM L2高速緩存,12 L2共享大容量96 MB的嵌入式DRAM L3。Stuecheli介紹說,三級連續(xù)高速緩存支持每秒230吉字節(jié)(GBps)的存儲器總帶寬。有趣的是,芯片還含有一個小容量會話存儲器。
圖2.IBM的POWER8體系結(jié)構(gòu)在SoC管芯上實(shí)現(xiàn)了三級高速緩存。
在這兩個SoC之間是為微軟的XBOX One提供的多管芯模塊(圖3),微軟的John Snell在大會上對此進(jìn)行了介紹。模塊含有一個SoC管芯,提供了豐富的存儲器資源。SoC有8個AMD Jaguar內(nèi)核,分成兩組,每組4個。每一內(nèi)核有32 KB的L1指令和數(shù)據(jù)高速緩存。每4個一組的CPU內(nèi)核共享一個2 MB L2。此外,管芯上還有4個8 MB共享SRAM,它們至少為CPU提供了109 GBps的帶寬。
圖3.微軟的XBOX One結(jié)合了大容量高速緩存、本地SRAM以及模塊內(nèi)DRAM,以低成本實(shí)現(xiàn)了更大的帶寬。
使用DRAM
而XBOX One SoC還揭示了更多的信息。無論您有多大的管芯高速緩存,都無法替代巨大的DRAM帶寬。SoC管芯包括四通道DDR3 DRAM控制器,為模塊中的8 GB DRAM提供了68 GBps峰值帶寬。
DRAM多通道的概念并不限于游戲系統(tǒng)。幾年前,數(shù)據(jù)包處理SoC就開始提供多個完全獨(dú)立的DRAM控制器。但是這種策略帶來了挑戰(zhàn)。存儲器優(yōu)化會更加復(fù)雜,系統(tǒng)設(shè)計(jì)人員必須決定哪種數(shù)據(jù)結(jié)構(gòu)映射哪一通道或者控制器。當(dāng)然,還有可能要求自己的DRAM控制器完成某些高要求任務(wù),在一些嵌入式應(yīng)用中,這些控制器是非常寶貴的。而DRAM多通道會很快用完引腳,用盡I/O功耗預(yù)算。
即使在FPGA設(shè)計(jì)中,引腳數(shù)量也是一個問題,設(shè)計(jì)人員應(yīng)能夠非常靈活的重新組織邏輯,選擇較大的封裝。Altera的高級系統(tǒng)開發(fā)套件(圖4)電路板主要用于原型開發(fā),實(shí)現(xiàn)寬帶設(shè)計(jì),應(yīng)用領(lǐng)域包括HD視頻處理、7層數(shù)據(jù)包檢查,或者科學(xué)計(jì)算等,這是非常有用的套件。
圖4.Altera的高級系統(tǒng)開發(fā)套件極大的滿足了兩片大規(guī)模FPGA的存儲器需求。
Mark Hoopes是Altera廣播應(yīng)用專家,解釋了電路板應(yīng)提供很大的存儲器帶寬,不需要詳細(xì)的知道用戶在兩片大規(guī)模FPGA中實(shí)現(xiàn)的某些設(shè)計(jì)。因此,設(shè)計(jì)電路板時,Hoopes檢查了現(xiàn)有Altera視頻知識產(chǎn)權(quán)(IP)的存儲器使用模式,調(diào)研了外部設(shè)計(jì)團(tuán)隊(duì)的需求。
結(jié)果讓人清醒。Hoopes說:“當(dāng)您查看每一項(xiàng)功能時,看起來都需要存儲器。但是,當(dāng)您把功能結(jié)合起來后,其需求非常大。在一個例子中,應(yīng)用程序開發(fā)人員要求為每一片F(xiàn)PGA提供全256位寬DDR3接口以及四通道QDR II SRAM。即使是1932引腳封裝,這也無法實(shí)現(xiàn)。因此,設(shè)計(jì)人員最終采用了四個SRAM塊以及一個192位DDR3接口。
Hoopes指出了多個存儲器控制器對于SoC非常重要。他說,IP開發(fā)人員通常能夠熟練的在子系統(tǒng)級優(yōu)化存儲器,甚至能夠提供他們自己經(jīng)過優(yōu)化的DRAM控制器。還可以讓一個DRAM通道專門用于子系統(tǒng),讓其他IP模塊運(yùn)行子系統(tǒng)設(shè)計(jì)人員的優(yōu)化措施。
未來發(fā)展
在開發(fā)板上還有另一個有趣的模塊:每片F(xiàn)PGA連接了一個MoSys帶寬引擎。這一芯片含有72 MB的DRAM,組織成256塊來仿真SRAM時序,調(diào)整用于表存儲等局部訪問應(yīng)用。非常獨(dú)特的是,芯片使用了一個高速串行接口,而不是常用的DDR或者QDR并行接口。Hoopes強(qiáng)調(diào)說:“接口是我們包含這些組成的一個原因。我們在FPGA中有未使用的收發(fā)器。”實(shí)際是,MoSys先使用了它們。
三種理念——我們都已經(jīng)分別了解了,能夠融合來定義今后的存儲器體系結(jié)構(gòu)。這些理念是大規(guī)模嵌入式存儲器陣列、使用了容錯協(xié)議的高速串行接口,以及會話存儲器。
MoSys芯片和IBM POWER8體系結(jié)構(gòu)很好的體現(xiàn)了前兩種理念。CPU SoC通過第二個芯片與DRAM通信:Centaur存儲器緩沖。一個POWER8能夠連接8個Centaurs,每個都通過一個專用每秒9.6吉比特(Gbps)的串行通道進(jìn)行連接。每個Centaur含有16 MB存儲器——用于高速緩存和調(diào)度緩沖,以及四個DDR4 DRAM接口,還有一個非常智能的控制器。IBM將Centaur芯片放在DRAM DIMM上,避免了在系統(tǒng)中跨過8個DDR4連接器。這樣,設(shè)計(jì)集中了大量的存儲器,最終明智的采用了快速串行鏈接,由重試協(xié)議進(jìn)行保護(hù)。
另一熱點(diǎn)芯片實(shí)例來自MoSys,在大會上,他們介紹了其下一代Bandwidth Engine 2。根據(jù)所采用的模式,Bandwidth Engine 2通過16個15 Gbps的串行I/O通路連接處理子系統(tǒng)。芯片含有四個存儲器分區(qū),每個包括64塊32K 72位字:在第一代,總共72 MB。很多塊通過智能的重新排序控制器以及大容量片內(nèi)SRAM高速緩存,隱藏了每一比特單元的動態(tài)特性。
除了Centaur芯片所宣布的特性,Bandwidth Engine 2還在管芯上提供了會話功能。各種版本的芯片提供板上算術(shù)邏輯單元,因此,統(tǒng)計(jì)采集、計(jì)量,以及原子算法和索引操作等都可以在存儲器中進(jìn)行,不需要將數(shù)據(jù)實(shí)際移出到外部串行鏈路上。內(nèi)部算術(shù)邏輯單元(ALU)很顯然可以用于旗語和鏈接表應(yīng)用。而其他的硬件使得芯片有些專用的特性。MoSys技術(shù)副總裁Michael Miller介紹了四種不同版本的Bandwidth Engine 2,它們具有不同的特性。
今后的篇章可能不是由CPU設(shè)計(jì)師撰寫的,而是取決于低成本商用DRAM供應(yīng)商。Micron技術(shù)公司具體實(shí)現(xiàn)了混合立方存儲器(HMC)規(guī)范,開發(fā)原型,宣布了他們的接口合作伙伴。 HMC是一組DRAM塊,堆疊成邏輯管芯,通過一組高速串行通路連接系統(tǒng)的其他部分。 Micron并沒有公開討論邏輯管芯的功能,據(jù)推測,可能含有DRAM控制和緩沖,以仿真SRAM功能,還有可能包括專用會話功能。
邏輯嵌入在存儲器子系統(tǒng)中這一理念包括了很有趣的含義。能夠訪問大量的邏輯柵極和高速緩存的本地DRAM控制器實(shí)際上可以虛擬化去除劣化存儲器帶寬的所有DRAM芯片特性。IBM還在熱點(diǎn)芯片大會上介紹了zEC12大型機(jī)體系結(jié)構(gòu),它在硬盤驅(qū)動直至它所控制的DRAM DIMM上應(yīng)用了RAID 5協(xié)議,實(shí)際上將DRAM塊用作多塊、并行冗余存儲器系統(tǒng)。相同的原理也可以用于將大塊NAND閃存集成到存儲器系統(tǒng)中,提供了RAID管理分層存儲,可以用作虛擬大容量SRAM。
毫無疑問對SoC的需求越來越大。因此,串行鏈路和本地存儲器,特別是本地智能化會完全改變我們怎樣思考存儲器體系結(jié)構(gòu)。
評論