引領(lǐng)人工智能發(fā)展:英特爾的獨(dú)家方法論
內(nèi)容摘要
● 人工智能是增長(zhǎng)最快的計(jì)算工作負(fù)載,其復(fù)雜性也在不斷增長(zhǎng),對(duì)計(jì)算、功率和帶寬的要求也越來越高。
● 我們處于一個(gè)轉(zhuǎn)折點(diǎn):人工智能正在逐漸突破數(shù)據(jù)中心,隨著人工智能應(yīng)用時(shí)代的到來,人工智能的未來更在數(shù)據(jù)中心之外。
● 英特爾以獨(dú)家方法論推動(dòng)人工智能從云到端再到邊緣的發(fā)展。
● 英特爾的人工智能策略是通過降低用戶的進(jìn)入門檻加速人工智能普及。基于英特爾?至強(qiáng)?處理器和英特爾強(qiáng)大的產(chǎn)品組合及開放的軟件生態(tài)系統(tǒng),我們不僅能夠引領(lǐng)人工智能的發(fā)展,也可以深入影響更廣泛的行業(yè)趨勢(shì),讓每個(gè)人都可以更便捷地使用人工智能。
Sandra Rivera英特爾公司執(zhí)行副總裁兼數(shù)據(jù)中心與人工智能事業(yè)部總經(jīng)理
人工智能(AI)的核心是使機(jī)器識(shí)別模式并據(jù)此做出準(zhǔn)確預(yù)測(cè)的能力。而隨著AI模型持續(xù)變得更加精妙和復(fù)雜,對(duì)更多計(jì)算、內(nèi)存、帶寬和功率的需求也與日俱增。
AI是增長(zhǎng)最快的計(jì)算工作負(fù)載,也是英特爾認(rèn)為將對(duì)世界產(chǎn)生變革性影響的四大超級(jí)技術(shù)力量之一。盡管它誕生于數(shù)據(jù)中心,但我相信AI的未來在數(shù)據(jù)中心之外。AI在客戶端和邊緣的應(yīng)用時(shí)代已經(jīng)來臨,為了讓AI從云端擴(kuò)展到邊緣,社區(qū)需要一種更加開放和整體的解決方案來加速并簡(jiǎn)化整個(gè)數(shù)據(jù)建模和部署管道。我們的策略是復(fù)制公司歷史上為其他重大技術(shù)轉(zhuǎn)型所采取的措施:向更多客戶開放,加速AI的普及化并推動(dòng)更大規(guī)模的應(yīng)用。
在全球范圍內(nèi),英特爾是為數(shù)不多的能夠更好地引領(lǐng)世界進(jìn)入AI下一個(gè)時(shí)代的公司?;谖覀儚?qiáng)大的生態(tài)系統(tǒng)和開放式軟件,以及至關(guān)重要的CPU、GPU、ASIC等架構(gòu)能夠滿足無數(shù)AI使用場(chǎng)景的特定需求,這將使我們能夠引領(lǐng)市場(chǎng)發(fā)展并為無處不在的開放式AI打下堅(jiān)實(shí)基礎(chǔ)。
一系列具備AI特性的領(lǐng)先架構(gòu)
提及AI,許多人立刻會(huì)聯(lián)想到深度學(xué)習(xí)訓(xùn)練和顯卡性能。由于訓(xùn)練往往是大規(guī)模并行的,因此顯卡得到了很多關(guān)注,但這只是AI的一部分。大部分AI實(shí)踐中的解決方案會(huì)包含經(jīng)典機(jī)器學(xué)習(xí)算法和中低復(fù)雜度的深度學(xué)習(xí)模型的組合,而這些功能都已經(jīng)被集成在至強(qiáng)等現(xiàn)代CPU內(nèi)。
目前,AI數(shù)據(jù)流水線主要在至強(qiáng)處理器上運(yùn)行。通過內(nèi)置加速和優(yōu)化軟件,我們能夠讓至強(qiáng)處理器運(yùn)行得更快?;诖?,我們一方面通過Sapphire Rapids,將AI的總體性能比上一代產(chǎn)品提高最多30倍;同時(shí),我們還通過將更多AI工作負(fù)載引入至強(qiáng)處理器以減少對(duì)獨(dú)立加速器的需求,從而進(jìn)一步提高至強(qiáng)處理器的產(chǎn)品競(jìng)爭(zhēng)力。對(duì)于諸如至強(qiáng)等英特爾產(chǎn)品而言,AI功能和優(yōu)化并不是一個(gè)新概念。因此,我們計(jì)劃擴(kuò)展這種方法,將AI融入我們交付到數(shù)據(jù)中心、客戶端、邊緣、顯卡等諸多領(lǐng)域的每個(gè)產(chǎn)品中。
對(duì)于那些真正在GPU上表現(xiàn)最佳的深度學(xué)習(xí)訓(xùn)練,我們希望客戶能夠自由選擇最適合其AI工作負(fù)載的計(jì)算?,F(xiàn)階段的GPU是專有且封閉的,但我們有一款針對(duì)特定領(lǐng)域的Habana Gaudi AI處理器,和一款專為高性能計(jì)算打造的Ponte Vecchio顯卡,它們將基于開放的行業(yè)標(biāo)準(zhǔn)。我們對(duì)Gaudi目前取得的進(jìn)展感到十分高興,AWS在2021年第四季度宣布全面推出基于Habana Gaudi的DL1實(shí)例,其性價(jià)比較基于顯卡的現(xiàn)有實(shí)例高40%,并在早期Gaudi使用測(cè)試中表現(xiàn)優(yōu)異。
打造成熟的生態(tài)系統(tǒng)吸引更多客戶
特定的模型、算法和要求會(huì)因使用場(chǎng)景和行業(yè)而變化。例如,一家自動(dòng)駕駛汽車公司需要解決感知(使用物體檢測(cè)、定位和分類)、高清地圖和路線規(guī)劃等問題,并采取需要適應(yīng)動(dòng)態(tài)環(huán)境的行動(dòng)。此外,技術(shù)支持軟件的聊天機(jī)器人也需要了解特定公司和行業(yè)的技術(shù)術(shù)語,才能準(zhǔn)確地回答相關(guān)問題。同理,對(duì)AI軟硬件需求也因客戶、細(xì)分市場(chǎng)、工作負(fù)載和設(shè)計(jì)點(diǎn)而異。設(shè)備端、嵌入式和客戶端AI系統(tǒng)需要在功耗和散熱受限條件下實(shí)現(xiàn)低延遲推理。人們也越來越需要云中開發(fā)的AI具有邊緣感知能力,以便云中開發(fā)的解決方案可以部署在邊緣,反之亦然。
所有這些因素都在推動(dòng)從數(shù)據(jù)中心到網(wǎng)絡(luò)再到邊緣的全面創(chuàng)新,并影響諸如高帶寬和大容量?jī)?nèi)存、快速互連和智能軟件在內(nèi)的系統(tǒng)級(jí)硬件架構(gòu)。
端到端AI流水線中最大的增長(zhǎng)點(diǎn)在于模型部署和AI推理階段。如今,超過70%的AI推理在至強(qiáng)處理器上運(yùn)行,其中一個(gè)增長(zhǎng)最快的AI推理使用場(chǎng)景是智能邊緣,而至強(qiáng)已在此領(lǐng)域深耕多年。
在過去的八個(gè)月中,我一直在與主要客戶保持密切溝通,以更深入了解他們的需求和工作負(fù)載。這些交流不僅讓我們深入了解到如云服務(wù)供應(yīng)商之類的有較強(qiáng)影響力客戶的需求,也向我們展示了戰(zhàn)略合作伙伴如何幫助我們了解我們自身產(chǎn)品組合所應(yīng)用的關(guān)鍵領(lǐng)域?,F(xiàn)階段,有數(shù)以萬計(jì)的云實(shí)例在英特爾處理器上運(yùn)行,而且它的增長(zhǎng)速度比任何其他架構(gòu)都快。與此同時(shí),針對(duì)x86架構(gòu)編寫的代碼有數(shù)千億行,整個(gè)行業(yè)也已經(jīng)安裝了數(shù)億顆至強(qiáng)處理器。因此,英特爾具備得天獨(dú)厚的優(yōu)勢(shì),不僅可以通過行業(yè)標(biāo)準(zhǔn)橫向推動(dòng)行業(yè)發(fā)展,亦能在需求更加專業(yè)的自動(dòng)化和醫(yī)療等領(lǐng)域縱向推動(dòng)行業(yè)發(fā)展。
面向AI開發(fā)者的開放軟件堆棧
硬件只是解決方案的一部分,因此我們?cè)贏I策略上始終秉持“軟件優(yōu)先”的理念。其中,“軟件優(yōu)先”包括安全的AI軟件組件,即讓用戶能夠利用至強(qiáng)處理器的獨(dú)特軟件和安全功能,如通過英特爾?軟件防護(hù)擴(kuò)展(英特爾? SGX)進(jìn)行機(jī)密計(jì)算,保護(hù)使用中的關(guān)鍵數(shù)據(jù)和軟件。英特爾?SGX是業(yè)界第一個(gè)也是部署最多的基于硬件的數(shù)據(jù)中心可信執(zhí)行環(huán)境,在此基礎(chǔ)之上,我們的至強(qiáng)產(chǎn)品路線圖也涵蓋更多機(jī)密計(jì)算技術(shù),這也將夯實(shí)我們的技術(shù)領(lǐng)先性。
我們花費(fèi)數(shù)年時(shí)間為CPU優(yōu)化最流行的開源框架和函數(shù)庫,而且我們擁有基于開放標(biāo)準(zhǔn)開發(fā)的最廣泛的特定領(lǐng)域加速器組合,使代碼更容易移植且避免被鎖定。此外,為增強(qiáng)技術(shù)領(lǐng)先性并持續(xù)推動(dòng)創(chuàng)新,我們持續(xù)深耕技術(shù),希望能夠打造開放式AI,以涵蓋從云和數(shù)據(jù)中心到客戶端、邊緣和更多領(lǐng)域。
盡管在AI框架中默認(rèn)啟用英特爾優(yōu)化對(duì)于推動(dòng)大規(guī)模芯片應(yīng)用至關(guān)重要,但我們?nèi)匀恍枰獫M足各類AI開發(fā)者的需求,如從事軟件堆棧底部工作的框架開發(fā)者、在堆棧較高位置工作的低代碼或無代碼主題專家,以及部署、運(yùn)行、訓(xùn)練和維護(hù)AI模型(MLOps)的所有工程和運(yùn)營人員。盡管他們的角色迥然不同,但AI工作流程的每個(gè)階段都有共同的目標(biāo),即以最低的成本和風(fēng)險(xiǎn)快速從概念擴(kuò)展到現(xiàn)實(shí)世界,這也意味著他們需要選擇以及基于易于部署和維護(hù)的通用框架的開放解決方案。
基于此,我們已經(jīng)開發(fā)了BigDL和OpenVino?。其中,BigDL支持在現(xiàn)有大數(shù)據(jù)基礎(chǔ)設(shè)施上進(jìn)行大規(guī)模機(jī)器學(xué)習(xí);而通過數(shù)百個(gè)提前訓(xùn)練的模型,OpenVino?可以加速并簡(jiǎn)化推理在許多不同硬件上的部署。通過一致的標(biāo)準(zhǔn)和API,為從事底層AI堆棧工作的開發(fā)者提供可組合或優(yōu)化的構(gòu)建塊,以及為低代碼開發(fā)者提供優(yōu)化和產(chǎn)品化的工具和套件,英特爾助力AI開發(fā)者茁壯成長(zhǎng)。我們持續(xù)深耕AI加速器和安全性,這將讓我們能夠使這些關(guān)鍵計(jì)算元素在所有客戶、細(xì)分市場(chǎng)和產(chǎn)品中廣泛存在。
英特爾推動(dòng)AI Everywhere
現(xiàn)階段AI已經(jīng)在深刻變革各行各業(yè),未來它也有望改善地球上每個(gè)人的生活,但前提是它能夠被更容易地大規(guī)模部署。我們認(rèn)為,降低AI的進(jìn)入門檻需要正確的AI技術(shù)集合。經(jīng)過實(shí)踐,我們驗(yàn)證了一個(gè)成功的模式,以加速AI創(chuàng)新的下一個(gè)時(shí)代:通過開源工作幫助定義開發(fā)環(huán)境,我們將能夠開發(fā)和影響客戶的解決方案,從而影響整個(gè)行業(yè)。我們預(yù)測(cè),到2026年,英特爾AI邏輯芯片的市場(chǎng)規(guī)模將超過400億美元。我們正以強(qiáng)大的實(shí)力抓住這個(gè)機(jī)會(huì),我對(duì)未來充滿信心。
評(píng)論