微軟重磅官宣推出 AI 自研芯片,與H100、特斯拉D1等AI芯片性能對比
北京時(shí)間周四凌晨 1 點(diǎn),微軟(Microsoft)Ignite 技術(shù)大會在西雅圖揭幕,該公司 CEO 薩蒂亞·納德拉進(jìn)行了接近 1 個(gè)小時(shí)的開幕演講,介紹了 AI 龍頭取得的最新進(jìn)步。
本文引用地址:http://www.ex-cimer.com/article/202311/453077.htm此次,微軟發(fā)布了首款自家研發(fā)的人工智能(AI)芯片 Maia 100,以及應(yīng)用于云端軟件服務(wù)的芯片 Cobalt。兩款芯片將由臺積電代工,采用 5nm 制程技術(shù)。
目前,AI 芯片市場由英偉達(dá)(Nvidia)獨(dú)霸,有大量 AI 芯片需求的科技大廠極力尋求可替代的供應(yīng)來源; 微軟自行研發(fā),希望增強(qiáng) ChatGPT 等生成式 AI 產(chǎn)品的性能,同時(shí)降低成本。
Cobalt 是基于 Arm 架構(gòu)的通用型芯片,具有 128 個(gè)核心,Maia 100 為特定 AI 加速器,用于云端訓(xùn)練和推理的,晶體管數(shù)量達(dá)到 1050 億個(gè)。這兩款芯片明年將導(dǎo)入微軟 Azure 數(shù)據(jù)中心,支持 OpenAI、Copilot 等服務(wù)。
目前,英偉達(dá)在 AI 芯片市場的市占高達(dá) 80% 左右,需求強(qiáng)勁,高端產(chǎn)品一顆有時(shí)可賣到 3 萬到 4 萬美元。日經(jīng)亞洲指出,用于 ChatGPT 的芯片被認(rèn)為大概就需要有 1 萬顆,這對 AI 公司是個(gè)龐大成本。
負(fù)責(zé) Azure 芯片部門的副總裁 Rani Borkar 表示,微軟已開始用 Bing 和 Office AI 產(chǎn)品測試 Maia 100 芯片,微軟主要 AI 合作伙伴、ChatGPT 開發(fā)商 OpenAI,也在進(jìn)行測試中。
彭博資訊指出,微軟的多年投資顯示,芯片對于在 AI 和云計(jì)算領(lǐng)域取得優(yōu)勢至關(guān)重要。自研芯片可以讓微軟從硬件中獲得性能和價(jià)格優(yōu)勢,還可以避免微軟過度依賴任何一家供應(yīng)商。目前業(yè)界對英偉達(dá) AI 芯片的爭奪戰(zhàn),更加凸顯了這個(gè)問題。
在微軟進(jìn)軍自研處理器之前,在云計(jì)算市場上的競爭對手也采取類似策略。亞馬遜在 2015 年收購了一家芯片制造商,并提供多種云端運(yùn)算與 AI 芯片服務(wù)。Google 從 2018 年開始,也已讓客戶使用其 AI 加速處理器。
除了發(fā)布的這兩款芯片,業(yè)界一直在傳,微軟有一個(gè)代號為「Athena」的 AI 芯片項(xiàng)目,2019 年就開始了內(nèi)部研發(fā)。據(jù)悉,微軟希望 Athena 芯片的性能優(yōu)于目前從其它供應(yīng)商處購買的芯片,從而節(jié)省其在昂貴的 AI 業(yè)務(wù)上的時(shí)間和成本。
有市場評論認(rèn)為,微軟 AI 芯片立項(xiàng)的時(shí)機(jī)很巧,正好在微軟、OpenAI 等公司培養(yǎng)的大型語言模型已經(jīng)開始騰飛之際。兩位知情人士表示,OpenAI 的 ChatGPT 聊天機(jī)器人的發(fā)布讓人們興奮──根據(jù)分析師預(yù)估,截至今年 1 月,也就是 ChatGPT 發(fā)布兩個(gè)月后,該機(jī)器人已經(jīng)擁有超過 1 億用戶──這促使微軟加快 Athena 的研發(fā)和推出。
知情人士說,微軟最快可以在明年讓 Athena 在公司和 OpenAI 內(nèi)部廣泛使用。不過其中一名知情人士表示,微軟內(nèi)部仍在爭論是否會向其 Azure 云計(jì)算服務(wù)的客戶提供這些芯片。
如果微軟確實(shí)走向其云計(jì)算客戶提供芯片,它還必須為其打造比英偉達(dá)當(dāng)前產(chǎn)品更具吸引力的軟件,英偉達(dá)在該領(lǐng)域已深耕 15 年,其軟件產(chǎn)品已在全球廣泛使用。
調(diào)研公司 SemiAnalysis 的首席分析師 Dylan Patel 估算,ChatGPT 的運(yùn)營成本為每天約 70 萬美元或每次查詢 0.36 美元。Patel 說:「大部分成本來自其所需的昂貴服務(wù)器。和英偉達(dá)產(chǎn)品相比,若 Athena 具競爭力,可以將每個(gè)芯片的成本降低三分之一?!?/span>
Patel 還表示,微軟希望他們在所有的應(yīng)用程序中都使用這個(gè)大型語言模型,包括 Bing、Microsoft 365 和 GitHub。如果采用英偉達(dá)現(xiàn)成的軟件進(jìn)行大規(guī)模部屬,光芯片這一項(xiàng)成本每年就要燒掉數(shù)百億美元。
微軟并不認(rèn)為自己的 AI 芯片可以廣泛替代英偉達(dá)的產(chǎn)品。有分析認(rèn)為,微軟的這一努力如果成功的話,也有可能幫助它在未來與英偉達(dá)的談判中更具優(yōu)勢。
此次,微軟還推出了名為 Sidekicks 的定制液冷硬件,該硬件安裝在包含 Maia 服務(wù)器的機(jī)架旁邊的機(jī)架中。一位發(fā)言人表示,該公司無需改造即可安裝服務(wù)器機(jī)架和 Sidekick 機(jī)架。
在網(wǎng)絡(luò)連接方面,為了滿足 AI 和未來工作負(fù)載的要求,微軟推出了新一代空芯光纖(Hollow Core Fiber),利用空氣作為光纖的導(dǎo)光介質(zhì),能夠?qū)鬏斔俣忍岣?47%。當(dāng)然這也與微軟的「鈔能力」有關(guān),公司在去年 12 月底收購了這條賽道的領(lǐng)跑者英國 Lumenisity。
會上,納德拉宣布 Azure Boost 數(shù)據(jù)中心硬件也將正式投入商用。該系統(tǒng)能夠?qū)⒋鎯途W(wǎng)絡(luò)進(jìn)程將主機(jī)轉(zhuǎn)移到專用硬件和軟件上,從而提高速度。
據(jù)千芯科技董事長陳巍博士分析,就 Maia 100 性能來看,MXFP4 算力達(dá)到了 3200TFLOPS,MXInt8 算力達(dá)到 1600TFLOPS(這里有可能是新聞筆誤,因?yàn)?INT8 算力一般按照 TOPS 單位)。SIMD 算力為 48TFLOPS,具備 140MB L1 緩存和 448MB L2 緩存,HBM3 容量為 64GB,TDP 功耗 860W,采用 TSMC N5 工藝,面積 820mm^2,105BIllion 晶體管。
對比一下 Maia 100 和其他幾個(gè)家世顯赫的芯片性能,可以看到 Maia 具有大量的片上 SRAM(單芯片合計(jì) 588MB),甚至超過了特斯拉 D1,有可能是存算一體(近存計(jì)算)架構(gòu)的 AI DSA。初步猜測其架構(gòu)和液冷方式與特斯拉 Dojo 接近。
緊密聯(lián)系合作伙伴
基于微軟與 AI 軟件龍頭 OpenAI 的緊密關(guān)系,所以微軟 Azure 云服務(wù)也將在第一時(shí)間向用戶提供 OpenAI 的最新產(chǎn)品,例如 GPT-4 Trubo 和多模態(tài)能力,以及基于 GPT-4 的微調(diào)。
微軟也在今天宣布推出「MAAS」產(chǎn)業(yè)模式(Models as a Service/模型即服務(wù)),用戶可以直接通過微軟的服務(wù)來調(diào)用 API、微調(diào)和部署各類開源大模型。微軟也已經(jīng)與 Meta 等一眾大模型開發(fā)商達(dá)成合作,將 Llama 2 等知名 LLM 作為一項(xiàng)服務(wù)推出。
納德拉宣布,Azure 云將發(fā)布英偉達(dá)的 AI 工坊服務(wù)(AI foundry service),為此他還請來了黃仁勛,講述兩家 AI 巨頭從硬件到軟件的全面合作。
據(jù)悉,英偉達(dá) AI 工坊涵蓋英偉達(dá)的 AI 基礎(chǔ)模型、NeMo 框架和工具,以及英偉達(dá) DGX Cloud AI 超級計(jì)算和服務(wù)三大要素。微軟用戶將可以在 Azure 云上利用英偉達(dá)的 AI 軟件生成并部署模型。
黃仁勛表示,AI 的第一波浪潮源自 OpenAI 等一批創(chuàng)業(yè)公司,而現(xiàn)在整個(gè)產(chǎn)業(yè)已經(jīng)進(jìn)入了第二波浪潮,由微軟 Copilot 推動的企業(yè)級 AI。在他看來,第三波也是最大的那一波將會是整個(gè)世界的重工業(yè)數(shù)字化,并從生成式 AI 中獲益。
評論