高通、谷歌和英特爾聯手打造開源軟件,能否打破英偉達CUDA統治地位
3月26日,由高通、谷歌、英特爾等科技巨頭聯合參與的UXL基金會宣布,將啟動一項開源軟件開發計劃,為多種AI加速器芯片提供跨平臺支持,推動AI技術的普及和應用,有望為整個行業帶來更加開放和靈活的發展環境。
本文引用地址:http://www.ex-cimer.com/article/202403/456880.htm該項目旨在實現計算機代碼在不同芯片和硬件平臺上的無縫運行,消除特定編碼語言、代碼庫和其他工具等要求,使開發人員不再受使用特定架構(如英偉達的CUDA平臺)的束縛。高通AI與機器學習主管Vinesh Sukumar表示,“我們實際上是在向開發者展示如何從英偉達平臺遷移出來”。
據悉,UXL的技術指導委員會準備于2024年上半年確定技術規格,工程師則計劃在年底前將技術細節完善至“成熟”狀態。
自去年9月份推出以來,UXL已經開始收到來自基金會成員和外部人士的第三方技術貢獻,其中包括基金會成員和熱衷于使用開源技術的外部人士。英特爾的OneAPI已經可用,而下一步是創建專為AI設計的標準計算編程模型。UXL計劃將其資源用于解決由少數芯片制造商主導的最緊迫的計算問題,例如最新的AI應用和高性能計算應用。這些早期計劃符合該組織的長期目標,即贏得足夠數量的開發者使用其平臺。
除了谷歌、高通、英特爾之外,UXL還尋求亞馬遜、微軟以及其他芯片公司的支持,可能對英偉達在AI領域的市場地位構成一定挑戰,打破CUDA“一家獨大”的局面。從長遠的角度來看,由于英偉達CUDA產生的深遠影響力,UXL的最終目標是支持英偉達硬件和CUDA生態代碼。
根據PitchBook的數據,為了削弱英偉達在AI軟件領域的主導地位,風險投資家和企業資金已經向93個不同的項目投入了超過40億美元,其中UXL基金會的計劃只是眾多努力之一。僅2023年,致力于挑戰英偉達領導地位的初創公司獲得了超過20億美元的投資,相比之下,一年前這一數字僅為5.8億美元,市場對于通過軟件潛在弱點撼動英偉達地位的興趣急劇增長。
CUDA已經深深植根于許多人工智能和高性能計算項目中,改變現狀需要克服巨大的慣性和依賴。對于那些希望在英偉達的陰影下取得成功的初創公司來說,他們不僅需要提供具有競爭力的技術,還需要克服用戶對現有技術的深厚依賴。CUDA軟件之所以重要,不僅在于其軟件的功能,更在于人們已經使用CUDA長達15年,圍繞它構建了大量代碼。這才是真正重要的。
從Claude到OpenAI等熱門的AI初創公司,再到全球云服務巨頭微軟、亞馬遜旗下AWS以及Alphabet旗下的谷歌,英偉達所推出的超高性能AI芯片,以及軟硬件協同系統CUDA,已經成為微軟、OpenAI等新時代人工智能開發者們的“生命線”。
在一些AI工程師看來,英偉達能夠在AI芯片市場斬獲高達90%的壟斷性的份額,主要歸功于其高性能AI GPU和軟硬件協同系統CUDA。但是工程師們普遍認為,隨著英偉達競爭對手AMD以及Groq等AI芯片初創公司紛紛推出性能比肩英偉達的AI芯片,CUDA這一軟硬件協同運算平臺“壟斷性的優勢”才是英偉達壟斷AI芯片市場的最核心?;贑UDA的AI軟硬件一體化系統為英偉達創建了一條極其寬闊的“護城河”,使得AMD等競爭對手很難與英偉達在部署AI應用方面相匹配。
上個月,英偉達成為首家市值達到2萬億美元的芯片制造商,在專注于為人工智能模型提供動力的硬件(如H100和即將推出的H200 GPU)之后,英偉達實現了快速增長。這些英偉達芯片將開發者鎖定在使用CUDA架構上,在2023年的Computex主題演講中,英偉達首席執行官黃仁勛表示有400萬開發者正在使用CUDA計算模型。
CUDA作為一種并行計算平臺和應用程序編程接口(API),它允許軟件開發者使用英偉達的GPU進行高性能計算,使得英偉達的GPU在人工智能、科學計算和圖形處理等領域發揮關鍵作用。更加重要的是,這種加速技術僅通過提供英偉達特定的API、各種庫和編譯器支持,使得在英偉達GPU上的并行計算更加高效且非常易于AI軟件的核心 —— 即AI大模型的開發工作,因此CUDA可謂是開發ChatGPT等生成式AI應用極度依賴的平臺,其重要性與硬件體系不分上下,對于人工智能大模型的開發和部署至關重要。
UXL基金會的計劃如果能夠成功實施,不僅是技術上的一次突破,更是對英偉達長期以來在AI加速器市場壟斷地位的一次直接挑戰,將會為整個行業帶來新的活力和可能性,特別是在開放源代碼和技術共享方面。
評論