<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 外媒:DeepSeek省了訓(xùn)練費(fèi),但推理模型應(yīng)用成"燒錢黑洞"

          外媒:DeepSeek省了訓(xùn)練費(fèi),但推理模型應(yīng)用成"燒錢黑洞"

          作者: 時(shí)間:2025-02-24 來源:網(wǎng)易科技 收藏

          2月24日消息,盡管投資者曾一度產(chǎn)生疑慮,但來自大型科技企業(yè)、各國政府以及風(fēng)投機(jī)構(gòu)的巨額資金正以前所未有的速度流入領(lǐng)域。要理解這一現(xiàn)象背后的原因,關(guān)鍵在于洞察技術(shù)本身的演進(jìn)趨勢(shì)。

          本文引用地址:http://www.ex-cimer.com/article/202502/467212.htm

          當(dāng)前,技術(shù)正從傳統(tǒng)的大語言模型向推理模型和代理轉(zhuǎn)變。傳統(tǒng)的大語言模型,即多數(shù)免費(fèi)人工智能聊天機(jī)器人所使用的模型,其訓(xùn)練過程需要消耗龐大的電力和計(jì)算時(shí)間。然而,隨著技術(shù)的進(jìn)步,我們正在迅速找到方法,在用戶調(diào)用這些模型時(shí)減少其運(yùn)行所需的資源。與之不同,基于大型語言模型的推理模型,其實(shí)際運(yùn)行過程消耗的計(jì)算和電力資源是傳統(tǒng)模型的數(shù)倍。

          自O(shè)pen于2024年9月發(fā)布其首款推理模型o1以來,人工智能公司紛紛加速推出能與之抗衡的系統(tǒng)。這其中包括 R1,它震撼了整個(gè)人工智能行業(yè),并讓許多科技和能源企業(yè)的估值出現(xiàn)波動(dòng)。上周,埃隆·馬斯克(Elon Musk)旗下人工智能初創(chuàng)公司x也推出了其推理模型Grok 3。

          的推出之所以引發(fā)了一定程度的恐慌,是因?yàn)樗C明了人工智能模型可以以更低的成本進(jìn)行訓(xùn)練,這可能會(huì)削減對(duì)數(shù)據(jù)中心和昂貴先進(jìn)芯片的需求。然而,實(shí)際上推動(dòng)了人工智能行業(yè)更堅(jiān)定地邁向資源密集型的推理模型,這意味著計(jì)算基礎(chǔ)設(shè)施的需求依然十分強(qiáng)勁。

          鑒于推理模型具備更強(qiáng)大的能力,它們可能很快成為人們使用人工智能執(zhí)行多種任務(wù)時(shí)的默認(rèn)方式。OpenAI首席執(zhí)行官山姆·奧特曼(Sam Altman)曾表示,該公司人工智能模型的下一次重大升級(jí)將包含高級(jí)推理能力。

          那么,為何推理模型及其相關(guān)產(chǎn)品(如“深度研究”工具和AI代理)需要如此多的算力資源?答案在于它們的工作原理。

          英偉達(dá)人工智能產(chǎn)品管理副總裁卡里·布里斯基(Kari Briski)在最近一篇博客中解釋稱,人工智能推理模型消耗的算力資源,通常是傳統(tǒng)大語言模型的100倍以上,這是因?yàn)橥评砟P驮凇八季S鏈”中需要長(zhǎng)時(shí)間與自己對(duì)話,而這些推理過程用戶往往看不見。模型消耗的算力資源與其生成的詞匯量成正比,因此,如果推理模型生成的詞匯量是常規(guī)模型的100倍,那么它也將消耗相應(yīng)的電力和算力資源。

          當(dāng)推理模型接入互聯(lián)網(wǎng)時(shí),如谷歌、OpenAI和Perplexity的“深度研究”模型所做的那樣,資源消耗會(huì)更多。這些模型對(duì)算力資源的需求還只是開始。對(duì)此,谷歌、微軟和Meta計(jì)劃在2025年總共投入至少2150億美元用于資本支出,其中大部分將用于建設(shè)人工智能數(shù)據(jù)中心。這標(biāo)志著他們的資本支出較去年增長(zhǎng)了45%。

          今年1月,隨著中國AI模型DeepSeek R1的發(fā)布,每token的算力成本(包括電力與硬件支出)似乎將迎來斷崖式下降。DeepSeek通過論文證明,其AI模型的訓(xùn)練與部署效率遠(yuǎn)超美國AI實(shí)驗(yàn)室此前公開的方法。

          表面上看,這似乎預(yù)示著人工智能未來對(duì)算力資源的需求將大幅降低,可能只有當(dāng)前需求的十分之一,甚至更少。但隨著推理模型的問世,當(dāng)它們回答查詢時(shí)對(duì)算力資源的需求可能會(huì)大幅增加。簡(jiǎn)而言之,若基于DeepSeek技術(shù)的新型高效模型將AI算力需求削減至十分之一,而推理模型的普及使其使用需求激增100倍,未來整體算力需求仍將凈增10倍。

          而這只是起點(diǎn)。隨著企業(yè)發(fā)現(xiàn)新型人工智能模型的能力更強(qiáng),它們會(huì)越來越頻繁地調(diào)用這些模型,這使得對(duì)算力資源的需求從模型訓(xùn)練轉(zhuǎn)向模型使用,即人工智能行業(yè)所稱的“推理”。

          為其他公司提供人工智能算力資源的Baseten公司首席執(zhí)行官圖欣·斯里瓦斯塔瓦(Tuhin Srivastava)表示,這種向推理需求的轉(zhuǎn)變已在進(jìn)行中。他的客戶包括在應(yīng)用程序和服務(wù)中使用人工智能的科技公司,如允許內(nèi)容創(chuàng)作者通過轉(zhuǎn)錄編輯音頻和視頻的Descript,以及處理醫(yī)療記錄的初創(chuàng)公司PicnicHealth。

          斯里瓦斯塔瓦稱,隨著客戶自身產(chǎn)品需求的快速增長(zhǎng),他們發(fā)現(xiàn)需要更多的人工智能處理能力。他補(bǔ)充道:“六個(gè)月前,我們幫助一位客戶將算力資源需求降低了60%,但僅僅三個(gè)月后,他們的算力消耗已反超原水平。”

          OpenAI、谷歌和Meta等公司仍在競(jìng)相訓(xùn)練能力更強(qiáng)的人工智能模型。無論成本多高,它們的目標(biāo)都是盡可能搶占尚處萌芽階段的人工智能市場(chǎng)。Fractional AI首席執(zhí)行官克里斯·泰勒(Chris Taylor)表示:“我認(rèn)為,尖端實(shí)驗(yàn)室很可能需要持續(xù)投入巨額資金以推動(dòng)前沿技術(shù)的發(fā)展?!彼墓?,如同Baseten及蓬勃發(fā)展的人工智能生態(tài)系統(tǒng)中的許多其他企業(yè),依賴這些尖端模型為客戶提供服務(wù)。

          風(fēng)險(xiǎn)投資家、Theory Ventures創(chuàng)始人托馬斯·通古茲(Tomasz Tunguz)預(yù)測(cè),未來幾年,新的創(chuàng)新和更多人工智能專用微芯片可能使得人工智能系統(tǒng)比今天更高效,或使終端系統(tǒng)效率提升千倍。投資者和大型科技公司押注的是,在未來十年內(nèi),由于推理模型的普及和快速采用,對(duì)人工智能模型的需求可能會(huì)急劇增長(zhǎng)。

          通古茲表示:“你每一次鍵盤敲擊,或?qū)χ溈孙L(fēng)說的每一個(gè)音節(jié),每個(gè)操作節(jié)點(diǎn)都將由至少一個(gè)AI系統(tǒng)實(shí)時(shí)處理。”如果真是這樣,他補(bǔ)充道,人工智能市場(chǎng)的規(guī)??赡芎芸鞎?huì)比現(xiàn)在擴(kuò)大1000倍。



          關(guān)鍵詞: DeepSeek 人工智能 AI

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();