<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁(yè) > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 大咖觀點(diǎn) | 在大模型時(shí)代推動(dòng)智能視覺(jué)技術(shù)的發(fā)展

          大咖觀點(diǎn) | 在大模型時(shí)代推動(dòng)智能視覺(jué)技術(shù)的發(fā)展

          作者: 時(shí)間:2024-08-13 來(lái)源:Arm 收藏

          作者: 物聯(lián)網(wǎng)事業(yè)部業(yè)務(wù)拓展副總裁 馬健

          本文引用地址:http://www.ex-cimer.com/article/202408/461974.htm

          (鳴謝 工程部計(jì)算視覺(jué)主任架構(gòu)師 Catherine Wang 對(duì)本文內(nèi)容的貢獻(xiàn))

          語(yǔ)言學(xué)和認(rèn)知科學(xué)的先驅(qū) Noam Chomsky 曾經(jīng)說(shuō)過(guò),人類語(yǔ)言在動(dòng)物世界中是獨(dú)一無(wú)二的。如今,隨著諸如 GPT-3.5、GPT-4.0 和 Bert 等大語(yǔ)言模型 (LLM) 和生成式人工智能 (AI) 的迅猛發(fā)展,機(jī)器已經(jīng)開(kāi)始能夠理解人類語(yǔ)言,這極大地?cái)U(kuò)展了機(jī)器可行使的功能。由此也引發(fā)了人們的思考:接下來(lái)技術(shù)會(huì)如何發(fā)展?

          智能的演進(jìn)塑造全新計(jì)算范式

          要預(yù)測(cè) AI 的未來(lái)發(fā)展方向,我們只需反觀人類自身。我們通過(guò)感官、思想和行動(dòng)的相互動(dòng)態(tài)作用來(lái)改變世界。這個(gè)過(guò)程包括感知周圍世界、處理信息,并在深思熟慮后作出回應(yīng)。

          在計(jì)算技術(shù)的發(fā)展歷程中,我們目睹了曾經(jīng)是人類獨(dú)有的感知、思考和行動(dòng)等能力,逐漸被機(jī)器所掌握。每一次能力的轉(zhuǎn)移都將催生出新的范式。

          20 世紀(jì)末,像 Google 這樣的大公司將信息獲取成本從邊際成本轉(zhuǎn)變?yōu)楣潭ǔ杀?,具體點(diǎn)說(shuō)就是,Google 投入資金來(lái)抓取網(wǎng)絡(luò)和索引信息,但對(duì)于我們每個(gè)搜尋信息的用戶來(lái)說(shuō),投入的成本幾乎可以忽略不計(jì)。機(jī)器開(kāi)始成為我們的信息系統(tǒng)。這開(kāi)啟了互聯(lián)網(wǎng)時(shí)代及其后續(xù)的移動(dòng)互聯(lián)網(wǎng)時(shí)代,改變了人們獲取、傳播和分享信息的方式,并對(duì)商業(yè)、教育、娛樂(lè)、社交等多個(gè)領(lǐng)域產(chǎn)生了深遠(yuǎn)的影響。

          現(xiàn)在,我們正見(jiàn)證技術(shù)發(fā)展的新轉(zhuǎn)折,思考、推理和模型構(gòu)建的能力正從人類轉(zhuǎn)移到機(jī)器上。OpenAI 和將生產(chǎn)模型的成本從邊際成本轉(zhuǎn)變?yōu)楣潭ǔ杀尽?/p>

          已經(jīng)通過(guò)來(lái)自互聯(lián)網(wǎng)的大量文本、圖像和視頻進(jìn)行了訓(xùn)練,這其中包含了法律、醫(yī)學(xué)、科學(xué)、藝術(shù)等各種領(lǐng)域的信息。這種廣泛的訓(xùn)練使得這些可以作為基礎(chǔ)模型,用以更輕松地構(gòu)建其他模型。

          無(wú)論是認(rèn)知模型(如何觀察和表達(dá))、行為模型(如何駕駛汽車),還是特定領(lǐng)域的模型(如何設(shè)計(jì)半導(dǎo)體芯片),這一轉(zhuǎn)折點(diǎn)必將激發(fā)各類模型的廣泛涌現(xiàn)。模型是知識(shí)的載體,這一轉(zhuǎn)折點(diǎn)將使模型和知識(shí)變得無(wú)處不在,使我們加速進(jìn)入新一輪的技術(shù)創(chuàng)新,迎來(lái)一個(gè)由自動(dòng)駕駛汽車、自主移動(dòng)機(jī)器人、人形機(jī)器人等多樣的機(jī)器及其在各行各業(yè)和各種部署場(chǎng)景中應(yīng)用的新時(shí)代。這些新范式將重新定義人機(jī)交互的方式。

          多模態(tài) LLM 與視覺(jué)的關(guān)鍵作用

          通過(guò) Transformer 模型及其自注意力機(jī)制,AI 可以真正實(shí)現(xiàn)多模態(tài),這意味著 AI 系統(tǒng)可以像人們一樣處理來(lái)自語(yǔ)音、圖像和文本等多種模式的輸入信息。

          OpenAI 的 CLIP、DALL·E、Sora 和 GPT-4o 就是朝著多模態(tài)邁進(jìn)的一些模型。例如,CLIP 用于理解圖像與自然語(yǔ)言的配對(duì)數(shù)據(jù),從而在視覺(jué)和文本信息之間架起橋梁;DALL·E 旨在根據(jù)文本描述生成圖像,而 Sora 可以根據(jù)文本生成視頻,有望在未來(lái)成為全球性的模擬器。OpenAI 則將 GPT-4o 的發(fā)展往前更進(jìn)一步,OpenAI 綜合利用文本、視覺(jué)和音頻信息來(lái)端到端訓(xùn)練單個(gè)新模型 GPT-4o,無(wú)需進(jìn)行多媒體與文本的相互轉(zhuǎn)換。所有輸入和輸出都經(jīng)同一神經(jīng)網(wǎng)絡(luò)處理,使得模型能夠跨模態(tài)綜合音頻、視覺(jué)和文本信息進(jìn)行實(shí)時(shí)推理。

          多模態(tài) AI 的未來(lái)將聚焦于邊緣側(cè)

          得益于邊緣側(cè)硬件的進(jìn)步(許多邊緣硬件都是基于 平臺(tái)開(kāi)發(fā)設(shè)計(jì)的),同時(shí)也為了解決延遲問(wèn)題、隱私和安全需求、帶寬和成本考量,并確保在網(wǎng)絡(luò)連接間斷或無(wú)連接時(shí)能夠離線使用,AI 創(chuàng)新者在不斷突破模型的運(yùn)行邊界。Sam Altman 也曾坦言 [1] ,對(duì)于視頻(我們通過(guò)視覺(jué)感知到的內(nèi)容),要想提供理想的用戶體驗(yàn),端側(cè)模型至關(guān)重要。

          然而,資源限制、模型大小和復(fù)雜性挑戰(zhàn)阻礙了多模態(tài) AI 向邊緣側(cè)的轉(zhuǎn)移。要想解決這些問(wèn)題,我們需綜合利用硬件進(jìn)步、模型優(yōu)化技術(shù)和創(chuàng)新的軟件解決方案,來(lái)促進(jìn)多模態(tài) AI 的普及。

          近期的 AI 發(fā)展對(duì)計(jì)算機(jī)視覺(jué)產(chǎn)生了深遠(yuǎn)的影響,尤其令人關(guān)注。許多視覺(jué)領(lǐng)域研究人員和從業(yè)者正在使用大模型和 Transformer 來(lái)增強(qiáng)視覺(jué)能力。在大模型時(shí)代,視覺(jué)的重要性日益凸顯。原因有以下幾點(diǎn):

          機(jī)器系統(tǒng)必須通過(guò)視覺(jué)等感知能力來(lái)了解周圍環(huán)境,為自動(dòng)駕駛和機(jī)器人提供關(guān)乎人身安全的必要安全性和避障能力。空間智能是被譽(yù)為“AI 教母”的李飛飛等研究人員關(guān)注的熱門(mén)領(lǐng)域。

          視覺(jué)對(duì)于人機(jī)交互至關(guān)重要。AI 伴侶不僅需要高智商,還需要高情商。機(jī)器視覺(jué)可以捕捉人類的表情、手勢(shì)和動(dòng)作,從而更好地理解人類的意圖和情感。

          AI 模型需要視覺(jué)能力和其他傳感器來(lái)收集實(shí)際數(shù)據(jù)并適應(yīng)特定環(huán)境,隨著 AI 從輕工業(yè)延伸到數(shù)字化水平較低的重工業(yè),收集物理世界特征數(shù)據(jù)集,建立 3D 物理世界的仿真環(huán)境或數(shù)字孿生,并使用這些技術(shù)來(lái)訓(xùn)練多模態(tài)大模型,使模型可以理解真實(shí)的物理世界,這一點(diǎn)都尤為重要。

          視覺(jué) + 基礎(chǔ)模型的示例

          盡管 ChatGPT 因其出色的語(yǔ)言能力而廣受歡迎,但隨著主流的 LLM 逐漸演變成多模態(tài),將它們稱作“基礎(chǔ)模型”也許更為貼切。包括視覺(jué)等多種模態(tài)在內(nèi)的基礎(chǔ)模型領(lǐng)域正在快速發(fā)展。以下是一些例子:

          DINOv2

          DINOv2 是由 Meta AI 開(kāi)發(fā)的先進(jìn)自監(jiān)督學(xué)習(xí)模型,它基于原來(lái)的 DINO 模型打造,并已通過(guò)擁有 1.42 億張圖像的龐大數(shù)據(jù)集進(jìn)行了訓(xùn)練,這有助于提高它在不同視覺(jué)領(lǐng)域的穩(wěn)健性和通用性。DINOv2 無(wú)需專門(mén)訓(xùn)練就能分割對(duì)象。此外,它還能生成通用特征,適用于圖像級(jí)視覺(jué)任務(wù)(如圖像分類、視頻理解)和像素級(jí)視覺(jué)任務(wù)(如深度估計(jì)、語(yǔ)義分割),表現(xiàn)出卓越的泛化能力和多功能性。

          Segment Anything 模型 (SAM)

          SAM 是一種可推廣的分割系統(tǒng),可以對(duì)不熟悉的對(duì)象和圖像進(jìn)行零樣本泛化,而無(wú)需額外訓(xùn)練。它可以使用多種輸入提示詞來(lái)識(shí)別和分割圖像中的對(duì)象,以明確要分割的目標(biāo)。因此在遇到每個(gè)新對(duì)象或場(chǎng)景時(shí),它無(wú)需進(jìn)行特殊訓(xùn)練即可運(yùn)行。據(jù) Meta AI 介紹,SAM 可以在短短 50 毫秒內(nèi)生成分割結(jié)果,因此非常適合實(shí)時(shí)應(yīng)用。它具備多功能性,可應(yīng)用于從醫(yī)學(xué)成像到自動(dòng)駕駛等諸多領(lǐng)域。

          Stable Diffusion

          文生圖和文生視頻是生成式 AI 的一個(gè)重要方面,因?yàn)樗粌H能夠助力產(chǎn)生新的創(chuàng)意,還有望構(gòu)建一個(gè)世界模擬器,用來(lái)作為訓(xùn)練模擬、教育程序或視頻游戲的基礎(chǔ)。Stable Diffusion 是一個(gè)生成式 AI 模型,能夠根據(jù)文本描述創(chuàng)建圖像。該模型使用一種稱為潛在擴(kuò)散 (latent diffusion) 的技術(shù),在潛在空間 (latent space) 的壓縮格式中操作圖像,而不是直接在像素空間中操作,從而實(shí)現(xiàn)高效運(yùn)行。這種方法有助于減少計(jì)算負(fù)載,使模型能夠更快地生成高質(zhì)量圖像。

          Stable Diffusion 已經(jīng)可以在智能移動(dòng)設(shè)備的邊緣側(cè)運(yùn)行。上圖是 Stable Diffusion 優(yōu)化過(guò)程的示例:

          如果采用 Stable Diffusion 的原始設(shè)置,將不適合在移動(dòng)端 CPU 或 NPU 上運(yùn)行(基于 512×512 圖像分辨率)。

          通過(guò)使用更小的 U-Net 架構(gòu)、更少的采樣步驟、切換到 ONNX 格式、應(yīng)用量化技術(shù)(從 FP32 到 INT8)和其他技術(shù),它僅在 CPU 上就實(shí)現(xiàn)了超過(guò) 60 倍的速度提升。其中許多優(yōu)化技術(shù)和工具都是基于 Arm 廣泛的生態(tài)系統(tǒng)所開(kāi)發(fā)的。該模型仍有進(jìn)一步優(yōu)化的空間。

          借助多模態(tài) LLM 實(shí)現(xiàn)出色視覺(jué)體驗(yàn)

          作為 Arm 的合作伙伴計(jì)劃的一員,愛(ài)芯元智 (Axera) 利用其旗艦芯片組 AX650N 在邊緣側(cè)部署了 DINOv2 視覺(jué) Transformer。該芯片采用 Arm Cortex-A55 CPU 集群進(jìn)行預(yù)處理和后處理,結(jié)合愛(ài)芯通元混合精度 NPU 和愛(ài)芯智眸 AI-ISP,其具有高性能、高精度、易于部署和出色能效等特點(diǎn)。

          以下展示了在 AX650N 上運(yùn)行 DINOv2 的效果:

          通過(guò)使用多樣化大型數(shù)據(jù)集進(jìn)行預(yù)訓(xùn)練之后,視覺(jué) Transformer 可以更好地泛化到新任務(wù)和未見(jiàn)過(guò)的任務(wù),從而簡(jiǎn)化了再訓(xùn)練過(guò)程并縮短了調(diào)優(yōu)時(shí)間。它們可以應(yīng)用于圖像分類之外的多種任務(wù),例如對(duì)象檢測(cè)和分割,而無(wú)需進(jìn)行大量的架構(gòu)更改。

          迎接 AI 和人機(jī)界面的未來(lái)

          得益于 AI 和 LLM 的不斷發(fā)展,我們正處于技術(shù)和人類交互轉(zhuǎn)型的交會(huì)點(diǎn)。視覺(jué)會(huì)在這一演進(jìn)中起到關(guān)鍵作用,賦予了機(jī)器理解周圍環(huán)境以及在物理世界中“生存”的能力,可確保安全并增強(qiáng)交互性。在硬件和軟件快速發(fā)展的推動(dòng)下,向邊緣側(cè) AI 的轉(zhuǎn)變有望實(shí)現(xiàn)高效的實(shí)時(shí)應(yīng)用。



          關(guān)鍵詞: Arm 大模型 智能視覺(jué)

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();