<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 機(jī)器視覺(jué)——為人工智能產(chǎn)業(yè)化加速配上“眼睛”

          機(jī)器視覺(jué)——為人工智能產(chǎn)業(yè)化加速配上“眼睛”

          作者: 時(shí)間:2020-03-23 來(lái)源:歡創(chuàng)科技 收藏
          編者按:機(jī)器視覺(jué)最早被提出來(lái)是在20世紀(jì)60年代,直到20世紀(jì)80到90年代,機(jī)器視覺(jué)才迎來(lái)了蓬勃發(fā)展,而在21世紀(jì)之后,機(jī)器視覺(jué)技術(shù)才步入成熟期。

          美國(guó)制造工程師協(xié)會(huì)(SME)視覺(jué)分會(huì)和美國(guó)機(jī)器人工業(yè)協(xié)會(huì)(RIA)自動(dòng)化視覺(jué)分會(huì)對(duì)的定義為:是通過(guò)光學(xué)裝置和非接觸式的傳感器,自動(dòng)的接受和處理一個(gè)真實(shí)物體的圖像,以獲得所需信息或用于控制機(jī)器人/機(jī)械運(yùn)動(dòng)的裝置。

          本文引用地址:http://www.ex-cimer.com/article/202003/411228.htm

          最a早被提出來(lái)是在20世紀(jì)60年代,直到20世紀(jì)80到90年代,才迎來(lái)了蓬勃發(fā)展,而在21世紀(jì)之后,機(jī)器視覺(jué)技術(shù)才步入成熟期。

          有公開(kāi)數(shù)據(jù)顯示,在2018年,全球用于工業(yè)自動(dòng)化領(lǐng)域的機(jī)器視覺(jué)技術(shù)市場(chǎng)規(guī)模達(dá)44.4億美元,預(yù)計(jì)2023年將達(dá)122.9億美元,其年復(fù)合增長(zhǎng)率高達(dá)21%。

          相較于全球機(jī)器視覺(jué)行業(yè)而言,中國(guó)的機(jī)器視覺(jué)相關(guān)產(chǎn)業(yè)起步較晚,但發(fā)展速度很快。自2011年到2019年,我國(guó)機(jī)器視覺(jué)市場(chǎng)從10億元躍升到百億級(jí),每年都維持著兩位數(shù)的增速。目前,中國(guó)已成為僅次于美國(guó)和日本的世界第三大機(jī)器視覺(jué)市場(chǎng)。

          而2020年新冠疫情的爆發(fā),雖然對(duì)整個(gè)行業(yè)有一定的沖擊影響,但卻成為了機(jī)器視覺(jué)最大的“練兵場(chǎng)””——無(wú)人機(jī)噴灑消毒、機(jī)器人無(wú)接觸式配送等,加速了大眾對(duì)機(jī)器人的認(rèn)知,長(zhǎng)期來(lái)看,這無(wú)疑會(huì)加速機(jī)器視覺(jué)行業(yè)的發(fā)展進(jìn)程,各行各業(yè)將會(huì)對(duì)機(jī)器視覺(jué)的功能特性運(yùn)用更加多元化,助推行業(yè)的全面升級(jí)。

          從目前的行業(yè)發(fā)展來(lái)看,機(jī)器視覺(jué)在功能上的應(yīng)用主要表現(xiàn)在四個(gè)方面:

          一、導(dǎo)航和定位

          對(duì)于人眼而言,導(dǎo)航和定位,實(shí)則就是通過(guò)雙眼來(lái)目標(biāo)物體的判定相對(duì)位置和絕a對(duì)位置。于機(jī)器而言,則需為其造一雙“眼睛”——3D視覺(jué)來(lái)實(shí)現(xiàn)的。

          談到3D視覺(jué),首先說(shuō)說(shuō)3D視覺(jué)的測(cè)量原理。目前市場(chǎng)上主流的有四種3D視覺(jué)測(cè)量技術(shù):雙目視覺(jué)、TOF、結(jié)構(gòu)光和激光三角測(cè)量。

          1、雙目技術(shù),是目前較為廣泛的3D視覺(jué)系統(tǒng),它的原理就像我們?nèi)说膬芍谎劬?,用兩個(gè)視點(diǎn)觀察同一景物,以獲取在不同視角下的感知圖像,然后通過(guò)三角測(cè)量原理計(jì)算圖像的視差,來(lái)獲取景物的三維信息。

          1584950155472659.png

          雙目視覺(jué)對(duì)于硬件要求低,因而能一定程度上控制成本。但它對(duì)于環(huán)境光照非常敏感,光照角度變化、光照強(qiáng)度變化等環(huán)境因素的影響,拍攝的圖片亮度差別會(huì)比較大,這無(wú)疑加大了對(duì)算法的要求。另外相機(jī)基線(兩個(gè)攝像頭間距)限制了測(cè)量范圍,測(cè)量范圍和基線關(guān)系很大:基線越大,測(cè)量范圍越遠(yuǎn);基線越小,測(cè)量范圍越近。

          雙目視覺(jué)優(yōu)劣勢(shì)決定了它更適合于制造現(xiàn)場(chǎng)的在線、產(chǎn)品檢測(cè)和質(zhì)量控制。當(dāng)然也有一些產(chǎn)品也會(huì)用此技術(shù)原理,如基于slam算法導(dǎo)航定位的終端產(chǎn)品、體感攝像頭等。

          2、TOF(全稱:TimeOfFlight)飛行時(shí)間法成像技術(shù),它的原理是通過(guò)給目標(biāo)物連續(xù)發(fā)送光脈沖,然后用傳感器接收從物體返回的光,通過(guò)探測(cè)光脈沖的飛行時(shí)間來(lái)得到目標(biāo)物距離。

          1584950186795841.png

          TOF的核心部件是光源和感光接收模塊,它不需要類似雙目視覺(jué)算法來(lái)計(jì)算,通過(guò)特定的公式即可直接輸出物體的深度信息,因而具有響應(yīng)快、軟件簡(jiǎn)單、識(shí)別距離遠(yuǎn)的特點(diǎn),而且由于不需要進(jìn)行灰度圖像的獲取與分析,因此不受外界光源物體表面性質(zhì)影響,不過(guò)TOF技術(shù)的缺點(diǎn)是,分辨率低、不能精密成像。

          這就決定了TOF技術(shù)更適合遠(yuǎn)距離的3D信息采集,我們最a常見(jiàn)的就是自動(dòng)駕駛領(lǐng)域的激光雷達(dá),但由于自動(dòng)駕駛行業(yè)的發(fā)展特點(diǎn),從而導(dǎo)致在該領(lǐng)域的激光雷達(dá)公司并不多,市場(chǎng)份額都已被頭部企業(yè)占領(lǐng),后入者的市場(chǎng)門檻就因此變得很高。近幾年來(lái),隨著ToC市場(chǎng)掃地機(jī)器人市場(chǎng)份額的不斷壯大,很多企業(yè)都在考慮運(yùn)用TOF技術(shù)進(jìn)入該領(lǐng)域,在這里分得一杯羹。但擺在以TOF技術(shù)企業(yè)眼前最a主要的問(wèn)題是如何降低成本,我們拭目以待。

          3、由于雙目和TOF都有各自的缺點(diǎn),所以就有了第三種方式——結(jié)構(gòu)光技術(shù),它通過(guò)一個(gè)光源投射出一束結(jié)構(gòu)光,打到想要測(cè)量的物體上,因?yàn)椴煌奈矬w有不同的形狀,這就會(huì)因一些條紋或斑點(diǎn)發(fā)生不同的變形,有這樣的變形之后,就需要通過(guò)算法可以計(jì)算出距離、形狀、尺寸等信息,從而獲得物體的三維圖像。

          1584950212798554.png

          結(jié)構(gòu)光技術(shù),既不需要用很精準(zhǔn)的時(shí)間延時(shí)來(lái)測(cè)量,又解決了雙目中匹配算法的復(fù)雜度和魯棒性問(wèn)題,所以具有計(jì)算簡(jiǎn)單、測(cè)量精度較高的優(yōu)勢(shì),而且對(duì)于弱光環(huán)境、無(wú)明顯紋理和形狀變化的表面,同樣都可進(jìn)行精密測(cè)量,所以越來(lái)越多的行業(yè)應(yīng)用采用結(jié)構(gòu)光技術(shù)。最a為常見(jiàn)的就是手機(jī)的面部識(shí)別。

          4、激光三角測(cè)距技術(shù),也是一種幾何測(cè)量方法,本質(zhì)上講,是在利用物體之間的三角幾何關(guān)系進(jìn)行測(cè)距。一個(gè)典型應(yīng)用就是利用激光作為光源的測(cè)量方案,它也是基于光學(xué)幾何原理,根據(jù)光源、物體和檢測(cè)器三者之間的幾何成像關(guān)系,來(lái)確定空間物體各點(diǎn)的三維坐標(biāo)。

          1584950234487993.png

          這種方法通常用激光作為光源,用CCD/CMOS相機(jī)作為檢測(cè)器,具有結(jié)構(gòu)光3D視覺(jué)的優(yōu)點(diǎn)精準(zhǔn)、快速、成本低的優(yōu)點(diǎn)。根據(jù)幾何原理計(jì)算,被測(cè)物體越近,在CCD/CMOS上的位置差別就越大,分辨率和精度就越高,所以這種測(cè)量法在中近距離下的精度很高,特別適合中近距離測(cè)距,所以成為了室內(nèi)機(jī)器人測(cè)距定位的首a選方案。

          二、外觀檢查

          外觀檢查是通過(guò)圖像處理技術(shù)來(lái)完成的,圖像處理其實(shí)是計(jì)算機(jī)對(duì)圖像信息進(jìn)行處理。

          對(duì)圖像進(jìn)行處理的主要目的有三個(gè)方面:提高圖像的視感質(zhì)量、提取圖像中所包含的某些特征或特殊信息、圖像數(shù)據(jù)的變換、編碼和壓縮,以便于圖像的存儲(chǔ)和傳輸。而這些正是生產(chǎn)線上檢查產(chǎn)品是否存在質(zhì)量問(wèn)題最a好的應(yīng)用,這個(gè)環(huán)節(jié)也是取代勞動(dòng)力最a重要的部分。

          除此,它還在其它的一些領(lǐng)域有應(yīng)用,如生成原圖的預(yù)覽圖、在小車或無(wú)人飛行器上裝載攝像頭,利用圖像處理技術(shù)處理攝像頭拍攝的畫面。

          三、識(shí)別

          識(shí)別,從字面上就可以看出,這是一個(gè)認(rèn)識(shí)加辨別的過(guò)程,需要機(jī)器有類人的判斷。因此識(shí)別主要是通過(guò)圖像處理和深度學(xué)習(xí)的融合來(lái)實(shí)現(xiàn)這個(gè)功能。

          圖像處理把外部物體信息轉(zhuǎn)換成機(jī)器語(yǔ)言,然后過(guò)視覺(jué)感知來(lái)完成信息的輸入,這一過(guò)程實(shí)質(zhì)就是機(jī)器學(xué)習(xí)的過(guò)程,兩者疊加融合,從而使得識(shí)別功能變得智能。最a為常見(jiàn)的應(yīng)用就是人臉識(shí)別和無(wú)人駕駛。

          四、高精度檢測(cè)

          高精度檢測(cè)其實(shí)和第一個(gè)導(dǎo)航定位功能原理相同,不同的是,它可能會(huì)把多個(gè)測(cè)量技術(shù)融合在一起,形成高精度的檢測(cè)系統(tǒng)。

          因?yàn)檫\(yùn)用到高精度檢測(cè)的行業(yè)一般都是在精密加工型產(chǎn)業(yè)與高端工業(yè)制造領(lǐng)域等高要求的行業(yè),檢測(cè)精度要求達(dá)到um級(jí),這些都是人眼無(wú)法檢測(cè)到,必須用機(jī)器完成的。而這也成為了工業(yè)4.0時(shí)代,工業(yè)自動(dòng)化的關(guān)鍵應(yīng)用。

          和中國(guó)制造2025戰(zhàn)略的深入下行,勢(shì)必帶來(lái)機(jī)器視覺(jué)需求的不斷提升。

          機(jī)器視覺(jué)屬于技術(shù)密集型行業(yè),核心技術(shù)的積累和持續(xù)的技術(shù)創(chuàng)新是企業(yè)取得競(jìng)爭(zhēng)優(yōu)勢(shì)的關(guān)鍵因素之一,我們期待行業(yè)有更多的優(yōu)秀者出現(xiàn),一起為整個(gè)行業(yè)的發(fā)展添磚加瓦。



          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();