<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 嵌入式系統(tǒng) > 設(shè)計應(yīng)用 > 軟硬結(jié)合的智能視覺讓機器人行動更靈敏

          軟硬結(jié)合的智能視覺讓機器人行動更靈敏

          作者: 時間:2016-12-20 來源:網(wǎng)絡(luò) 收藏
          為了讓機器人更好地與其周圍的事物進行互動,并靈活地移動,機器人必須能夠看到并辨別其周圍的環(huán)境。經(jīng)濟高效且功能強大的視覺處理器(通過深度辨別圖像傳感器進行數(shù)據(jù)傳輸,并采用極具魯棒性的軟件算法)正在使人們盼望已久的自適應(yīng)機器人成為現(xiàn)實。

          機器人,這一長期出現(xiàn)在科幻世界和航運產(chǎn)品文檔中的事物,被描述為能夠幫助人類從呆板、單調(diào)和難以忍受的工作中釋放出來,并利用其高速度及高精度的特點提升工作效果。無論是可完成吸塵、地毯清洗,甚至排水溝的清潔工作的第一代自主消費機器人系統(tǒng),或是多種類型的生產(chǎn)環(huán)境下機器人的使用正不斷增長,都可以說明上述觀點(圖1)。

          newmaker.com

          newmaker.com
          圖1:為消費者量身定制的自主產(chǎn)品(a)和工業(yè)制造系統(tǒng)(b)是眾多可以通過視覺處理功能而得到增強的機器人中的一部分。

          然而第一代消費類機器人采用了相對粗糙的方案來定位并感知其周圍環(huán)境。這些基本技術(shù)包括由紅外線發(fā)射器組成的人造壁壘,它可與內(nèi)置在機器人當中的紅外線傳感器進行協(xié)作,從而防止機器人從樓梯上滾下或游蕩到另一個房間。當自主機器人撞到了不可移動的物體時,震動傳感器可通知機器人,讓機器人不再繼續(xù)前進。而更先進的繪圖功能設(shè)計甚至讓機器人不必再次回到這個特殊的位置。與人類的工作方式相比,機器人的工作不必考慮體力因素、更加快捷,并且更加準確,但機器人成功的前提是讓來料到達固定的方向和位置,因此提升了制造流程的復(fù)雜性。來料部件的位置及方向出現(xiàn)任何偏離都將導(dǎo)致裝配的失敗。

          人類用眼睛(以及感覺)和大腦對其周圍的世界進行辨識和定位。從理論上講,采用攝像頭組件、視覺處理器和各種軟件算法的機器人系統(tǒng)也應(yīng)該可以做到。但縱觀歷史,這樣的圖像分析技術(shù)通常只有在復(fù)雜并且昂貴的系統(tǒng)中才能找到。但數(shù)字集成電路在成本、性能和功耗方面的進步,為視覺功能使用在多樣化和高容量的應(yīng)用上鋪平了道路,其中包括機器人實現(xiàn)的功能越來越多。雖然機器人在功能實現(xiàn)方面仍然面臨著諸多挑戰(zhàn),但與以往相比,今天已經(jīng)可以更加輕松、快速、經(jīng)濟高效地解決這些問題。

          軟件技術(shù)

          開發(fā)出可根據(jù)視覺適應(yīng)其環(huán)境的機器人系統(tǒng)需要采用電腦視覺算法,該算法可將一個或多個圖像傳感器中的數(shù)據(jù)轉(zhuǎn)換成該環(huán)境的可執(zhí)行信息。機器人的兩個常見任務(wù)分別是識別外部目標和方向,并決定機器人的位置和方向。許多機器人可與一個或多個特定目標進行互動。對于情境自適應(yīng)機器人而言,必須能夠檢測到那些在未知地點和方向的目標,并且還要了解到這些目標很可能會移動。

          攝像頭每秒產(chǎn)生上百萬像素的數(shù)據(jù),從而形成了一個肩負著沉重處理負擔的有效載荷。解決該問題的一種常見方法是檢測這些多像素的特征,如視頻數(shù)據(jù)每一幀的角、點、邊或線(圖2)。

          newmaker.com
          圖2:完整處理二維或三維機器人視覺傳感器的原始輸出涉及四個主要階段,
          每個階段都有自己的獨特性并受其處理要求的制約。

          這種像素到特征的轉(zhuǎn)換可使在視覺處理管道的這個特殊階段的數(shù)據(jù)處理需求降低一千倍或更多;上百萬的像素降低成了上百個特征,機器人就可以高效地對目標進行識別,并確定其空間特征(圖3)。

          newmaker.com
          圖3:視覺處理器可以集成多種類型的內(nèi)核,以滿足每個處理階段的獨特需求。

          目標檢測首先包括采用機器學(xué)習或其他算法與多個特征相結(jié)合。然后,通過利用這些特征的數(shù)據(jù)庫(該數(shù)據(jù)庫根據(jù)特定目標在不同角度和方向的大量已采集圖像生成),用戶可以采用分類器算法運行并訓(xùn)練機器人正確地識別每個新目標。最有名的目標檢測算法之一是Viola-Jones framework,它采用類Haar的特征和大量Adaboost分類器。該算法非常擅長于識別臉部,也可經(jīng)過訓(xùn)練來識別其他常見目標。而基于機器學(xué)習算法的一大缺點是:他們需要大量的訓(xùn)練數(shù)據(jù)集,才能準確地檢測目標。

          通過特征來確定目標方位需要一種像RANSAC (隨機抽樣和均測)那樣的基于統(tǒng)計的算法。該算法采用一組特征來模擬一個潛在的目標方向,然后確定多少其他特征適合該模型。具有最大數(shù)量匹配特征的模型對應(yīng)于被正確識別的目標方向。為了檢測移動目標,用戶可以將特征識別與跟蹤算法相結(jié)合。一旦一組特征正確地識別了一個目標, KLT(Kanade-Lucas-Tomasi)或卡爾曼濾波等算法將在視頻的幀之間跟蹤這些特征的運動軌跡。無論方向和阻塞如何改變,這些技術(shù)都是非??煽康模驗樗麄儍H需要跟蹤一組最初特征便可成功。

          上一頁 1 2 下一頁

          評論


          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();