<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 設(shè)計應(yīng)用 > 英特爾神經(jīng)擬態(tài)計算技術(shù)助力新加坡研究人員 讓機器人“有觸覺”

          英特爾神經(jīng)擬態(tài)計算技術(shù)助力新加坡研究人員 讓機器人“有觸覺”

          作者: 時間:2020-07-16 來源:電子產(chǎn)品世界 收藏

          今天,新加坡國立大學(xué)()的兩名研究人員,同時也是英特爾神經(jīng)擬態(tài)研究社區(qū)()的成員發(fā)表了最新研究結(jié)果,表明在機器人領(lǐng)域,與基于事件的視覺和觸覺感知相結(jié)合,英特爾神經(jīng)擬態(tài)計算大有可為。這項工作著重介紹了與目前只有視覺的系統(tǒng)相比,將觸覺引入機器人技術(shù)能夠顯著提升系統(tǒng)能力和功能,并且神經(jīng)擬態(tài)芯片在處理此類感官數(shù)據(jù)方面能夠超越傳統(tǒng)架構(gòu)。

          本文引用地址:http://www.ex-cimer.com/article/202007/415720.htm

          英特爾神經(jīng)擬態(tài)計算實驗室主任Mike Davies表示:“新加坡國立大學(xué)的這項研究,讓人們對機器人技術(shù)的未來有了深刻的了解,也就是說,未來機器人會以事件驅(qū)動的方式,結(jié)合多模態(tài)來感知和處理信息。有越來越多類似的研究顯示,一旦我們對整個系統(tǒng)進(jìn)行基于事件的范式重新設(shè)計,包括傳感器、數(shù)據(jù)格式、算法和硬件體系結(jié)構(gòu),神經(jīng)擬態(tài)計算的使用可以顯著降低延遲和功耗?!?/p>

          人類的觸覺足夠靈敏,可以感覺到不同表面之間的細(xì)微不同,哪怕這些差異僅僅是一層分子的區(qū)別。然而,現(xiàn)在大多數(shù)機器人的操作都是基于視覺處理。新加坡國立大學(xué)的研究人員希望用他們最近開發(fā)的人造皮膚來改變這一狀況。根據(jù)他們的研究,這種人造皮膚在檢測觸覺方面,可以比人類的感覺神經(jīng)系統(tǒng)快1000倍以上,并且在識別物體的形狀、質(zhì)地和硬度方面,可以比人類眨眼速度快10倍。

          在機器人技術(shù)中啟用類似于人類的觸覺,可以顯著提升當(dāng)前系統(tǒng)功能,甚至可以產(chǎn)生新的用例。例如,配備有人造皮膚的機械臂可以很容易地適應(yīng)工廠生產(chǎn)的商品的變化,利用觸感來識別和抓住不熟悉的物體,并施加適當(dāng)?shù)膲毫σ苑乐勾蚧?。這種能夠感覺并更好地感知周圍環(huán)境的能力,還可以在例如護(hù)理行業(yè)中讓人與機器人更緊密、更安全地互動,或者賦予外科手術(shù)機器人目前所缺乏的觸覺,使我們更接近手術(shù)任務(wù)的自動化。

          image.png

          圖注:新加坡國立大學(xué)研究團(tuán)隊和最新集成了由事件驅(qū)動的人造皮膚和視覺傳感器的機器人系統(tǒng)。這一研究項目由助理教授Harold Soh(最左)和助理教授Benjamin Tee (最右)領(lǐng)導(dǎo)。和他們一起的分別是研究成員(從左至右)Sng Weicong、Tasbolat Taunyazov以及See Hian Hian。(圖片來源:新加坡國立大學(xué))

          雖然創(chuàng)造人造皮膚是實現(xiàn)這一愿景的第一步,但它還需要一種芯片,這種芯片需要根據(jù)皮膚的感官數(shù)據(jù)實時得出準(zhǔn)確的結(jié)論,同時以足夠節(jié)能的水平運行,以便可以直接部署在機器人內(nèi)部?!叭绻f讓機器人變得更智能是一幅拼圖,制造超快的人造皮膚傳感器只解決了大約一半,”新加坡國立大學(xué)材料科學(xué)與工程系、健康與創(chuàng)新技術(shù)研究所的助理教授Benjamin Tee表示,“機器人還需要一個能夠最終實現(xiàn)感知和學(xué)習(xí)的人工大腦,這是這幅拼圖中的另一個關(guān)鍵部分。我們用英特爾Loihi等神經(jīng)擬態(tài)芯片對AI皮膚系統(tǒng)進(jìn)行了獨特研究,為實現(xiàn)能效和擴展性邁出了重要一步?!?/p>

          為了在機器人感知領(lǐng)域進(jìn)行突破,新加坡國立大學(xué)團(tuán)隊開始探索神經(jīng)擬態(tài)技術(shù)的潛力,嘗試?yán)糜⑻貭朙oihi神經(jīng)擬態(tài)研究芯片處理來自人造皮膚的感官數(shù)據(jù)。在最初的實驗中,研究人員使用配有人造皮膚的機械手讀取盲文,將觸覺數(shù)據(jù)通過云傳遞給Loihi,以將手感覺到的微突轉(zhuǎn)化為語義。在對盲文字母進(jìn)行分類上,Loihi達(dá)到了92%以上的準(zhǔn)確率,而功耗卻比標(biāo)準(zhǔn)的馮·諾依曼處理器低20倍。

          在這項工作的基礎(chǔ)上,新加坡國立大學(xué)團(tuán)隊通過將視覺和觸覺數(shù)據(jù)結(jié)合到脈沖神經(jīng)網(wǎng)絡(luò)()中,進(jìn)一步提高了機器人的感知能力。為此,他們讓一個機器人利用來自人造皮膚和基于事件的相機的感官輸入,對裝有不同量液體的各種不透明容器進(jìn)行分類。研究人員也使用了相同的觸覺和視覺傳感器,來測試感知系統(tǒng)識別旋轉(zhuǎn)滑移的能力,這對于穩(wěn)定抓握至關(guān)重要。

          當(dāng)捕獲到這些感官數(shù)據(jù)后,研究小組將其分別發(fā)送給GPU和英特爾的Loihi神經(jīng)擬態(tài)研究芯片,從而比較兩者的處理能力。本周在《機器人學(xué):科學(xué)與系統(tǒng)》上發(fā)表的研究結(jié)果表明,與僅使用視覺的系統(tǒng)相比,使用脈沖神經(jīng)網(wǎng)絡(luò)()與基于事件的視覺和觸覺相結(jié)合,可以使物品分類的準(zhǔn)確率提高10%。此外,研究人員也展示了神經(jīng)擬態(tài)技術(shù)用于為此類機器人設(shè)備中的功耗情況,Loihi處理感官數(shù)據(jù)的速度比高性能的GPU還要快21%,而功耗卻降低了45倍。

          新加坡國立大學(xué)計算學(xué)院計算機科學(xué)系的助理教授Harold Soh表示:“我們對這些研究結(jié)果感到興奮。這表明神經(jīng)擬態(tài)系統(tǒng)有希望結(jié)合多傳感器,解決機器人感知能力難題。這讓我們朝著制造節(jié)能而且值得信賴的機器人又邁出了一步,這種機器人能夠在意外情況下迅速、恰當(dāng)?shù)刈龀龇磻?yīng)?!?/p>

          image.png

          圖注:由新加坡國立大學(xué)研究員研發(fā)出的這一新型機器人系統(tǒng)包含一個能夠模擬生物神經(jīng)網(wǎng)絡(luò)人造大腦,可以在英特爾Loihi這樣低能耗的神經(jīng)擬態(tài)處理器上運行。該機器人也集成了人造皮膚以及視覺傳感器。(圖片來源:新加坡國立大學(xué))

          關(guān)于英特爾神經(jīng)擬態(tài)研究社區(qū)(

          英特爾神經(jīng)擬態(tài)研究社區(qū)是一個由世界各地的學(xué)術(shù)團(tuán)體、政府實驗室、研究機構(gòu)和公司組成的生態(tài)系統(tǒng),與英特爾合作,進(jìn)一步推動神經(jīng)擬態(tài)計算并開發(fā)創(chuàng)新的AI應(yīng)用程序。有興趣加入并為Loihi開發(fā)的研究人員,可以訪問英特爾INRC網(wǎng)站, 也可以在該網(wǎng)站上獲取當(dāng)前成員的列表。



          關(guān)鍵詞: NUS INRC SNN

          評論


          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();