<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁(yè) > 智能計(jì)算 > 業(yè)界動(dòng)態(tài) > 谷歌AI研究員利用YouTube“假人挑戰(zhàn)”改善深度預(yù)測(cè)

          谷歌AI研究員利用YouTube“假人挑戰(zhàn)”改善深度預(yù)測(cè)

          作者: 時(shí)間:2019-05-27 來(lái)源:cnBeta 收藏

          據(jù)外媒報(bào)道,研究員近日表示,他們使用2000個(gè)YouTube視頻網(wǎng)站上的“(mannequin challenge)”作為訓(xùn)練數(shù)據(jù)集,以此來(lái)創(chuàng)建了一個(gè)能從運(yùn)動(dòng)視頻中深度預(yù)測(cè)的模型。這種將有助于開(kāi)發(fā)人員在手持?jǐn)z像機(jī)和3D視頻拍攝的場(chǎng)景中打造AR體驗(yàn)。

          本文引用地址:http://www.ex-cimer.com/article/201905/400876.htm

          要求一群人基本上表現(xiàn)得像一個(gè)假人一樣保持靜止不動(dòng)。在一篇名為“通過(guò)觀察被定住的人來(lái)了解移動(dòng)的人的深度(Learning the Depths of Moving People by Watching Frozen People)”的論文中,研究人員表示,這一挑戰(zhàn)為他們提供了一個(gè)可以幫助檢測(cè)攝像頭和視頻中移動(dòng)的人的景深的數(shù)據(jù)集。

          研究科學(xué)家Tali Dekel和工程師Forrester Cole在今天的一篇博客文章中寫(xiě)道:“雖然最近使用機(jī)器學(xué)習(xí)進(jìn)行深度預(yù)測(cè)的數(shù)量在激增,但現(xiàn)在這項(xiàng)工作則是首次針對(duì)攝像頭和人體運(yùn)動(dòng)同時(shí)進(jìn)行的情況而量身定制的一種基于學(xué)習(xí)的方法?!?/p>

          研究人員表示,這種方法在繪制深度地圖方面的表現(xiàn)優(yōu)于目前最先進(jìn)的工具。

          為了制作這個(gè)模型,研究人員訓(xùn)練了一個(gè)神經(jīng)網(wǎng)絡(luò),該網(wǎng)絡(luò)能夠從RGB圖像、人類區(qū)域的遮罩和視頻中非人類環(huán)境的初始深度輸入,然后生成深度地圖進(jìn)而做出人類的形狀和姿態(tài)預(yù)測(cè)。 



          關(guān)鍵詞: AI 谷歌 人體模型挑戰(zhàn)

          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();