<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 業(yè)界動態(tài) > 谷歌推出AVA數(shù)據(jù)庫:讓機器識別視頻中人類行為

          谷歌推出AVA數(shù)據(jù)庫:讓機器識別視頻中人類行為

          作者: 時間:2017-10-23 來源:網(wǎng)易智能 收藏

            計算機視覺正在成為科技公司的一大福音,能夠讓機器加速運轉,并完成迄今為止只能由人類完成的任務。

          本文引用地址:http://www.ex-cimer.com/article/201710/370380.htm

            幾個月前,eBay公布將要添加新的搜索功能,可以讓用戶使用現(xiàn)有照片來尋找類似商品,同時線上服裝零售商ASOS則在時尚領域涉足此項。Shutterstock上周公布了一項全新的測試功能,用戶可以根據(jù)自己的布局來搜索股票照片。過了幾天,照片應用發(fā)布了新的寵物圖像識別功能。

            簡而言之,在計算機視覺領域,發(fā)展越來越激動人心,同時也可以看到人們對人工智能領域的大量投資卓有成效。

            目前,大多數(shù)計算機視覺技術的進步主要發(fā)生在靜態(tài)圖像領域,但我們也開始在視頻中看到計算機視覺技術的成果。例如,俄羅斯當局在全國的實時監(jiān)控網(wǎng)絡中應用了面部識別技術。Pornhub也在做類似的事情,自動對“成人娛樂”視頻進行分類,包括訓練系統(tǒng)識別特定的性姿勢。此外,還有蓬勃發(fā)展的自動駕駛汽車行業(yè),在很大程度上依賴于機器對現(xiàn)實世界行為理解的能力。

            在這樣的背景下,推出了一個新的視頻數(shù)據(jù)庫,希望能夠推動計算機視覺識別影像中行為的研究。“原子視覺行為”的英文縮寫“AVA”是一個由多個標簽組成的數(shù)據(jù)庫,用戶可以在視頻序列中進行操作。

            視頻中動作識別的困難主要在于視頻中各種復雜的場景交織在一起,多個動作也在同一時間由不同的人發(fā)出。

              

          谷歌推出AVA數(shù)據(jù)庫:讓機器識別視頻中人類行為

           

            軟件工程師顧春暉和大衛(wèi)羅斯在一篇博客文章中解釋道:“教會機器去識別影像中的人類行為是發(fā)展計算機視覺的一大基本難題,但是對于個人視頻搜索和發(fā)現(xiàn)、體育分析和手勢界面等應用至關重要?!薄氨M管過去幾年在圖像分類和尋找物體方面取得了激動人心的突破,但識別人類行為仍然是一個巨大的挑戰(zhàn)?!?/p>

              

          谷歌推出AVA數(shù)據(jù)庫:讓機器識別視頻中人類行為

           

            本質上,AVA就是一堆被80個原子動作標注的YouTube網(wǎng)址,并延伸到了近5.8萬個視頻片段,涉及到很多日?;顒樱热缥帐?、踢腿、擁抱、接吻、喝酒、玩樂器、散步等等。

            通過對外開放數(shù)據(jù)庫,谷歌希望可以改進機器的“社交視覺智能”,這樣他們就能理解人類在做什么,并預測他們下一步會做什么。

            該公司表示:“我們希望,AVA的發(fā)布將有助于改進人類行為識別系統(tǒng)的開發(fā),并有機會基于時空間隔標簽對復雜的活動進行建模?!?/p>



          關鍵詞: 谷歌 機器識別

          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();