盤(pán)點(diǎn)2018年計(jì)算機(jī)視覺(jué)領(lǐng)域技術(shù)突破
因而,Video-to-Video Synthesis也被看作是在過(guò)去幾年中,視頻領(lǐng)域的一次重大突破,畢竟從靜態(tài)框架轉(zhuǎn)換為動(dòng)態(tài)框架的難度是很大的,但機(jī)器訓(xùn)練卻在盡量模擬預(yù)測(cè)視頻將會(huì)發(fā)生的情景,通過(guò)給定的輸入視頻學(xué)習(xí)映射函數(shù),產(chǎn)生仿真度極高的視頻內(nèi)容。
本文引用地址:http://www.ex-cimer.com/article/201901/396390.htmFast.ai18分鐘訓(xùn)練ImageNet
在普遍認(rèn)知還停留在需要大量計(jì)算資源來(lái)執(zhí)行適當(dāng)?shù)纳疃葘W(xué)習(xí)任務(wù)時(shí),F(xiàn)ast.ai通過(guò)使用16個(gè)公共AWS云實(shí)例,每個(gè)配備8個(gè)NVIDIA V100 GPU,運(yùn)行fast.ai和PyTorch,用18分鐘在ImageNet上將圖像分類模型訓(xùn)練到了93%的準(zhǔn)確率,刷新了一個(gè)新的速度記錄。
這是一個(gè)令人驚喜的結(jié)果,尤其在公共基礎(chǔ)設(shè)施上訓(xùn)練ImageNet能達(dá)到這種準(zhǔn)確性,并且比其專有TPU Pod群集上的谷歌DAWNBench記錄快40%,運(yùn)行成本僅約為40美元。這意味著一個(gè)關(guān)鍵的里程碑出現(xiàn)了,幾乎所有人都可以在一個(gè)相當(dāng)大的數(shù)據(jù)集上訓(xùn)練大規(guī)模神經(jīng)網(wǎng)絡(luò)。
除了這些重要的節(jié)點(diǎn)之外,2018年的計(jì)算機(jī)視覺(jué)技術(shù)也部署更多方面,不論是亞馬遜發(fā)布Rekognition將計(jì)算機(jī)視覺(jué)置于開(kāi)發(fā)人員、微軟為OneDrive和SharePoint推出了新的AI服務(wù)、Google相冊(cè)讓我們的記憶變得可搜索、還是每個(gè)場(chǎng)景下都正在逐漸普及的AI人臉識(shí)別等等,計(jì)算機(jī)視覺(jué)正在逐步滲透到我們生活的每個(gè)部分。
最后,最值得注意的是,計(jì)算機(jī)視覺(jué)的市場(chǎng)增長(zhǎng)幾乎與其技術(shù)能力的增長(zhǎng)是一樣快的,預(yù)計(jì)到 2025年,計(jì)算機(jī)視覺(jué)領(lǐng)域會(huì)帶來(lái)超過(guò)262億美元的收益,因而在人工智能的未來(lái)里,計(jì)算機(jī)視覺(jué)一定是最有力的表現(xiàn)形式,并將隨處可見(jiàn)。
評(píng)論