<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 智能計算 > 設計應用 > 研究人員分享如何利用 AI 技術解決水下圖片模糊和著色問題

          研究人員分享如何利用 AI 技術解決水下圖片模糊和著色問題

          作者:靈火K 時間:2019-12-31 來源:雷鋒網 收藏
          編者按:生成式對抗網絡應用廣泛。

          你是否注意到,當拍攝水下照片的時候圖像會出現(xiàn)比以往拍攝效果更嚴重的模糊并且失真的情況?這是因為光衰減和反向散射等現(xiàn)象會對可見度產生不利影響。

          本文引用地址:http://www.ex-cimer.com/article/201912/408807.htm

          為了解決這個問題,中國哈爾濱工程大學的研究人員設計了一種機器學習算法,該算法可以生成逼真的;另一種算法,則可以對這些圖像進行深度訓練,以達到恢復自然色彩并減少霧度的效果。他們說,這種方法在質量和數(shù)量上都與最新技術相匹配,并且能夠在單個顯卡上以每秒 125 幀的速度進行處理。

          該團隊指出,大多數(shù)增強算法(例如那些調整白平衡的算法)都不是基于物理成像模型實現(xiàn),這使其不適用于一些任務。相比之下,這種方法利用了生成式對抗網絡( GAN )(一種深度學習模型,模型通過框架中兩個模塊:生成模型和判別模型的互相博弈學習產生相當好的輸出),以生成一組特定調查地點的圖像并在此基礎上引入第二種算法, U-Net 。

          研究小組對 GAN 進行了一系列有標記場景的訓練,這些場景包括 3733 幅圖像和相應的深度地圖,主要包括扇貝、海參、海膽和室內海洋農場內的其他此類生物。他們還獲得了包括 NY Depth 在內的公開數(shù)據集,其中包含了總共數(shù)千張水下照片。

          訓練后,研究人員將雙模型方法的結果與基線模型方法的結果進行了比較。他們指出,前者技術的優(yōu)勢在于它在顏色恢復上是統(tǒng)一的,這使它能在很好恢復綠色色調圖像的同時,不破壞原始輸入圖像的底層結構。通常情況下,這種方式在保持“適當?shù)摹绷炼群蛯Ρ榷鹊耐瑫r,還能設法恢復顏色,而在這方面其他解決方案并不特別擅長。

          值得注意的是,這并不是第一個想到利用技術從損壞的圖片中重建畫面的研究團隊。劍橋咨詢( Cambridge Consultants )公司的 系統(tǒng) DeepRay 利用了一套訓練有素的 GAN 來處理 10 萬張靜止圖像的數(shù)據集,以消除不透明的玻璃窗格導致的失真。開源 DeOldify 項目使用了包括 GANs 在內的一系列人工智能模型來對舊圖像和膠片進行著色和恢復。

          在其他方面,微軟亞洲研究院( Microsoft Research Asia )的科學家在 9 月份詳細介紹了一個用于自主視頻著色的端到端系統(tǒng); NVIDIA 的研究人員去年描述了一個框架,該框架僅基于一個被注釋過得彩色視頻幀推斷顏色分類;今年 6 月,谷歌團隊推出了一種無需人工監(jiān)督即可對灰度視頻進行著色的算法。

          venturebeat

          本文轉自雷鋒網,如需轉載請至雷鋒網官網申請授權。

          原文章地址為研究人員分享如何利用 AI 技術解決水下圖片模糊和著色問題



          關鍵詞: 水下圖像 AI

          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();