<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 消費(fèi)電子 > 設(shè)計(jì)應(yīng)用 > 基于水印技術(shù)的MPEG-4形狀錯(cuò)誤隱藏

          基于水印技術(shù)的MPEG-4形狀錯(cuò)誤隱藏

          ——
          作者: 時(shí)間:2007-09-11 來源:現(xiàn)代電子技術(shù) 收藏
          l 引言

            隨著網(wǎng)絡(luò)和多媒體技術(shù)的迅速發(fā)展,人們對(duì)視頻應(yīng)用提出了新的要求,基于內(nèi)容的交互編碼標(biāo)準(zhǔn)就是適應(yīng)這一要求而提出來的。視頻編碼標(biāo)準(zhǔn)面向內(nèi)容編碼,視頻數(shù)據(jù)以基于內(nèi)容的方式進(jìn)行壓縮、傳輸、編輯、檢索,與以往視頻編碼標(biāo)準(zhǔn)的主要區(qū)別在于對(duì)象的概念,輸入的視頻不再足象素,而是視頻對(duì)象,以視頻對(duì)象作為操作的單位實(shí)現(xiàn)傳統(tǒng)編碼的所有功能。視頻對(duì)象按照時(shí)空關(guān)系組成的場景,但是場景的前景對(duì)象和背景對(duì)象得以獨(dú)立編碼,如圖1有兩種基本的基于視頻對(duì)象的視頻場景的組成方法,每個(gè)場景可以由直接從視頻序列中分隔的視頻對(duì)象組成((a)分隔場景),也可以是現(xiàn)有的視頻對(duì)象進(jìn)行組合((b)組成場景)。另外也有可能場景是由上述的兩種方法結(jié)合組成。

            視頻序列根據(jù)視頻對(duì)象進(jìn)行解釋和處理,這些視頻對(duì)象是由運(yùn)動(dòng)信息,紋理信息和形狀信息定義的。MPEG-4視頻包通常是基于數(shù)據(jù)分隔模式編碼的,形狀信息和運(yùn)動(dòng)信息是獨(dú)立于紋理信息的,是分別傳輸?shù)摹H绻y理信息發(fā)生了丟失,利用正確解碼的形狀信息和運(yùn)動(dòng)信息可以進(jìn)行紋理錯(cuò)誤隱藏。而如果形狀和運(yùn)動(dòng)信息都丟失了,則丟棄整個(gè)視頻包。

          分隔

            圖

          1 分隔、組成場景的組成方式

            形狀信息用Alpha掩模平面來表示,用二值定義(1表示不透明,0表示透明),或用灰度級(jí)定義(象素的透明程度介于0~255之間,1表示不透明,0表示透明)。一般都是使用二值掩模平面,視頻對(duì)象的每個(gè)象素位置被定義為完全透明或完全不透明。二值的形狀信息對(duì)于網(wǎng)絡(luò)上發(fā)生的錯(cuò)誤很敏感,并且會(huì)很容易發(fā)生錯(cuò)誤擴(kuò)散,將會(huì)影響連續(xù)幀的視頻對(duì)象解碼,現(xiàn)有的紋理和運(yùn)動(dòng)信息錯(cuò)誤隱藏技術(shù)都是在正確獲得形狀信息的基礎(chǔ)上得到的[1],這說明形狀錯(cuò)誤隱藏是很必要的。

            2形狀錯(cuò)誤隱藏技術(shù)回顧

            MPEG-4編碼標(biāo)準(zhǔn)提出了例如插入同步碼,數(shù)據(jù)分割,可逆變長編碼等錯(cuò)誤隱藏技術(shù)。但是這些技術(shù)對(duì)于現(xiàn)在的通信是不能滿足要求的。隨著錯(cuò)誤隱藏技術(shù)的發(fā)展,并且形狀錯(cuò)誤隱藏漸漸引起了很多專家的關(guān)注,一些關(guān)于形狀的錯(cuò)誤隱藏技術(shù)也相繼的被提出。在文獻(xiàn)[2-7]中提出了近年來的一些形狀錯(cuò)誤隱藏技術(shù)。

            提出的這些技術(shù)不外乎是根據(jù)圖像的自然屬性進(jìn)行錯(cuò)誤隱藏的,分空間域的錯(cuò)誤隱藏和時(shí)間域的錯(cuò)誤隱藏,空間域的主要是針對(duì)I幀的視頻對(duì)象形狀信息,而時(shí)間域的主要是針對(duì)P幀和B幀的視頻對(duì)象的形狀信息。時(shí)間域的錯(cuò)誤隱藏技術(shù)也都是基于I幀的形狀信息正確解碼,所以空間錯(cuò)誤隱藏更具有意義。文獻(xiàn)[2]提出的方法是利用了自適應(yīng)馬爾可夫域的最大后驗(yàn)估計(jì)(MAP)模型對(duì)圖像進(jìn)行預(yù)先的估計(jì),馬爾可夫是為了二值形狀信息設(shè)計(jì)的,參數(shù)是根據(jù)相鄰塊的信息自適應(yīng)確定的。據(jù)試驗(yàn)表明此方法能夠很精確地恢復(fù)形狀丟失的形狀信息,與中值濾波的方法比較,本文提出的方法能夠多恢復(fù)20%的丟失信息,獲得更好的客觀質(zhì)量。文獻(xiàn)[3,4]是比自適應(yīng)馬爾可夫方法更簡單的曲線插值方法,利用Hermite曲線和貝葉斯曲線的特性根據(jù)圖像的空間連續(xù)性來對(duì)邊界錯(cuò)誤塊進(jìn)行錯(cuò)誤隱藏。文獻(xiàn)[5-7]則是利用時(shí)間和運(yùn)動(dòng)信息進(jìn)行錯(cuò)誤隱藏的。

            這些方法都是在解碼端對(duì)錯(cuò)誤塊進(jìn)行修復(fù),并且也取得了很好的效果,但是這些方法針對(duì)的錯(cuò)誤率是有一定限制的,一旦出現(xiàn)了很嚴(yán)重的錯(cuò)誤,很大的丟包率則很難精確地恢復(fù)出正確的信息。不僅如此如果丟失的是細(xì)節(jié)部分利用曲線的特性并不能很精確地恢復(fù)信息,這些都對(duì)視頻對(duì)象的解碼很不利,并且如果是I幀的形狀信息沒有恢復(fù),則之后的利用時(shí)間域錯(cuò)誤隱藏技術(shù)也得不到理想的效果。

            3本文的算法

            針對(duì)此問題本文提出了一個(gè)新穎的基于數(shù)據(jù)隱藏的方法。此方法是收到數(shù)字的啟發(fā)。數(shù)字水印是信息隱藏技術(shù)的一種,廣泛地用于圖像、視頻、音頻等版權(quán)問題,具有透明性、魯棒性和可證明性,因此數(shù)字也越來越多地運(yùn)用到內(nèi)容認(rèn)證等其他領(lǐng)域。本文就是利用數(shù)字水印的特性與形狀的錯(cuò)誤隱藏技術(shù)進(jìn)行結(jié)合,這也是本文的主要?jiǎng)?chuàng)新點(diǎn)。本文主要是針對(duì)分隔場景視頻的I幀的形狀錯(cuò)誤隱藏,提出的主要思想是根據(jù)的形狀信息產(chǎn)生待嵌入的水印信息,而人們關(guān)注較少的背景對(duì)象則作為嵌入的宿主。

            數(shù)字水印按照嵌入的過程分為時(shí)域/空域水印和頻域/變換域水印,一般情況下頻域水印比時(shí)域水印有更強(qiáng)的魯棒性與透明性。本文則分別利用這兩種不同的實(shí)現(xiàn)方法來進(jìn)行。下面對(duì)這兩種方法分別進(jìn)行說明。

            3.1 利用頻域水印嵌入方法

            本文提出的頻域的方法是在DCT變換域中的,具體的實(shí)施方法如下:

            (1)首先將二值掩模圖像進(jìn)行采樣,縮小到原圖像的1/4。根據(jù)數(shù)字原理,嵌入的信息量越大則透明性越差。這樣做的目的是為了不會(huì)太大的影響宿主圖像的客觀質(zhì)量。

            (2)其次是選擇宿主圖像,本文是選擇背景對(duì)象作為宿主,一般視頻的背景對(duì)象可以轉(zhuǎn)換成RGB三個(gè)分量,據(jù)研究綠色分量對(duì)有損壓縮具有很強(qiáng)的頑健性[8]。為了完整地嵌入二值掩模還要對(duì)分隔場景的背景對(duì)象進(jìn)行插值,就是利用最簡單的水平插值的方法,利用每一行的與零象素相鄰的兩個(gè)非零值的平均值對(duì)零值象素位進(jìn)行填充。填充好的背景圖像作為最后的宿主圖像。

              (3)在上兩步的基礎(chǔ)上本文選擇將水印信息嵌入到宿主圖像的頻域信息中,將背景圖像分隔成2



          評(píng)論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();