<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          關(guān) 閉

          新聞中心

          EEPW首頁 > 工控自動化 > 設(shè)計應(yīng)用 > 一種基于局部信息的臉部特征定位方法

          一種基于局部信息的臉部特征定位方法

          ——
          作者: 時間:2010-01-25 來源:電子產(chǎn)品世界 收藏

            臉部特征定位,即在圖像或圖像序列的給定區(qū)域內(nèi)搜索部分或所有人臉特征(如眼、鼻、嘴、耳等)的位置、關(guān)鍵點(diǎn)或輪廓線。其中包括眼睛、鼻子、嘴巴、下頜、耳朵以及人臉外輪廓等所有需要提取特征點(diǎn)的位置。臉部特征定位可以為人臉識別、姿態(tài)表情分析、人臉跟蹤等研究工作提供重要的幾何信息,特征定位的準(zhǔn)確與否直接關(guān)系到后續(xù)應(yīng)用的可靠性因而具有舉足輕重的地位。

          本文引用地址:http://www.ex-cimer.com/article/103943.htm

            ASM(Active Shape Models)是基于幾何形狀信息的方法之一,由Cootes等于1992年提出。它采用點(diǎn)分布模型(Point Distribution Model,PDM)描述形狀變化,另一方面計算各特征點(diǎn)法線方向上灰度值的一階偏導(dǎo),并建立局部紋理模型。在搜索時通過紋理模型得到當(dāng)前點(diǎn)的最佳匹配位置,然后調(diào)節(jié)形狀模型,最終達(dá)到對特征的精確定位。由于匹配準(zhǔn)則的問題ASM容易陷入局部極小點(diǎn),對于初始位置要求比較高。

            Wiskott等將Gabor小波用于人臉識別領(lǐng)域,提出了彈性圖的概念并用于臉部特征的定位。該方法可以適用于一定程度的姿態(tài)及表情變化,實(shí)踐證明是有效的。由于該方法在搜索時需要在整幅圖上尋找特征點(diǎn)的最佳匹配位置,這一過程十分費(fèi)時,計算量也很大。Jiao等使用Gabor小波提取局部紋理特征,Gabor特征的幅值與相位包含了豐富的人臉局部紋理信息,在搜索時可以提供指導(dǎo)。由進(jìn)一步的研究分析可知,不僅特征點(diǎn)的Gabor系數(shù)特征包含局部紋理的有用信息,特征點(diǎn)周圍鄰域中各點(diǎn)的Gabor系數(shù)特征也是很有用的。基于此,提出了一種基于局部信息的臉部特征定位方法RGASM(Region GaborASM)。

            1 標(biāo)準(zhǔn)ASM介紹

            1.1 形狀建模

            如圖1所示,在ASM中目標(biāo)形狀用分布在臉輪廓、眼睛及嘴等位置處的一組點(diǎn)的坐標(biāo)來表示,同類目標(biāo)形狀構(gòu)成一個訓(xùn)練集。為了描述訓(xùn)練集中各形狀相對于平均形狀的變化,需要建立一個點(diǎn)分布模型(PDM)。該模型給出訓(xùn)練集中各形狀的平均形狀,同時提供一些參數(shù),通過調(diào)整這些參數(shù)可以控制形狀的變化。

            

           

            訓(xùn)練集中的形狀矢量數(shù)學(xué)的表示為X=[x1,x2,…,xn,yl,y2,…,yn]T,通過Procrustes方法將訓(xùn)練集中所有形狀進(jìn)行對齊,然后對形狀矢量進(jìn)行主成分分析,得到

            X=X+Pb (1)

            其中,X是平均形狀,P是特征向量矩陣,b是形狀參數(shù)。

            矢量b定義了一組形狀參數(shù),可以通過改變b中的元素值使式(1)中的形狀變化。為了使變化后的形狀近似于訓(xùn)練集中的形狀,應(yīng)該將b中元素值的變化范圍加以限制。

            1.2 局部紋理模型

            局部紋理模型用來描述每個特征點(diǎn)周圍區(qū)域的紋理特征,ASM的紋理模型是通過統(tǒng)計在特征點(diǎn)所在位置處法線方向采樣所得的灰度剖面的一階差分的變化得到的。

            對于第i幅圖像的第j個特征點(diǎn),在其法線方向采樣得到灰度剖面gij,計算得到訓(xùn)練集中所有圖像對于第j個特征點(diǎn)的灰度剖面gij(i=l,2,…,N),將它們歸一化并求得平均值gi以及方差矩陣Si,從而建立局部紋理模型。

            1.3 搜索過程

            采用1.1節(jié)和1.2節(jié)中方法,可以訓(xùn)練出一個靈活的形狀模型及局部紋理模型。利用它們可以對新的人臉圖像進(jìn)行特征點(diǎn)搜索,搜索過程的示意圖,如圖2所示。

            

           

            其中關(guān)鍵是求解達(dá)到最佳位置的偏移量。搜索時,同樣沿法線方向采樣得到比建模時長的搜索剖面,在其中尋找與該點(diǎn)對應(yīng)的灰度模型的均值矢量最匹配的子特征矢量,并將該子特征矢量中心位置作為當(dāng)前點(diǎn)的最佳匹配位置。目標(biāo)函數(shù)為子特征矢量gs與該點(diǎn)對應(yīng)模型的均值矢量gj的Mahalanobis距離

            

           

            分析可知,在當(dāng)前位置處搜索當(dāng)前點(diǎn)的最佳匹配位置就需要使得fj(gs)取得最小值。

            根據(jù)以上所述,在搜索時通過紋理模型得到當(dāng)前點(diǎn)的最佳匹配位置,然后調(diào)節(jié)紋理模型,通過不斷的迭代直到形狀的改變量可以忽略不計為止。

            2 基于Gabor小波變換的臉部特征定位方法

            2.1 利用Gabor小波變換提取局部紋理特征

            1964,年,Gabor提出了著名的以自己名字命名的Gabor函數(shù),它是高斯函數(shù)在頻域中的平移,能夠同時在時域和頻域中很好的兼顧對信號分析的分辨率要求。二維Gabor函數(shù)較好的描述了哺乳動物初級視覺系統(tǒng)對簡單視覺神經(jīng)元的感受特性。Daugman于上世紀(jì)80年代首次將其應(yīng)用在計算機(jī)視覺領(lǐng)域。

            二維Gabor函數(shù)表達(dá)形式為

            

           

            選擇5個不同頻率,v=O,…,4及8個方向μ=0,…,7,從而得到40個不同的Gabor濾波器j=μ+8v。式(7)括號中的第二項(xiàng)可以使該小波核與直流分量無關(guān),即可以消除積分項(xiàng)

          這使得濾波器對圖像光照不均的魯棒性較好。

           

            對圖像I(x)中的一點(diǎn)x=(x,y),定義該點(diǎn)灰度值與Gabor。函數(shù)的卷積為

            

           

            依次用不同頻率與方向組合成的40個Gabor函數(shù)進(jìn)行卷積得到40個復(fù)系數(shù),稱它們?yōu)橐粋€Jet,記作Jj=ajexp(iφj),用它來表示局部紋理特征。其中幅值aj(x)部分隨著x的變化緩慢變化,相位部分φj(x)以與Gabor核頻率相近的速度旋轉(zhuǎn)。

            

           

            2.2 紋理建模

            對于訓(xùn)練集中每幅人臉圖像,筆者定義了一組特征點(diǎn),Pi(i=1,2,…,n),n是特征點(diǎn)的個數(shù)(選取了58個)。對于每個點(diǎn),Gabor特征計算方法如下

            以第i幅圖第j個特征點(diǎn)為中心在其周圍選取一個半徑為4的圓形鄰域Rij,這里i=1,2,…,N,N為訓(xùn)練集中圖像的個數(shù),j=1,2,…,n,n是特征點(diǎn)的個數(shù),計算該區(qū)域內(nèi)每個點(diǎn)對應(yīng)的Gabor Jet,將這些Jet連接合成一個新的復(fù)矢量JetL,J’ij作為該點(diǎn)的局部特征。假設(shè)第j個點(diǎn)對應(yīng)的J’ij(i=1,…,N)服從多變量高斯分布,求其均值為

            

           

            從而用每個均值來代替表示所有的J’ij。

            2.3 搜索過程

            搜索與標(biāo)準(zhǔn)ASM的搜索過程類似,只是在估計當(dāng)前點(diǎn)的偏移量時有所不同。當(dāng)前點(diǎn)偏移量的估計采取在特征點(diǎn)當(dāng)前位置周圍取塊進(jìn)行全搜索的方法,具體做法如下:以當(dāng)前Pi點(diǎn)為中心在其周圍取一個大小為16×16的方形鄰域Rei,采用與建模時相同方法計算鄰域中每個點(diǎn)處的特征復(fù)矢量Jjs(s=1,…,256)。在Jjs中搜索與該點(diǎn)模型相似度最大的,并將對應(yīng)點(diǎn)的位置作為當(dāng)前點(diǎn)的新位置。選取的判定準(zhǔn)則為

            

           

            可知,只需使上式中f(s)取得最小值便可以獲得當(dāng)前點(diǎn)Pj的偏移量dxj。相同的方法計算得到各點(diǎn)的偏移量,從而得到形狀的改變量dx。

            3 實(shí)驗(yàn)結(jié)果及分析

            為了測試文中提出的方法RGASM的有效性,將它與ASM方法進(jìn)行比較。這里所用的人臉庫是IMM庫,從庫中挑選了每人兩幅共80幅人臉圖像作為訓(xùn)練集。圖像的大小為640×480,每幅圖已經(jīng)進(jìn)行了特征點(diǎn)的人工標(biāo)定。特征點(diǎn)個數(shù)為58個,分布在眉毛、眼睛、鼻子、嘴以及外輪廓部位。

            這里分別做兩種誤差估計,一種是針對單幅圖像的偏差估計,計算給定圖像中搜索得到的特征點(diǎn)位置與對應(yīng)的人工標(biāo)定位置的偏移量。如圖4所示,x坐標(biāo)為特征點(diǎn)搜索所得位置與目標(biāo)位置的平均偏移量(以像素為單位),y坐標(biāo)為偏移量為對應(yīng)值的特征點(diǎn)個數(shù)占圖像中特征點(diǎn)總數(shù)的百分比。

            

           

            從圖4可以看出,通過RGASM方法得到的定位結(jié)果在平均誤差上小于ASM的平均定位誤差,方差也較小,算法對各特征點(diǎn)定位效果均衡。因此,與ASM方法相比,采用RGASM方法進(jìn)行特征定位可以在單幅圖像的特征點(diǎn)意義上取得好的定位效果。

            另一種是針對整個測試集的平均偏差估計,度量準(zhǔn)則為歐式距離

            

           

            其中N為測試圖像的個數(shù),n為標(biāo)定特征點(diǎn)的個數(shù),這里N取值為30,為58。(xij,yij)表示在第i幅測試圖像中的j個標(biāo)定點(diǎn)人工標(biāo)定的位置,而(x’ij,y’ij)為搜索得到的位置坐標(biāo)。

            

           

            表l給出了RGASM方法與ASM方法在特征定位上的效果比較情況。該測試說明在訓(xùn)練集較小時RGASM方法在定位精度上與ASM相比具有一定的優(yōu)勢。

            測試是在CPU為Pentium(R)43.0 GHz的計算機(jī)上完成的,采用標(biāo)準(zhǔn)ASM方法處理一幅圖像的平均時間為0.2~0.4 s,文中的RGASM方法的平均時間為0.6~0.9 s??梢钥闯?,文中提出的方法是有效、可行的。

            4 結(jié)束語

            文中提出了一種基于局部紋理信息的臉部特征定位方法,在紋理建模時對特征點(diǎn)及其給定鄰域各點(diǎn)均做Gabor變換以作為該特征點(diǎn)的局部紋理特征,然后采用統(tǒng)計方法進(jìn)行局部紋理建模,搜索時采用在當(dāng)前位置周圍取塊進(jìn)行全搜索的方法進(jìn)行特征的搜索定位。實(shí)驗(yàn)結(jié)果表明,該方法是一種有效的臉部特征定位方法。



          關(guān)鍵詞: 臉部識別 圖像識別

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();