<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 嵌入式系統(tǒng) > 設(shè)計(jì)應(yīng)用 > 基于SoPC的實(shí)時(shí)說話人識別控制器

          基于SoPC的實(shí)時(shí)說話人識別控制器

          作者: 時(shí)間:2010-09-12 來源:網(wǎng)絡(luò) 收藏

          1 算法簡介

          說話人識別系統(tǒng)主要實(shí)現(xiàn)建模及識別兩方面功能。建模功能提取語音的特征參數(shù)并存儲(chǔ)起來形成用戶模板。識別功能提取語音的特征參數(shù),與模板參數(shù)進(jìn)行匹配,計(jì)算其距離。系統(tǒng)框圖如圖1所示。本文采用改進(jìn)的DTW(Dynamic Time Warping)算法和LPCC(Linear prediction cepstrum coefficients)特征參數(shù)。

          1.1 LPCC算法

          (1)分幀:語音信號具有短時(shí)平穩(wěn)性[1],因此先將其分幀,再逐幀處理。

          (2)有效音檢測:有效音檢測基于短時(shí)能量和短時(shí)過門限率兩個(gè)參數(shù)。判決時(shí)采取兩級判斷法:若短時(shí)能量高于高門限則判為有聲;若低于低門限則判為靜音;若介于兩者之間,則再判斷其過門限率是否高于過門限率門限,若滿足則判為有聲,否則為靜音。

          (3)加窗:加窗可濾去不需要的頻率分量,同時(shí)有利于減少LPCC算法在幀頭及幀尾處的誤差。本設(shè)計(jì)采用漢明窗,其表達(dá)式如下:


          1.2 改進(jìn)的DTW算法

          1.2.1 全局約束

          圖2和圖3中,橫軸為測試語音參數(shù),縱軸為模板參數(shù),單位為幀。算法以測試語音為基準(zhǔn)逐幀進(jìn)行。如圖2,傳統(tǒng)的DTW算法中,測試參數(shù)長度無法預(yù)知時(shí)全局約束便無法確定。圖3為改進(jìn)后的DTW,可在未知測試參數(shù)長度的情況下進(jìn)行全局約束,配合幀同步算法,便于算法的

          1.2.2 局部約束

          得到當(dāng)前距離后便要進(jìn)行前向路徑搜索。n=1指定與m=1匹配。從n=2開始,每個(gè)交叉點(diǎn)(n,m)可能的前向路徑為(n-1,m)、(n-1,m-1)、(n-1,m-2),選出其中最小者作為當(dāng)前點(diǎn)(n,m)的前向路徑,并將該點(diǎn)的累加距離和加上其當(dāng)前距離作為當(dāng)前點(diǎn)的累加距離。最終在n=N處可得到若干個(gè)累加距離,選其最小者為最終匹配結(jié)果。

          1.3 Matlab仿真

          1.3.1 實(shí)驗(yàn)1:對個(gè)性信息的識別能力

          實(shí)驗(yàn)1的目的在于觀察算法對于話者個(gè)性信息的識別能力,實(shí)驗(yàn)用的語音均為各話者對正確詞“開門”的發(fā)音,以避免不同單詞帶來的影響。實(shí)驗(yàn)結(jié)果如圖4所示,系統(tǒng)的等錯(cuò)誤率(EER)為0.01,即當(dāng)錯(cuò)識率為0.01時(shí)錯(cuò)拒率也為0.01。

          1.3.2 實(shí)驗(yàn)2:對語意信息的識別能力

          實(shí)驗(yàn)2的目的在于觀察識別算法對于語意的識別能力,實(shí)驗(yàn)用的語音均為同一話者對正確詞及錯(cuò)誤詞的發(fā)音,以避免因不同話者帶來的影響。如圖5所示,在門限為1.25時(shí)得到系統(tǒng)的等錯(cuò)誤率(EER)為0.01。比較實(shí)驗(yàn)1、實(shí)驗(yàn)2的結(jié)果可知,算法對語義的識別能力和對話者個(gè)性信息的識別能力相近。

          1.3.3 實(shí)驗(yàn)3:綜合測試

          實(shí)驗(yàn)3綜合考慮了話者的個(gè)性信息及語意信息。如圖6所示,在門限為1.4時(shí),得到系統(tǒng)的等錯(cuò)誤率為0.01,也即此時(shí)系統(tǒng)的正確識別率為99%,同時(shí)存在1%的錯(cuò)誤識別率。

          2 系統(tǒng)構(gòu)建

          (1)CPU設(shè)置。NiosII core選定為NiosII/f。使能嵌入式硬件乘法器。復(fù)位地址設(shè)為cfi_flash,異常向量地址設(shè)定為ssram_2M,在custom instructions中添加用戶自定義指令floating Point Hardware。

          (2)定時(shí)器設(shè)置。本設(shè)計(jì)使用了兩個(gè)定時(shí)器。Timer用于產(chǎn)生內(nèi)部中斷采集語音樣點(diǎn),設(shè)其計(jì)時(shí)周期為125 μs(對應(yīng)采樣率8 kHz)。Timer_stamp用于插入時(shí)間標(biāo)簽,定時(shí)周期采用默認(rèn)值。

          (3)其他外設(shè)。NiosII核中還包含以下外設(shè):片上RAM/ROM、FLASH、SDRAM、SSRAM、按鍵、開關(guān)、LED、音頻模塊、七段數(shù)碼管、LCD。

          3 軟件流程

          總體工作流程如圖7所示。系統(tǒng)首先初始化,然后讀出模板數(shù)據(jù),等待用戶按下按鍵。在此期間,用戶應(yīng)設(shè)置好系統(tǒng)工作模式(建?;蜃R別)及話者代碼。然后按下按鍵開始以中斷方式采集語音,并運(yùn)行函數(shù)主體。

          識別部分流程如圖8所示。函數(shù)首先判斷語音是否已經(jīng)采集完畢及LPCC算法是否已經(jīng)進(jìn)行到最后一幀,若同時(shí)滿足則結(jié)束運(yùn)算,否則繼續(xù)運(yùn)行。若當(dāng)前幀為有效音,則計(jì)算出其LPCC,并調(diào)用DTW子函數(shù),針對各模板分別計(jì)算距離得分。運(yùn)算完所有語音幀后,便可得到測試語音對各模板的最終得分,取其最大者記為當(dāng)次得分。若該得分大于得分門限,則識別通過;否則予以拒絕。


          建模部分流程的前半部分與識別過程類似,不同之處在于建模過程只調(diào)用了LPCC算法。算法完成后,系統(tǒng)將LPCC矩陣寫入對應(yīng)的Flash地址空間存儲(chǔ)。

          4 軟硬件協(xié)同設(shè)計(jì)與優(yōu)化

          4.1 軟件設(shè)計(jì)與優(yōu)化

          (1)將數(shù)據(jù)緩存至SDRAM。最初的程序設(shè)計(jì)中使用數(shù)組存儲(chǔ)大型變量,后來改為將這些數(shù)據(jù)緩存于SDRAM中。改進(jìn)后,在板運(yùn)行速度無明顯改變,但NiosII軟件的運(yùn)行速度及穩(wěn)定性得到了提高。

          (2)用float數(shù)據(jù)類型代替double。最初的程序大量使用了雙精度數(shù)據(jù)類型,但后來發(fā)現(xiàn)單精度浮點(diǎn)型已經(jīng)可以滿足要求,因此將數(shù)據(jù)類型改為單精度浮點(diǎn)型(float),使得程序運(yùn)行速度提升了一倍。

          (3)用指針方式訪問數(shù)組。改用指針的方式訪問數(shù)組改善了程序的執(zhí)行效率,運(yùn)行速度有一定提升。

          (4)用讀表法獲取漢明窗函數(shù)。最初的程序是通過運(yùn)算公式的方式得到窗函數(shù)的各個(gè)樣點(diǎn)值的,后改用讀表法,使得加漢明窗這一步驟耗時(shí)減少了98.7%,整個(gè)LPCC運(yùn)算耗時(shí)因此減少了59.3%。

          (5)語音數(shù)據(jù)存儲(chǔ)為float類型。最初的設(shè)計(jì)中,系統(tǒng)采集到原始語音數(shù)據(jù)后直接將其存儲(chǔ)起來,后來改為將數(shù)據(jù)解碼后再存儲(chǔ),使得LPCC中取語音部分的時(shí)間由888 μs降至98μs。

          4.2 硬件設(shè)計(jì)與優(yōu)化

          (1)用定時(shí)器中斷方式采集語音。最初的設(shè)計(jì)中,系統(tǒng)必須在采集完所有語音數(shù)據(jù)之后才能對其進(jìn)行處理。后改用中斷方式采集語音,則可實(shí)現(xiàn)每采集滿一幀語音數(shù)據(jù)便進(jìn)行處理,極大地提升了處理速度。

          (2)添加用戶自定義浮點(diǎn)指令。語音信號處理過程涉及大量單精度浮點(diǎn)型數(shù)據(jù)的運(yùn)算,因此在CPU中添加浮點(diǎn)指令。加入浮點(diǎn)指令后,系統(tǒng)耗時(shí)降低了90%以上。

          本設(shè)計(jì)在算法上充分利用了DTW算法的特點(diǎn),既能識別語音內(nèi)容又能區(qū)分說話人,很好地完成了文本有關(guān)的說話人識別功能。同時(shí)對識別算法進(jìn)行幀同步處理,為算法的實(shí)時(shí)實(shí)現(xiàn)打下基礎(chǔ)。本設(shè)計(jì)在實(shí)現(xiàn)時(shí)采用軟硬件協(xié)同設(shè)計(jì)方法,在軟件和硬件上進(jìn)行設(shè)計(jì)和優(yōu)化,使得設(shè)計(jì)有很好的實(shí)時(shí)性。

          作品的實(shí)際測試情況是:選取門限為1.5時(shí),系統(tǒng)的錯(cuò)識率可降至0%,此時(shí)正確識別率為90%,還有10%的拒識。識別時(shí)系統(tǒng)的響應(yīng)時(shí)間是8.5 ms。



          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();