<meter id="pryje"><nav id="pryje"><delect id="pryje"></delect></nav></meter>
          <label id="pryje"></label>

          新聞中心

          EEPW首頁 > 業(yè)界動態(tài) > OPPO小布助手5篇論文入選國際語音頂會Interspeech 2023

          OPPO小布助手5篇論文入選國際語音頂會Interspeech 2023

          作者: 時間:2023-06-09 來源: 收藏

          近日,語音技術領域國際會議Interspeech公布了本屆論文審稿結果,OPPO小布智能中心智能交互部語音技術組有5篇論文被大會收錄。本次被接收的論文研究方向涵蓋語音識別、模型壓縮、目標說話人提取、語音鑒偽、異常聲音檢測等。

          本文引用地址:http://www.ex-cimer.com/article/202306/447528.htm

          Interspeech是國際語音通信協(xié)會(International Speech Communication Association, ISCA)舉辦的年度會議,也是全球最大、最全面的專注于語音通信領域的學術盛會。Interspeech會議已成為該領域中來自各行各業(yè)的專家、研究人員、學生等,共同探討、交流和分享前沿的語音技術、認知和創(chuàng)新的聚集地。本屆Interspeech會議將于2023年8月20日至8月24日于愛爾蘭都柏林舉辦。

          論文題目:Multi-Channel Multi-Speaker Transformer for Speech Recognition

          論文作者:郭一凡,田垚,索宏彬,萬玉龍

          論文單位:OPPO

          核心內(nèi)容:隨著線上會議和車載語音助手的發(fā)展,遠場多說話人語音識別已經(jīng)成為了一個熱門的研究課題。近日,研究人員提出了一種多通道Transformer結構(Multi-Channel Transformer, MCT)。這一工作證明了Transformer結構具有建模遠場聲學環(huán)境的能力。然而,當存在多個說話人同時發(fā)聲時,說話人之間存在的相互干擾,會導致MCT無法直接從多人混合音頻中直接為每個說話人編碼出對應的高維聲學特征?;诖?,我們在本文中提出了多通道多說話人Transformer語音識別結構。在SMS-WSJ開源數(shù)據(jù)集上的實驗顯示,我們提出的結構相較于基于神經(jīng)網(wǎng)絡波束形成器(Neural Beamformer),MCT,具有轉(zhuǎn)換平均連接的雙路徑RNN(Dual-Path RNN with
          Transform-Average-Concatenate)以及多通道深度聚類(Multi-Channel Deep Clustering)的方法,識別詞錯率分別下降了相對9.2%, 14.3%, 24.9%和52.2%。

          論文題目:Task-Agnostic Structured Pruning of Speech Representation Models

          論文作者:王皓宇,王思遠,張衛(wèi)強,萬玉龍

          論文單位:清華大學,OPPO

          核心內(nèi)容:近年來,基于無監(jiān)督預訓練技術的語音表征模型為許多語音任務帶來了顯著的進步,但另一方面,這些模型通常包括大量的參數(shù),對硬件平臺的計算能力和內(nèi)存空間有很高的要求。為了將大模型部署到生產(chǎn)環(huán)境,模型壓縮技術至關重要。結構化剪枝不需要特殊硬件就可以實現(xiàn)參數(shù)壓縮和推理加速,是一種對硬件友好的模型壓縮方法,但同時也會帶來較大的性能損失。為了彌補性能損失,我們提出了一種細粒度的注意力頭剪枝方法;除此之外,我們將梯度直通估計(Straight Through Estimator,STE)引入到L0正則化剪枝方法中,讓模型參數(shù)的分布更加緊湊,從而實現(xiàn)了進一步的加速。我們在SUPERB排行榜上的實驗表明,我們的壓縮模型比Wav2vec 2.0 Base模型平均性能更好,同時參數(shù)量比前者減少30%,推理時間比前者減少50%。

          論文題目:SEF-Net: Speaker Embedding Free Target Speaker Extraction Network

          論文作者:曾邦,索宏彬,李明

          論文單位:武漢大學,昆山杜克大學,OPPO

          核心內(nèi)容:主流的目標說話人分離方法使用目標人的聲紋embedding作為參考信息。獲取聲紋embedding的方式主要有兩種:一是使用預訓練的說話人識別模型進行聲紋提取,二是采用多任務學習聯(lián)合訓練說話人識別模型來提取聲紋。然而,由這兩種方案的聲紋提取模塊都是面向說話人識別任務進行最優(yōu)化訓練的,所提取的聲紋embedding對于目標說話人分離任務可能并不是最優(yōu)的。本文提出一種新穎的、不依賴于聲紋embedding的時域目標說話人分離網(wǎng)絡SEF-Net。SEF-Net在Transformer解碼器中使用跨多頭注意力來隱式地學習注冊語音的Conformer編碼輸出中的說話人信息并進行目標說話人分離。實驗結果表明,SEF-Net與其他主流目標說話人提取模型相比具有可比性的性能。SEF-Net為在不使用預訓練說話人識別模型或說話人識別損失函數(shù)的情況下進行目標說話人提取提供了新的可行方案。

          論文題目:Robust Audio Anti-Spoofing Countermeasure with Joint Training of Front-End and Back-End Models

          論文作者:王興明,曾邦,萬玉龍,李明

          論文單位:武漢大學,昆山杜克大學,OPPO

          核心內(nèi)容:很多語音信號處理系統(tǒng)的準確性和可靠性在噪聲環(huán)境下往往會急劇下降。本文討論了在噪聲環(huán)境中的魯棒偽造語音檢測方法構建。首先,我們嘗試使用預訓練的語音增強模型作為前端模型,并構建級聯(lián)系統(tǒng)。然而,增強模型的獨立降噪過程可能會扭曲語音合成產(chǎn)生的偽影或抹除包含在語音中的與偽造相關信息,進而導致偽造語音檢測性能下降。因此,本文提出了一種新的前端語音增強與后端偽造語音檢測聯(lián)合訓練的框架,來實現(xiàn)對噪聲場景魯棒的偽造語音檢測模型構建。所提出的聯(lián)合訓練框架在帶噪場景的ASVSpoof 2019 LA數(shù)據(jù)集和FAD數(shù)據(jù)集上均驗證了比樸素的偽造語音檢測后端更加有效。此外,本文還提出了一種交叉聯(lián)合訓練方案,使單個模型的性能可以達到不同模型得分融合的結果,從而使聯(lián)合框架更加有效和高效。

          論文題目:Outlier-aware Inlier Modeling and Multi-scale Scoring for Anomalous Sound Detection via Multitask Learning

          論文作者:章羽聰,索宏彬,萬玉龍,李明

          論文單位:昆山杜克大學、OPPO

          核心內(nèi)容:本文提出了一種異常聲音檢測方法,通過多任務學習將異常樣本曝光(outlier exposure)和內(nèi)部建模(inlier modeling)融合在一個統(tǒng)一的框架內(nèi)?;诋惓颖酒毓獾姆椒梢杂行У靥崛√卣?,但其魯棒性有待提高。內(nèi)部建模能夠生成魯棒的特征,但這些特征的效果并不理想。最近,一些串行和并行方法被提出來將這兩種方法結合起來,但它們都需要額外的步驟完成模型建模。這對于模型的訓練和維護都造成了一些不便。為了克服這些限制,我們使用多任務學習的方法訓練了一個基于Conformer的編碼器,用于異常感知的內(nèi)部建模。此外,我們的方法在進行推理的時候考慮了多尺度的異常打分,可以更加全面的評估異常值。在MIMII和DCASE 2020任務2數(shù)據(jù)集上的實驗結果表明,我們的方法優(yōu)于最先進的單模型系統(tǒng),并且與比賽中排名靠前的多系統(tǒng)集成模型有相當?shù)哪芰Α?/p>




          關鍵詞:

          評論


          相關推薦

          技術專區(qū)

          關閉
          看屁屁www成人影院,亚洲人妻成人图片,亚洲精品成人午夜在线,日韩在线 欧美成人 (function(){ var bp = document.createElement('script'); var curProtocol = window.location.protocol.split(':')[0]; if (curProtocol === 'https') { bp.src = 'https://zz.bdstatic.com/linksubmit/push.js'; } else { bp.src = 'http://push.zhanzhang.baidu.com/push.js'; } var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(bp, s); })();