一種偽裝聲音的識別方法及裝置制造方法
【專利摘要】本發(fā)明公開一種偽裝聲音的識別方法及裝置,該識別方法是利用語音的基頻特性估計語音轉(zhuǎn)換的系數(shù),并對Mel頻率倒譜系數(shù)提取算法進(jìn)行了改進(jìn),即利用線性插值伸縮將估計的系數(shù)整合到Mel頻率倒譜系數(shù)提取算法中,使其能近似計算出轉(zhuǎn)換語音在轉(zhuǎn)換前的Mel頻率倒譜系數(shù)。最后,將以上方法整合到GMM-UBM(高斯混合模型-一致背景模型)識別框架中,計算語音之間的相似度。同時,還能利用該估計的轉(zhuǎn)換系數(shù)將轉(zhuǎn)換后的語音還原為原語音。本發(fā)明在識別性能上相比常規(guī)識別取證方法有極大的提高,漏檢和虛警皆比常規(guī)的方案要低。
【專利說明】一種偽裝聲音的識別方法及裝置
【技術(shù)領(lǐng)域】
[0001]本發(fā)明涉及多媒體信息安全領(lǐng)域,更具體地,涉及一種偽裝聲音的識別方法及裝置。
【背景技術(shù)】
[0002]語音轉(zhuǎn)換(Voice Transformation)是最常用的語音處理方法之一。其功能是把一聲音變?yōu)榱硪宦犉饋碜匀粎s完全不同的聲音。語音轉(zhuǎn)換通常用于音樂制作或保護(hù)說話人的安全和隱私,但也有可能被罪犯用來掩飾聲音,以防被識別到身份。因此語音轉(zhuǎn)換后的說話人身份識別具有重要的應(yīng)用價值。
[0003]語音轉(zhuǎn)換的一般步驟:
[0004]I)對信號X (η)分幀、加窗:
【權(quán)利要求】
1.一種偽裝聲音的識別方法,其特征在于,所述方法包括: 在訓(xùn)練階段,利用最大期望值EM算法從背景語音庫中計算一致背景模型UBM λ bkg ; 在訓(xùn)練階段,提取說話人j的測試語音S」的Mel倒譜系數(shù)MFCC及基頻,利用最大后驗概率MAP算法計算說話人j的高斯混合模型GMM Aj.,計算基頻平均值& ;建立說話人j的模型'=(λ j, fj),并存儲在模型數(shù)據(jù)庫中; 在訓(xùn)練階段獲得閾值Θ,閾值Θ獲取方法:計算客戶分?jǐn)?shù)及假冒者分?jǐn)?shù),利用這兩類分?jǐn)?shù)的分布選擇閾值Θ以達(dá)到符合應(yīng)用要求的漏檢率和虛警率,其中客戶分?jǐn)?shù)ClientScores,是說話人語音片段在該說話人模型下的概率,假冒者分?jǐn)?shù)Imposter Scores,是說話人語音片段在其它說話人模型下的概率; 在測試階段,語音Y為經(jīng)過轉(zhuǎn)換后的語音,提取語音Y的基頻平均值fY ;利用fY/fj計算轉(zhuǎn)換系數(shù);利用改進(jìn)型MFCC提取算法計算Y轉(zhuǎn)換前的原始MFCC系數(shù)X ;經(jīng)基于GMM-UBM的概率估計算法得出Y為模型 ' 的概率Λ (X); 比較概率Λ (X)與閾值Θ,若所得概率大于閾值Θ則語音Y為j所說片段;否則語音Y不為j所說; 其中所述改進(jìn)型MFCC提取算法具體為:在MFCC提取算法中的加窗和FFT變換之后,對FFT系數(shù)的幅值|F(k) I進(jìn)行線性插值伸縮得出|F(k' ) |,F(xiàn)FT系數(shù)的幅值線性插值伸縮如下公式所示:
F(k/ ) Ι = μ |F(k) I+ (1-μ ) |F(k+l) O ≤ k〈N/2 OC <N/2k-\k'l{\ia')]
μ =k' / (I/ a ' )-k 其中I/a '為所述估計的轉(zhuǎn)換系數(shù)的倒數(shù),a '為估計的轉(zhuǎn)換系數(shù),a ' =fY/fJO
2.根據(jù)權(quán)利要求1所述的偽裝聲音的識別方法,其特征在于,所述基頻的提取步驟如下: (1)對信號加窗求得到任一時刻tmid前后一個預(yù)定長度值的信號; (2)求所述預(yù)定長度值的信號的自相關(guān)函數(shù)和窗函數(shù)的自相關(guān)函數(shù); (3)兩相關(guān)函數(shù)相除,最大值處即為周期T,獲取該時刻tmid的基頻F。
3.根據(jù)權(quán)利要求2所述的偽裝聲音的識別方法,其特征在于,所述基頻平均值為mean (F), mean (.)為求平均。
4.根據(jù)權(quán)利要求1所述的偽裝聲音的識別方法,其特征在于,當(dāng)α' >1,需進(jìn)行頻譜補(bǔ)償;令奈奎斯特頻率為Fn ;補(bǔ)償方法是在Fn/2/ α,至Fn/2/ α,_Fn/2之間的頻譜中對稱拷貝入Fn/2/ α,至Fn/2/的范圍內(nèi)。
5.一種偽裝聲音的識別裝置,其特征在于,包括: 訓(xùn)練模塊,用于利用最大期望值EM算法從背景語音庫中計算一致背景模型UBM λ bkg ;提取說話人j的測試語音S」的Mel倒譜系數(shù)MFCC及基頻,利用最大后驗概率MAP算法計算說話人j的高斯混合模型GMM Aj.,計算基頻平均值f」;建立說話人j的模型Vj= ( λ j, fj),并存儲在模型數(shù)據(jù)庫中,在訓(xùn)練階段獲得閾值Θ ; 其中閾值Θ獲取方法:計算客戶分?jǐn)?shù)及假冒者分?jǐn)?shù),利用這兩類分?jǐn)?shù)的分布選擇閾值Θ以達(dá)到符合應(yīng)用要求的漏檢率和虛警率,其中客戶分?jǐn)?shù)Client Scores,是說話人語音片段在該說話人模型下的概率,假冒者分?jǐn)?shù)Imposter Scores,是說話人語音片段在其它說話人模型下的概率; 測試模塊,在語音Y為經(jīng)過轉(zhuǎn)換后的語音,提取其基頻平均值fY ;利用fY/%計算轉(zhuǎn)換系數(shù);利用改進(jìn)型MFCC提取算法計算Y轉(zhuǎn)換前的原始MFCC系數(shù)X ;經(jīng)基于GMM-UBM的概率估計算法得出Y為模型 ' 的概率Λ⑴; 識別模塊,比較概率Λ⑴與閾值Θ,若所得概率大于閾值Θ則語音Y為j所說片段;否則語音Y不為j所說; 其中測試模塊中采用的改進(jìn)型MFCC提取算法具體為:在MFCC提取算法中的加窗和FFT變換之后,對FFT系數(shù)的幅值|F(k) I進(jìn)行線性插值伸縮得出|F(k' ) |,F(xiàn)FT系數(shù)的幅值線性插值伸縮如下公式所示:
【文檔編號】G10L17/04GK103730121SQ201310728591
【公開日】2014年4月16日 申請日期:2013年12月24日 優(yōu)先權(quán)日:2013年12月24日
【發(fā)明者】王泳, 黃繼武 申請人:中山大學(xué), 深圳大學(xué)