亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于聲紋識別的用戶在線學習監(jiān)測方法

文檔序號:2552923閱讀:295來源:國知局
專利名稱:一種基于聲紋識別的用戶在線學習監(jiān)測方法
技術(shù)領(lǐng)域
本發(fā)明涉及一種用戶在線學習監(jiān)測方法,尤其涉及一種基于聲紋識別的用戶在線學習監(jiān)測方法。
背景技術(shù)
計算機輔助語言教學(computer-assistedlanguage learning,簡稱CALL),按照人們事先安排的語言教學計劃和內(nèi)容進行課堂教學和輔助課外操。早在1955年左右就有人探討如何把計算機用于教育?,F(xiàn)在,計算機輔助語言教學和遠程網(wǎng)絡(luò)結(jié)合起來廣泛應(yīng)用于口語學習。在線口語學習平臺因時間自由,費用低廉,越來越得到普通用戶的青睞;而對于口語學習平臺來說,用戶的增加,若不增加師資力量,必然導致單個用戶資源的不足,而當今社會,人力成本越來越高,如何有效的監(jiān)管用戶的學習情況,已成為擺在口語學習平臺的一個重要問題。同時,用戶帳號是用戶在線學習的重要憑證,傳統(tǒng)的帳號保護如密碼、安全卡都是一次認證,即用戶登錄的時候進行一次認證,后續(xù)使用過程將不需要再次認證,存在一定的安全隱患;利用口語學習通常需要語音的特點,可以通過對語音對用戶帳號安全進行實時監(jiān)控,以進一步保障帳號安全。

發(fā)明內(nèi)容
本發(fā)明所要解決的技術(shù)問題是提供一種基于聲紋識別的用戶在線學習監(jiān)測方法,能夠?qū)τ脩舻纳矸葸M行實時監(jiān)測,保護用戶的賬戶安全,監(jiān)測用戶的口語學習狀況。本發(fā)明為解決上述技術(shù)問題而采用的技術(shù)方案是提供一種基于聲紋識別的用戶在線學習監(jiān)測方法,包括如下步驟:a)當用戶通過在線學習系統(tǒng)注冊賬戶時,采集該用戶的語音并提取聲紋特征山)在通 用的用戶聲紋模型基礎(chǔ)上,根據(jù)該用戶語音的聲紋特征,為當前帳號建立一個該用戶的聲紋模型;c)用戶每次登錄系統(tǒng)進行口語學習時,先將監(jiān)測到登錄用戶的語音上傳到服務(wù)器;d)提取該段語音的聲紋特征并與該用戶注冊的聲紋模型進行匹配,若匹配成功,則證明是用戶本人在學習;反之,若匹配不成功,及時報警并提醒用戶。上述的基于聲紋識別的用戶在線學習監(jiān)測方法,其中,所述聲紋特征為梅爾倒譜參數(shù):(Xtl,…,Xi,…Xim),其中,Xi代表第i幀梅爾倒譜參數(shù),N為總幀數(shù),i為自然數(shù),I彡i彡N-1。上述的基于聲紋識別的用戶在線學習監(jiān)測方法,其中,所述梅爾倒譜參數(shù)中語音中貞長度為100 500巾貞,每巾貞100暈秒。上述的基于聲紋識別的用戶在線學習監(jiān)測方法,其中,所述通用的用戶聲紋模型λ ubm和用戶的聲紋模型λ user都為高斯混合模型:Aubm={ Qm, Um, Zm, m=l —M};λ user= { ω ' m, μ ' m, Σ ' m,m=l —Μ};
所述步驟d)中匹配過程包括計算聲紋匹配度score,若聲紋匹配度score大于預(yù)設(shè)閾值則匹配成功,所述聲紋匹配度score計算如下:
權(quán)利要求
1.一種基于聲紋識別的用戶在線學習監(jiān)測方法,其特征在于,包括如下步驟: a)當用戶通過在線學習系統(tǒng)注冊賬戶時,采集該用戶的語音并提取聲紋特征; b)在通用的用戶聲紋模型基礎(chǔ)上,根據(jù)該用戶語音的聲紋特征,為當前帳號建立一個該用戶的聲紋模型; c)用戶每次登錄系統(tǒng)進行口語學習時,先將監(jiān)測到登錄用戶的語音上傳到服務(wù)器; d)提取該段語音的聲紋特征并與該用戶注冊的聲紋模型進行匹配,若匹配成功,則證明是用戶本人在學習;反之,若匹配不成功,及時報警并提醒用戶。
2.如權(quán)利要求1所述的基于聲紋識別的用戶在線學習監(jiān)測方法,其特征在于,所述聲紋特征為梅爾倒譜參數(shù):(Χο,…,Xi,…X1^1),其中,Xi代表第i幀梅爾倒譜參數(shù),N為總幀數(shù),i為自然數(shù),I彡i彡N-1。
3.如權(quán)利要求2所述的基于聲紋識別的用戶在線學習監(jiān)測方法,其特征在于,所述梅爾倒譜參數(shù)中語音幀長度為100 500幀,每幀100毫秒。
4.如權(quán)利要求2所述的基于聲紋識別的用戶在線學習監(jiān)測方法,其特征在于,所述通用的用戶聲紋模型Xubm和用戶的聲紋模型Xusot都為高斯混合模型:Aubm={Wm, Sffl, Π1=1 —Μ};AuSer=i>' m,P ' m’2' m,m=l—Μ}; 所述步驟d)中匹配過程包括計算聲紋匹配度score,若聲紋匹配度score大于預(yù)設(shè)閾值則匹配成功,所述聲紋匹配度score計算如下:
5.如權(quán)利要求1 4任一項所述的基于聲紋識別的用戶在線學習監(jiān)測方法,其特征在于,還包括實時采集用戶口語學習中的語音送到服務(wù)器用于身份驗證,重復步驟d)進行當前學習用戶的身份識別監(jiān)控。
6.如權(quán)利要求5所述的基于聲紋識別的用戶在線學習監(jiān)測方法,其特征在于,對于聲紋模型匹配成功的用戶語音進行口語自動評測統(tǒng)計,并將評測結(jié)果相關(guān)信息記錄到用戶的個人數(shù)據(jù)庫中。
7.如權(quán)利要求6所述的基于聲紋識別的用戶在線學習監(jiān)測方法,其特征在于,所述評測結(jié)果相關(guān)信息包括發(fā)音標準度、發(fā)音單元的時長、發(fā)音單元之間的停頓、聲調(diào)和語速信息。
全文摘要
本發(fā)明公開了一種基于聲紋識別的用戶在線學習監(jiān)測方法,包括如下步驟a)當用戶通過在線學習系統(tǒng)注冊賬戶時,采集該用戶的語音并提取聲紋特征;b)在通用的用戶聲紋模型基礎(chǔ)上,根據(jù)該用戶語音的聲紋特征,為當前帳號建立一個該用戶的聲紋模型;c)用戶每次登錄系統(tǒng)進行口語學習時,先將監(jiān)測到登錄用戶的語音上傳到服務(wù)器;d)提取該段語音的聲紋特征并與該用戶注冊的聲紋模型進行匹配,若匹配成功,則證明是用戶本人在學習;反之及時報警并提醒用戶。本發(fā)明提供的基于聲紋識別的用戶在線學習監(jiān)測方法,通過采集用戶口語學習中的語音并提取聲紋特征,能夠?qū)τ脩舻纳矸葸M行實時監(jiān)測,保護用戶的賬戶安全,監(jiān)測用戶的口語學習狀況。
文檔編號G09B5/06GK103247197SQ201310108850
公開日2013年8月14日 申請日期2013年3月29日 優(yōu)先權(quán)日2013年3月29日
發(fā)明者許東星 申請人:上海眾實科技發(fā)展有限公司
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1