技術(shù)編號(hào):40443629
提示:您尚未登錄,請(qǐng)點(diǎn) 登 陸 后下載,如果您還沒(méi)有賬戶請(qǐng)點(diǎn) 注 冊(cè) ,登陸完成后,請(qǐng)刷新本頁(yè)查看技術(shù)詳細(xì)信息。本發(fā)明涉及人工智能,尤其涉及一種多語(yǔ)種音素表示模型的構(gòu)建方法、裝置、設(shè)備及介質(zhì)。背景技術(shù)、大規(guī)模的預(yù)訓(xùn)練語(yǔ)言模型,如“bert(全稱為bidirectional?encoderrepresentations?from?transformers,是一種來(lái)自transformer的雙向編碼器表示,是一種預(yù)訓(xùn)練語(yǔ)言表示模型)、roberta(全稱為arobustly?optimized?bertpretrainingapproach,一種經(jīng)過(guò)魯棒性優(yōu)化的bert預(yù)訓(xùn)練方法,是一種基于bert模型的改...
注意:該技術(shù)已申請(qǐng)專利,請(qǐng)尊重研發(fā)人員的辛勤研發(fā)付出,在未取得專利權(quán)人授權(quán)前,僅供技術(shù)研究參考不得用于商業(yè)用途。
該專利適合技術(shù)人員進(jìn)行技術(shù)研發(fā)參考以及查看自身技術(shù)是否侵權(quán),增加技術(shù)思路,做技術(shù)知識(shí)儲(chǔ)備,不適合論文引用。