專利名稱::垃圾短消息的分類方法
技術(shù)領(lǐng)域:
:本發(fā)明涉及一種移動(dòng)通信
技術(shù)領(lǐng)域:
,特別涉及一種垃圾短消息的分類方法。
背景技術(shù):
:隨著短消息業(yè)務(wù)的快速發(fā)展,垃圾短消息的問題也日益泛濫。垃圾短消息中的廣告短消息不但影響了客戶感知、損害客戶利益,而且部分違法的垃圾信息還影響了社會(huì)穩(wěn)定和國(guó)家安全。因此對(duì)垃圾短消息智能識(shí)別分類和攔截的研究成了目前移動(dòng)運(yùn)營(yíng)商重要的課題。目前對(duì)垃圾信息的識(shí)別和治理方式是先通過過濾系統(tǒng)對(duì)每一短消息進(jìn)行粗略篩選,然后將過濾后的可疑信息交由人工判定作為精確篩選。粗略篩選時(shí)是由垃圾信息過濾系統(tǒng)對(duì)某一節(jié)點(diǎn)的發(fā)送流量和每一短消息的關(guān)鍵字等條件進(jìn)行分析。這種過濾方式存在以下問題(1)分類效果不明顯。由于沒有從短消息的語義入手提取特征,往往采用關(guān)鍵詞、流量、號(hào)碼等個(gè)別的、不全面的特征,因此造成漏屏蔽、誤攔截嚴(yán)重的問題;(2)目前實(shí)時(shí)攔截主要靠人工判斷處理,分類及時(shí)性差、效率低,并且不能實(shí)時(shí)分析和處理垃圾短信,客戶感知不高。使用過濾系統(tǒng)粗略篩選時(shí),主要通過關(guān)鍵詞篩選或是號(hào)碼篩選。關(guān)鍵詞篩選是判斷短消息中是否有預(yù)先設(shè)定的關(guān)鍵詞;號(hào)碼篩選是根據(jù)圭叫號(hào)碼、被叫號(hào)碼,如果有5位的數(shù)字號(hào)碼是連續(xù)的,則認(rèn)為是群發(fā)的垃圾短消息。由于這兩者方法是單獨(dú)使用,因此,都同樣存在著分類不夠精確、及時(shí)性差等問題
發(fā)明內(nèi)容針對(duì)現(xiàn)有技術(shù)中的上述缺陷和問題,本發(fā)明的目的是提出一種垃圾短消息的分類方法,能夠應(yīng)用支持矢量機(jī)(SVM)和人工神經(jīng)網(wǎng)絡(luò)(ANN)自學(xué)習(xí),在使用本發(fā)明提出的方法生成的本類樣本進(jìn)行過濾時(shí),比現(xiàn)有的過濾系統(tǒng)的過濾效果明顯提高,同時(shí)又比人工判定效率明顯提高。為了達(dá)到上述目的,本發(fā)明提出了一種垃圾短消息的分類方法中分類樣本的生成方法,包括步驟l、根據(jù)垃圾短信息的原始特征生成特征向量,所述原始特征至少包括垃圾短信息的關(guān)鍵詞;步驟2、將所述特征向量作為輸入向量,輸入人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果l;將所述特征向量作為輸入向量,輸入支持矢量機(jī)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果2;將所述特征向量作為輸入向量,輸入人工神經(jīng)網(wǎng)絡(luò)進(jìn)行分類,得到分類結(jié)果,并將該分類結(jié)果輸入人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果3;步驟3、將分類樣本發(fā)送到人工神經(jīng)網(wǎng)絡(luò)分類器,并將人工神經(jīng)網(wǎng)絡(luò)分類器的輸出值M進(jìn)行排序;如果輸出值M的最大值大于預(yù)設(shè)定值r,則該最大值對(duì)應(yīng)的分類即為該短消息的分類,步驟結(jié)束;如果輸入值M的最大值不大于所設(shè)定的閾值r,則進(jìn)入步驟4;步驟4、判斷所述輸出值M是否小于等于預(yù)定值s,如果是則將該分類樣本歸入拒識(shí)類,步驟結(jié)束;否則進(jìn)入步驟5;步驟5、將分類樣本分別發(fā)送到生成訓(xùn)練結(jié)果2和生成訓(xùn)練結(jié)果3的支持矢量機(jī)分類器進(jìn)行分類,如果兩分類器的結(jié)果一致,則該分類結(jié)果即為該分類樣本對(duì)應(yīng)的類別,否則將該分類樣本歸入拒識(shí)類,步驟結(jié)束。作為上述技術(shù)方案的優(yōu)選,所述人工神經(jīng)網(wǎng)絡(luò)為BP神經(jīng)網(wǎng)絡(luò)。作為上述技術(shù)方案的優(yōu)選,所述步驟1中,所迷原始特征還包括呼入號(hào)碼、呼出號(hào)碼、高度敏感關(guān)鍵詞庫(kù)。作為上述技術(shù)方案的優(yōu)選,所述步驟l具體為步驟11、對(duì)垃圾短消息進(jìn)行分類,并根據(jù)分類生成一個(gè)或一個(gè)以上關(guān)鍵詞庫(kù),并為每一關(guān)鍵詞設(shè)定一權(quán)值,以得到一矩陣,所述矩陣每一行對(duì)應(yīng)一關(guān)鍵詞庫(kù),其每行中的每一列對(duì)應(yīng)該關(guān)鍵詞庫(kù)中的一關(guān)鍵詞的權(quán)值;步驟12、根據(jù)主叫號(hào)碼、被叫號(hào)碼特性形成一向量;步驟13、形成高度敏感關(guān)鍵詞庫(kù),并根據(jù)該高度敏感關(guān)鍵詞庫(kù)形成一向量;步驟14、根據(jù)步驟11~13的原始特征所得生成一特征向量。本發(fā)明提出的垃圾短信息的分類方法,將SVM和BP神經(jīng)網(wǎng)絡(luò)的優(yōu)勢(shì)通過有效的算法結(jié)合起來,在容許的拒識(shí)率下達(dá)到對(duì)短消息的更好的分類。同時(shí),還可以使用SVM和BP神經(jīng)網(wǎng)絡(luò)進(jìn)行自學(xué)習(xí)。本發(fā)明的效果是(1)通過對(duì)垃圾信息語義和結(jié)構(gòu)的分析,提取了垃圾信息的內(nèi)容和號(hào)碼特征,采用時(shí)間序列理論,多角度重構(gòu)了多組特征。(2)融合SVM、子空間和神經(jīng)網(wǎng)絡(luò)等先進(jìn)的模式識(shí)別技術(shù),形成多層次、交叉學(xué)習(xí)、并行學(xué)習(xí)的自動(dòng)學(xué)習(xí)架構(gòu)。采用多分類器集成,對(duì)垃圾信息進(jìn)行識(shí)別和分類(政治、涉黃、違法犯罪、SP誘騙、商業(yè)信息等),大大提高識(shí)別準(zhǔn)確率,減少漏判誤判。(3)采用了實(shí)時(shí)處理技術(shù),能實(shí)時(shí)分析和處理垃圾信息。圖1為BP神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)示意圖2為本發(fā)明優(yōu)選實(shí)施例中利用BP神經(jīng)網(wǎng)絡(luò)和支持矢量機(jī)自學(xué)習(xí)的流程示意圖3為本發(fā)明的原理圖。具體實(shí)施例方式下面結(jié)合附圖對(duì)本發(fā)明做進(jìn)一步說明。本發(fā)明的設(shè)計(jì)思想如圖3所示,是把垃圾系統(tǒng)的處理分成了學(xué)習(xí)模塊、分類識(shí)別模塊。根據(jù)以前垃圾信息治理的經(jīng)驗(yàn),輸入垃圾短信分類樣本,對(duì)取得的樣本進(jìn)行特征提取,對(duì)特征進(jìn)行學(xué)習(xí),取得分類經(jīng)驗(yàn);按照經(jīng)驗(yàn)進(jìn)行垃圾信息辨別和分類。同時(shí),通過與短信中心或信令設(shè)備等網(wǎng)元建立連接,取得新的數(shù)據(jù)樣本進(jìn)行樣本庫(kù)的完善。在學(xué)習(xí)模塊中采用BP神經(jīng)網(wǎng)絡(luò)和支持矢量機(jī)(SupportVectorMachine,以下簡(jiǎn)稱SVM)。BP(BackPropagation)神經(jīng)網(wǎng)絡(luò)是1986年由R腦lhart和McCelland為首的科學(xué)家小組提出,是一種按誤差逆?zhèn)鞑ニ惴ㄓ?xùn)練的多層前饋網(wǎng)絡(luò),是目前應(yīng)用最廣泛的神經(jīng)網(wǎng)絡(luò)模型之一。BP神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)和存貯大量的輸入-輸出模式映射關(guān)系,而無需事前揭示描述這種映射關(guān)系的數(shù)學(xué)方程。它的學(xué)習(xí)規(guī)則是使用最速下降法,通過反向傳播來不斷調(diào)整網(wǎng)絡(luò)的權(quán)值和閾值,使網(wǎng)絡(luò)的誤差平方和最小。BP神經(jīng)網(wǎng)絡(luò)模型拓樸結(jié)構(gòu)包括輸入層(i叩ut)、隱層(hidelayer)和輸出層(outputlayer)。支持矢量機(jī)(SVM)是近年機(jī)器學(xué)習(xí)、識(shí)別方面公認(rèn)比較好的算法。在解決小樣本、非線性及高維模式識(shí)別問題中表現(xiàn)出許多特有的優(yōu)勢(shì)。因此很適合垃圾短信內(nèi)容隱蔽、變化快的特點(diǎn)。SVM根據(jù)結(jié)構(gòu)風(fēng)險(xiǎn)最小化準(zhǔn)則,在使訓(xùn)練樣本分類誤差極小化的前提下,盡量提高分類器的泛化推廣能力,它能保證得到的解為全局最優(yōu)解。相應(yīng)的判別函數(shù)也應(yīng)變?yōu)閒(x)=sgn{fai*yik(xi'x)+b*}。支持矢量機(jī)的基本思想可以概括為首先通過非線性變換將輸入空間變換到一個(gè)高維空間,然后在這個(gè)新空間中求取最優(yōu)線性分類面,而這種非線性變換是通過定義適當(dāng)?shù)膬?nèi)積函數(shù)實(shí)現(xiàn)的。常用的核函數(shù)有線性內(nèi)積函數(shù)K(x,y)-xy;多項(xiàng)式內(nèi)積函數(shù)K(x,y)=[(x'y)+1]d;徑向基內(nèi)積函數(shù)K(x,y)-exp{-1x-y12/cj2);二層神經(jīng)網(wǎng)絡(luò)內(nèi)積函數(shù)K(x,y)-tanh(k(x.y)+c)。步驟A、對(duì)短信樣本進(jìn)行分析,并將垃圾短消息分為六大類,即政治、涉黃、違法犯罪、SP誘騙、商業(yè)信息;并根據(jù)這六大類建立關(guān)4走詞庫(kù);步驟B、在關(guān)鍵詞庫(kù)中,將每一關(guān)鍵詞按照出現(xiàn)的幾率排序,并為每一關(guān)鍵詞設(shè)置一4又值;這樣就得到一個(gè)短消息到權(quán)值矩陣Q的一個(gè)對(duì)應(yīng)關(guān)系Q=(qi,j):權(quán)值矩陣是一個(gè)6行3200列的矩陣;該權(quán)值可以為0~1之間的數(shù)字,例如"中獎(jiǎng)"這個(gè)關(guān)鍵詞,在"違法犯罪"關(guān)鍵詞庫(kù)中的權(quán)值為0.6;步驟C、根據(jù)主叫號(hào)碼、被叫號(hào)碼連續(xù)超過5位的數(shù)字號(hào)碼,并根據(jù)這些號(hào)碼的特性(比如省內(nèi)、省外、連號(hào)、外網(wǎng)等)形成一個(gè)固定維數(shù)為30的向量;其中1到10維表示連號(hào);11到12表示省內(nèi)、省外;其他表示外網(wǎng);當(dāng)然該向量的維數(shù)可以根據(jù)具體需要進(jìn)行步驟D、對(duì)某些嚴(yán)重違反法律的詞語建立高度敏感詞庫(kù),形成一個(gè)400維的向量;每個(gè)位置也是由0或1形成;步驟E、利用步驟A-步驟E所得原始特征,形成3631維的特征向量;其中第1到第30維表示步驟C的號(hào)碼特征;第31到第3231維表示步驟B的關(guān)鍵詞特征;3231到3631表示步驟D的嚴(yán)重違法關(guān)4建詞特征;步驟F、將上述特征向量作為輸入向量輸入BP神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果l;將該原始特征輸入支持矢量機(jī)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果2;步驟G、將上述原始特征輸入BP神經(jīng)網(wǎng)絡(luò)進(jìn)行分類得到6維類別概率信息,并將該6維類別概率信息輸入支持矢量機(jī)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果3;步驟H、將該6維類別概率信息作為分類樣本,并將該分類樣本發(fā)送到BP神經(jīng)網(wǎng)絡(luò)分類器,如果BP神經(jīng)網(wǎng)絡(luò)分類器,并將BP神經(jīng)網(wǎng)絡(luò)分類器的輸出值M進(jìn)行排序;如果輸出值M的最大值大于預(yù)設(shè)定值r,則該最大值對(duì)應(yīng)的分類即為該短消息的分類,步驟結(jié)束;如果輸入值M的最大值不大于預(yù)設(shè)定值r,則進(jìn)入步驟I;步驟I、判斷所述輸出值M是否小于等于預(yù)定值s,如果是則將該分類樣本歸入拒識(shí)類,步驟結(jié)束;否.則進(jìn)入步驟J;步驟J、將分類樣本分別發(fā)送到生成訓(xùn)練結(jié)果2和生成訓(xùn)練結(jié)果3的支持矢量機(jī)分類器進(jìn)行分類,如果兩分類器的結(jié)果一致,則該分類結(jié)果即為該分類樣本對(duì)應(yīng)的類別,否則將該分類樣本歸入拒識(shí)類,步驟結(jié)束。其中,步驟A到步驟G是采用了BP神經(jīng)網(wǎng)絡(luò)和支撐矢量機(jī)對(duì)以上特征進(jìn)行學(xué)習(xí)。l一*其中,BP神經(jīng)網(wǎng)絡(luò)的隱含層函數(shù)采用=輸出層采用恒等函數(shù)。設(shè)附,",A分別表示輸入節(jié)點(diǎn)數(shù)、輸出層神經(jīng)元數(shù)和隱層神經(jīng)元數(shù),隱層神經(jīng)元數(shù)我們采用/^(wxm^經(jīng)驗(yàn)公式。本發(fā)明中輸入向量是3631維,輸出是6維。因此隱層神經(jīng)元數(shù)據(jù)選擇了153。在具體的應(yīng)用中,BP算法充分利用了特征向量矩陣的稀疏性,使得訓(xùn)練的時(shí)間復(fù)雜度大大低于MATLAB7.0。如圖2所示,BP神經(jīng)網(wǎng)絡(luò)首先對(duì)原始特征進(jìn)行訓(xùn)練,訓(xùn)練完成后,得到訓(xùn)練結(jié)果。最后,利用該網(wǎng)絡(luò),對(duì)同樣的訓(xùn)練樣本進(jìn)行分類,得到中間特征。其中支持矢量機(jī)(SVM)選擇了C-SVC的RBF徑向基內(nèi)積函數(shù)。如圖2所示,支撐矢量機(jī)要分別完成原始特征、中間特征的訓(xùn)練,得到兩個(gè)訓(xùn)練結(jié)果,供分類使用。步驟G到步驟J為采用分類器對(duì)分類樣本進(jìn)行分類,在分類時(shí)將BP神經(jīng)網(wǎng)絡(luò)分類器和SVM分類器結(jié)合起來。由于BP神經(jīng)網(wǎng)絡(luò)在拒識(shí)加大的情況下,推廣性能會(huì)越來越高;SVM對(duì)樣本分類,在不考慮拒識(shí)的情形下,其性能一般優(yōu)于BP神經(jīng)網(wǎng)絡(luò)。通過步驟G到步驟J的有效算法將這兩種分類器有機(jī)的結(jié)合起來,達(dá)到容許的拒識(shí)率下,垃圾短信的分類效果更好的目的。應(yīng)用本發(fā)明的方法與現(xiàn)有的技術(shù)相比:<table>tableseeoriginaldocumentpage9</column></row><table><table>tableseeoriginaldocumentpage10</column></row><table>表1幾種不同特征和識(shí)別方式的比較從表l的實(shí)驗(yàn)數(shù)據(jù)看出,SVM在沒有拒識(shí)率的情況下,對(duì)樣本的分類效果比較明顯,但推廣能力不穩(wěn)定。采取目前現(xiàn)有技術(shù)中單純用語義特征或號(hào)碼特征進(jìn)行垃圾短信的分類,效果也不如本發(fā)明提出的方法。從對(duì)垃圾短信智能分析和治理的需求來看,本發(fā)明提出的方法是最具有實(shí)用<介值的。本文參考文獻(xiàn)包括SebastianiF.Machinelearninginautomatedtextcategorization.ACMComputingSurveys,2002,34(1):1□47(薩巴斯蒂尼F著:自動(dòng)文本分類的機(jī)器學(xué)習(xí),ACM計(jì)算測(cè)量,2002,34(1):1-47)。BigiB.UsingKullback-Leiblerdistancefortextcategorization.In:SebastianiF,ed.Proc.ofthe25thEuropeanConf.onInformationRetrieval(ECIR-03).Pisa:Springer-Verlag,2003.305口319.(BigiB,基于Kullback-LeiMer信息距離的文本分類,薩巴斯蒂尼F等在第二十五屆歐洲信息檢索會(huì)議(ECIR-03),比薩施普林格,2003.305口319.)LiF,YangY.Alossfunctionanalysisforclassificationmethodsintextcategorization.In:FawcettT,MishraN,eds.Proc.oftheICML2003.Washington:AAAIPress,2003.472C1479.(LiF,YangY.著在文本分類的錯(cuò)過功能分析的分類方法,F(xiàn)awcettT,MishraN,eds.Proc.oftheICML2003,華盛頓AAAI印刷,2003.472口479.)加盧什金[俄]《神經(jīng)網(wǎng)絡(luò)理論》清華大學(xué)出版社ISBN:7302058562002-12-01'[6]LanckrietG,CristianiniN,BartlettP,etal.LearningtheKernelMatrixwithSemidefiniteProgramming[J].JMachLearnRes,2004,(5):27-72.(LanckrietG,CristianiniN,BartlettP等人著利用自動(dòng)^f匕,呈序?qū)W習(xí)內(nèi)核矩陣,JMachLearnRes,2004,(5):27-72.)[7]AmariS,WuS.ImprovingSupportVectorMachineClassifiersbyModifyingKernelFunctions[J].NeuralNetworks,1999,12(6):783-789.(AmariS,WuS.著通過修改內(nèi)核功能提高支持矢量機(jī)分類,NeuralNetworks1999,12(6):783-789.,)[8]SmitsG,JordanE.ImprovedSVMRegressionUsingMixturesofKernels[C]〃IJCNN.Honolulu:IEEEPress,2002:2785-2790.(SmitsG,JordanE.著利用內(nèi)核的混合改良SVM衰退,〃IJC麗.Honolulu:IEEE印刷,2002:2785-2790.)當(dāng)然,釆用上述優(yōu)選技術(shù)方案只是為了便于理解而對(duì)本發(fā)明進(jìn)行的舉例說明,本發(fā)明還可有其他實(shí)施例,本發(fā)明的保護(hù)范圍并不限于此。在不背離本發(fā)明精神及其實(shí)質(zhì)的情況下,所屬
技術(shù)領(lǐng)域:
的技術(shù)人員當(dāng)可根據(jù)本發(fā)明作出各種相應(yīng)的改變和變形,但這些相應(yīng)的改變和變形都應(yīng)屬于本發(fā)明的權(quán)利要求的保護(hù)范圍。權(quán)利要求1、一種垃圾短消息的分類方法,包括步驟1、根據(jù)垃圾短信息的原始特征生成特征向量,所述原始特征至少包括垃圾短信息的關(guān)鍵詞;步驟2、將所述特征向量作為輸入向量,輸入人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果1;將所述特征向量作為輸入向量,輸入支持矢量機(jī)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果2;將所述特征向量作為輸入向量,輸入人工神經(jīng)網(wǎng)絡(luò)進(jìn)行分類,得到分類結(jié)果,并將該分類結(jié)果輸入人工神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練,得到訓(xùn)練結(jié)果3;步驟3、將分類樣本發(fā)送到人工神經(jīng)網(wǎng)絡(luò)分類器,并將人工神經(jīng)網(wǎng)絡(luò)分類器的輸出值M進(jìn)行排序;如果輸出值M的最大值大于預(yù)設(shè)定值r,則該最大值對(duì)應(yīng)的分類即為該短消息的分類,步驟結(jié)束;如果輸入值M的最大值不大于預(yù)設(shè)定值r,則進(jìn)入步驟4;步驟4、判斷所述輸出值M是否小于等于預(yù)定值s,如果是則將該分類樣本歸入拒識(shí)類,步驟結(jié)束;否則進(jìn)入步驟5;步驟5、將分類樣本分別發(fā)送到生成訓(xùn)練結(jié)果2和生成訓(xùn)練結(jié)果3的支持矢量機(jī)分類器進(jìn)行分類,如果兩分類器的結(jié)果一致,則該分類結(jié)果即為該分類樣本對(duì)應(yīng)的類別,否則將該分類樣本歸入拒識(shí)類,步驟結(jié)束。2、根據(jù)權(quán)利要求1所述的垃圾短消息的分類方法中分類樣本的生成方法,其特征在于,所述人工神經(jīng)網(wǎng)絡(luò)為BP神經(jīng)網(wǎng)絡(luò)。3、根據(jù)權(quán)利要求2所述的垃圾短消息的分類方法中分類樣本的生成方法,其特征在于,所述步驟1中,所述原始特征還包括呼入號(hào)碼、呼出號(hào)碼、高度敏感關(guān)鍵詞庫(kù)。4、根據(jù)權(quán)利要求3所述的垃圾短消息的分類方法中分類樣本的生成方法,其特征在于,所述步驟l具體為步驟11、對(duì)垃圾短消息進(jìn)行分類,并根據(jù)分類生成一個(gè)或一個(gè)以上關(guān)鍵詞庫(kù),并為每一關(guān)鍵詞設(shè)定一權(quán)值,以得到一矩陣,所述矩陣每一行對(duì)應(yīng)一關(guān)鍵詞庫(kù),其每行中的每一列對(duì)應(yīng)該關(guān)鍵詞庫(kù)中的一關(guān)鍵詞的權(quán)值;步驟l2、根據(jù)主叫號(hào)碼、被叫號(hào)碼特性形成一向量;步驟i3、形成高度敏感關(guān)鍵詞庫(kù),并根據(jù)該高度敏感關(guān)鍵詞庫(kù)形成一向量;步驟14、根據(jù)步驟11~13的原始特征所得生成一特征向量。全文摘要本發(fā)明提出了一種垃圾短消息的分類方法,能夠應(yīng)用支持矢量機(jī)(SVM)和人工神經(jīng)網(wǎng)絡(luò)(ANN)對(duì)自學(xué)習(xí),并通過有效算法SVM分類器和ANN分類器這兩種分類器有機(jī)的結(jié)合起來。該算法為將分類樣本發(fā)送到人工神經(jīng)網(wǎng)絡(luò)分類器,并將人工神經(jīng)網(wǎng)絡(luò)分類器的輸出值M進(jìn)行排序;如果輸出值M的最大值大于預(yù)設(shè)定值r,則該最大值對(duì)應(yīng)的分類即為該短消息的分類,否則所述輸出值M是否小于等于預(yù)定值s,如果是則將該分類樣本歸入拒識(shí)類;如果M在r和s之間則利用先前的訓(xùn)練結(jié)果再使用支持矢量機(jī)分類器進(jìn)行分類。本發(fā)明能夠在容許的拒識(shí)率下,對(duì)垃圾短信的分類效果更好。文檔編號(hào)G06F17/30GK101516071SQ200810069369公開日2009年8月26日申請(qǐng)日期2008年2月18日優(yōu)先權(quán)日2008年2月18日發(fā)明者何蔓微,佘安婭,瑛劉,劉建勝,兵唐,杜燕春,秦大斌,銳袁,謝志遠(yuǎn)申請(qǐng)人:中國(guó)移動(dòng)通信集團(tuán)重慶有限公司