亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

文本圖片檢測方法及裝置與流程

文檔序號:11831632閱讀:240來源:國知局
本發(fā)明涉及多媒體
技術(shù)領(lǐng)域
:,特別涉及一種文本圖片檢測方法及裝置。
背景技術(shù)
::隨著信息技術(shù)的飛速發(fā)展,圖片和視頻數(shù)據(jù)量快速增長。對于海量圖片或視頻幀來說,根據(jù)畫面中是否包含文本內(nèi)容,可分類為文本圖片和非文本圖片。對于文本圖片來講,其包括的文本內(nèi)容通常攜帶豐富的信息,是輔助理解和認知圖片的重要信息來源,所以文本內(nèi)容作為一個重要線索在諸如圖片搜索、人機交互和盲人輔助系統(tǒng)等場景中被廣泛挖掘和應(yīng)用。而為了從海量的圖片或視頻幀中挖掘有價值的文本內(nèi)容,一個大前提便是進行文本圖片檢測?,F(xiàn)有技術(shù)中,給定一個圖片,將該圖片分割為多個正方形區(qū)塊,首先將未包括一定百分比的文本像素的區(qū)塊過濾掉,之后以較少的灰度級(通常為16)量化剩余的區(qū)塊,并基于CCV(ColorCoherenceVector,顏色聚合向量)技術(shù)在量化后的區(qū)塊中,確定是否存在具有同一量化灰度級的區(qū)塊;若存在,則將該數(shù)字圖像確定為文本圖片。在實現(xiàn)本發(fā)明的過程中,發(fā)明人發(fā)現(xiàn)現(xiàn)有技術(shù)至少存在以下問題:由于上述文本圖片檢測方式僅可檢測出掃描的文檔圖像、或經(jīng)由手機、照相機等設(shè)備拍攝的文檔圖像,而不能對自然圖片中的文本圖片進行檢測,所以該種檢測方式的應(yīng)用范圍較為狹窄,普適性不強。技術(shù)實現(xiàn)要素:為了解決現(xiàn)有技術(shù)的問題,本發(fā)明實施例提供了一種文本圖片檢測方法及 裝置。所述技術(shù)方案如下:一方面,提供了一種文本圖片檢測方法,所述方法包括:對于每一個待檢測自然圖片,在所述待檢測自然圖片中提取多個候選區(qū)域;計算每一個目標區(qū)域的類別響應(yīng),所述目標區(qū)域通過對所述多個候選區(qū)域進行過濾處理得到;根據(jù)每一個目標區(qū)域的類別響應(yīng),計算所述待檢測自然圖片的特征向量,所述特征向量的維數(shù)與所述類別響應(yīng)的維數(shù)相等;當所述特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定所述待檢測自然圖片為文本圖片。另一方面,提供了一種文本圖片檢測裝置,所述裝置包括:候選區(qū)域提取模塊,用于對于每一個待檢測自然圖片,在所述待檢測自然圖片中提取多個候選區(qū)域;類別響應(yīng)計算模塊,用于計算每一個目標區(qū)域的類別響應(yīng),所述目標區(qū)域通過對所述多個候選區(qū)域進行過濾處理得到;特征向量計算模塊,用于根據(jù)每一個目標區(qū)域的類別響應(yīng),計算所述待檢測自然圖片的特征向量,所述特征向量的維數(shù)與所述類別響應(yīng)的維數(shù)相等;文本圖片檢測模塊,用于當所述特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定所述待檢測自然圖片為文本圖片。本發(fā)明實施例提供的技術(shù)方案帶來的有益效果是:對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域,并計算每一個目標區(qū)域的第一特征向量,之后根據(jù)每一個目標區(qū)域的第一特征向量,計算待檢測自然圖片的第二特征向量,當?shù)诙卣飨蛄课挥陬A先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片,由于上述文本圖片檢測方式可對自然圖片中的文本圖片進行檢測,所以該種檢測方式的應(yīng)用范圍較為廣泛,普適性強。附圖說明為了更清楚地說明本發(fā)明實施例中的技術(shù)方案,下面將對實施例描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。圖1是本發(fā)明實施例提供的一種文本圖片檢測方法的流程圖;圖2是本發(fā)明實施例提供的一種文本圖片檢測方法的流程圖;圖3是本發(fā)明實施例提供的一種對文本區(qū)域進行標記的示意圖;圖4是本發(fā)明實施例提供的一種候選區(qū)域過濾的示意圖;圖5是本發(fā)明實施例提供的一種P-R曲線的示意圖;圖6是本發(fā)明實施例提供的一種文本圖片檢測裝置的結(jié)構(gòu)示意圖;圖7是本發(fā)明實施例提供的一種服務(wù)器的結(jié)構(gòu)示意圖。具體實施方式為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚,下面將結(jié)合附圖對本發(fā)明實施方式作進一步地詳細描述。在對本發(fā)明實施例進行詳細地解釋說明之前,先對本發(fā)明實施例涉及到的一些名詞和整體架構(gòu)思路進行簡單介紹。在本發(fā)明實施例中,自然圖片指代自然場景下所拍攝的圖片。自然圖片的背景可為藍天、白云、草地、街道、建筑物、數(shù)目等等,前景可為人、物、道路指示牌、商鋪廣告牌、或?qū)Ρ尘斑M行解釋說明性的一些文字等等。自然圖片可分為包含文本內(nèi)容的文本圖片和不包含文本內(nèi)容的非文本圖片。本發(fā)明旨在從海量的自然圖片中判別文本圖片,以挖掘有價值的信息。為了從自然圖片中檢測文本圖片,本發(fā)明實施例采取了三種技術(shù),分別為:MSER(MaximallyStableExtremalRegions,區(qū)域特征提取)、CNN(ConvolutionalNeuralNetwork,卷積神經(jīng)網(wǎng)絡(luò))模型和BoW(BagsofWords,詞袋)。其中, MSER技術(shù)用于在自然圖片中提取候選區(qū)域,候選區(qū)域中可包括文本區(qū)域和非文本區(qū)域。CNN模型為每一個候選區(qū)域計算一個類別響應(yīng)。BoW通過匯總每一個候選區(qū)域的類別響應(yīng),為該自然圖片生成一個特征向量。將生成的特征向量導入SVM(SupportVectorMachine,支持向量機)分類器,最終的檢測結(jié)果由SVM分類器給出。此外,由于自然圖片的文本多樣(比如,文本在字體、顏色、方向、大小、語言類型、布局位置等方面不同)、背景復雜(比如,包括樹木、草地、圍欄等)、干擾因素較多(比如,噪聲、圖片模糊、非均勻照明燈等),所以為了確保訓練后的CNN模型和SVM分類器的分類精度,本發(fā)明實施例提供了一個包含海量樣本的數(shù)據(jù)集(dataset)。該數(shù)據(jù)集中包括了各種場景下的文本圖片和非文本圖片。其中,文本圖片中文本形式豐富,包括了大量在字體、顏色、方向、大小、語言類型、布局位置等方面不同的圖片。由于數(shù)據(jù)集中自然圖片的種類多樣性,訓練后的CNN模型和SVM分類器性能較優(yōu),可保證文本圖片的檢測準確度。在本發(fā)明實施例中,為實現(xiàn)在自然圖片中檢測文本圖片,主要包括模型訓練和圖片檢測兩個階段。其中,訓練階段包括候選區(qū)域提取和文本區(qū)域聚類、多類CNN模型訓練、特征向量生成和SVM分類器訓練等四個子階段;檢測階段主要包括候選區(qū)域提取、候選區(qū)域過濾、特征向量生成、SVM分類器給出檢測結(jié)果等四個子階段。具體解釋說明參見下述實施例。圖1是本發(fā)明實施例提供的一種文本圖片檢測方法的流程圖。參見圖1,本發(fā)明實施例提供的方法流程包括:101、對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域。102、計算每一個目標區(qū)域的類別響應(yīng),該目標區(qū)域通過對多個候選區(qū)域進行過濾處理得到。103、根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量,特征向量的維數(shù)與類別響應(yīng)的維數(shù)相等。104、當特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片。在本發(fā)明實施例中,對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域,并計算每一個目標區(qū)域的類別響應(yīng),之后根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量,當特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片,由于上述文本圖片檢測方式可對自然圖片中的文本圖片進行檢測,所以該種檢測方式的應(yīng)用范圍較為廣泛,普適性強??蛇x地,根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量,包括:根據(jù)每一個目標區(qū)域的類別響應(yīng),生成待檢測自然圖片的特征矩陣,特征矩陣的列數(shù)與特征向量的維數(shù)相等;根據(jù)特征矩陣,計算待檢測自然圖片的特征向量??蛇x地,在待檢測自然圖片中提取多個候選區(qū)域之前,方法還包括:獲取多個自然圖片,將多個自然圖片作為模型訓練圖片;對于每一個模型訓練圖片,在訓練圖片中提取多個候選區(qū)域;計算多個候選區(qū)域中每一個文本區(qū)域的HOG(HistogramofOrientedGradient,方向梯度直方圖)特征;根據(jù)HOG特征,對全部文本區(qū)域進行聚類,得到指定數(shù)目個類;初始CNN模型中的各個參數(shù);基于CNN模型計算每一個候選區(qū)域的類別響應(yīng);對于每一個候選區(qū)域,根據(jù)候選區(qū)域的類別響應(yīng),優(yōu)化CNN模型中的各個參數(shù),直至CNN模型的分類誤差小于預設(shè)閾值??蛇x地,根據(jù)候選區(qū)域的類別響應(yīng),優(yōu)化CNN模型中的各個參數(shù),包括:根據(jù)候選區(qū)域的類別響應(yīng),確定候選區(qū)域歸屬的訓練類別;獲取預先對模型訓練圖片的文本標記結(jié)果;根據(jù)文本標記結(jié)果,確定候選區(qū)域歸屬的實際類別;根據(jù)訓練類別和實際類別,優(yōu)化CNN模型中的各個參數(shù)??蛇x地,在待檢測自然圖片中提取多個候選區(qū)域之前,該方法還包括:對于每一個模型訓練圖片,獲取模型訓練圖片的訓練特征向量;在全部訓練特征向量中,確定包括文本的模型訓練圖片對應(yīng)的第一訓練特征向量、包括非文本的模型訓練圖片對應(yīng)的第二訓練特征向量;根據(jù)第一訓練特征向量和第二訓練特征向量,優(yōu)化SVM分類器中的各個參數(shù)??蛇x地,計算每一個目標區(qū)域的類別響應(yīng)之前,該方法還包括:對多個候選區(qū)域進行過濾,直至過濾后的候選區(qū)域的剩余百分比滿足預設(shè)數(shù)值,得到目標區(qū)域。上述所有可選技術(shù)方案,可以采用任意結(jié)合形成本發(fā)明的可選實施例,在此不再一一贅述。圖2是本發(fā)明實施例提供的一種文本圖片檢測方法的流程圖。參見圖2,本發(fā)明實施例提供的方法流程包括:201、獲取多個自然圖片,將多個自然圖片作為模型訓練圖片。其中,多個自然圖片均來自數(shù)據(jù)集(dataset)。在本發(fā)明實施例中,數(shù)據(jù)集中的圖片收集于網(wǎng)絡(luò),包括7302張文本圖片和8000張非文本圖片。其中,大部分圖片均為自然圖片,一小部分圖片為數(shù)字圖片或掃描的文檔圖片。參見圖3,數(shù)據(jù)集中每一張文本圖像的文本區(qū)域均用標記框被手動標記。數(shù)據(jù)集中的圖片可劃分為訓練數(shù)據(jù)集和測試數(shù)據(jù)集。其中,測試數(shù)據(jù)集中包括2000張文本圖片和2000張非文本圖片;剩余的圖片構(gòu)建訓練數(shù)據(jù)集。模型訓練圖片的張數(shù)和獲取方式可視情況而定,本發(fā)明實施例對此不進行具體限定。202、根據(jù)模型訓練圖片訓練CNN模型和SVM分類器。在本發(fā)明實施例中,根據(jù)模型訓練圖片訓練CNN模型可分為下述多個步驟:202a、對于每一個模型訓練圖片,根據(jù)MSER技術(shù)在該模型訓練圖片中提取多個候選區(qū)域。針對該步驟,MSER是當使用不同的灰度閾值對圖像進行二值化時得到的最穩(wěn)定的區(qū)域。其中,多個候選區(qū)域中既包括文本區(qū)域也包括非文本區(qū)域。MSER可捕捉文本區(qū)域,其回召率可高達95%。其中,文本區(qū)域一般來講均是來自圖片的前景部分,而非文本區(qū)域一般來講均是來自圖片的背景部分。其中,MSER的提取過程可具體如下:使用一系列灰度閾值對模型訓練圖片進行二值化處理;對于每個閾值得到的二值圖像,得到相應(yīng)的黑色區(qū)域與白色區(qū)域;在比較寬的灰度閾值范圍內(nèi)保持形狀穩(wěn)定的區(qū)域即為提取的多個候選區(qū)域。其中,評判標準為dA/dt;A代表二值圖像區(qū)域面積,t代表灰度閾值。202b、計算多個候選區(qū)域中每一個文本區(qū)域的HOG特征。其中,HOG特征是一種在計算機視覺和圖像處理中用來進行物體檢測的特征描述子。它通過計算和統(tǒng)計圖像局部區(qū)域的梯度方向直方圖來構(gòu)成特征。在計算每一個文本區(qū)域的HOG特征時,可首先將該文本區(qū)域分成小的連通區(qū)域,我們可以把它稱之為細胞單元。然后,采集細胞單元中各像素點的梯度的或邊緣的方向直方圖。最后把這些直方圖組合起來便可以構(gòu)成該文本區(qū)域的HOG特征。202c、根據(jù)HOG特征,對全部文本區(qū)域進行聚類,得到指定數(shù)目個類。針對該步驟,對于一個模型訓練圖片,除了可簡單劃分為文本區(qū)域和非文本區(qū)域之外,由于多個文本區(qū)域中的文本內(nèi)容在字體、顏色、語言類型、方向等方面還可能存在不同,因此本發(fā)明實施例對模型訓練圖片中的全部文本區(qū)域再次進行了分類。也即根據(jù)某一特征,對模型訓練圖片中的全部文本區(qū)域進行了聚類。在本發(fā)明實施例中,對于一個模型訓練圖片,根據(jù)從該模型訓練圖片中提取的全部文本區(qū)域的HOG特征,利用K-均值算法將全部文本區(qū)域進行聚類,得到K類。剩余的全部非文本區(qū)域作為1類,所以將根據(jù)MSER技術(shù)提取到的多個候選區(qū)域分為了K+1類。202d、初始化CNN模型中的各個參數(shù)。其中,卷積神經(jīng)網(wǎng)絡(luò)(CNN)在本質(zhì)上是一種輸入到輸出的映射,它能夠?qū)W習大量的輸入與輸出之間的映射關(guān)系,而不需要任何輸入和輸出之間的精確的數(shù)學表達式,僅用已知的模式對卷積神經(jīng)網(wǎng)絡(luò)加以訓練,卷積神經(jīng)網(wǎng)絡(luò)便具有輸入輸出對之間的映射能力。在開始訓練CNN模型之前,所有的參數(shù)都應(yīng)該用一些不同的小隨機數(shù)進行初始化?!靶‰S機數(shù)”用來保證卷積神經(jīng)網(wǎng)絡(luò)不會因參數(shù)值過大而進入飽和狀態(tài),從而導致訓練失敗;“不同”用來保證卷積神經(jīng)網(wǎng)絡(luò)可以正常地學習。實際上,如果用相同的數(shù)去初始化參數(shù)(比如,權(quán)矩陣),則卷積神經(jīng)網(wǎng)絡(luò)無能力學習。在CNN模型訓練過程中,我們使用隨機梯度下降和后向傳播方法來優(yōu)化CNN模型中的各個參數(shù),從而盡可能地最小化分類誤差。其中,隨機梯度下降法適用于樣本數(shù)量非常龐大的情況,該算法使得總體向著梯度下降快的方向下降。后向傳播方法計算實際輸出與相應(yīng)的理想輸出的差;之后,按極小化誤差的方法調(diào)整CNN模型的參數(shù),具體參見下述步驟202e至202i。202e、基于CNN模型計算每一個候選區(qū)域的類別響應(yīng)。在本發(fā)明實施例中,在初始化CNN模型中的各個參數(shù)后,由于卷積神經(jīng)網(wǎng)絡(luò)在本質(zhì)上是一種輸入到輸出的映射,所以對于一個模型訓練圖片來說,向CNN模型輸入一個候選區(qū)域,CNN模型便可根據(jù)該候選區(qū)域,計算該候選區(qū)域的類別響應(yīng)。其中,該類別響應(yīng)為K+1維,大小為1*K+1。由于對從模型訓練圖片中提取的候選區(qū)域進行了聚類,分為了K+1類,所以類別響應(yīng)用于表征對應(yīng)的候選區(qū)域?qū)儆谠揔+1類中的哪一個類,該分類結(jié)果由CNN模型給出。此時,由于CNN模型還處于訓練階段,所以各個參數(shù)還未達到最優(yōu),因此可能存在較大的分類誤差。所以,根據(jù)類別響應(yīng)指定的分類結(jié)果和該候選區(qū)域歸屬的實際類別,可對CNN模型進行參數(shù)優(yōu)化,使得CNN模型逐步優(yōu)化,達到最優(yōu)狀態(tài)。202f、對于每一個候選區(qū)域,根據(jù)候選區(qū)域的類別響應(yīng),確定候選區(qū)域歸屬的訓練類別。針對該步驟,對于一個候選區(qū)域來說,K+1維類別響應(yīng)中每一個數(shù)值分別對應(yīng)一個類。比如,從左至右開始,類別響應(yīng)中第一個數(shù)值對應(yīng)第一類、第二個數(shù)值對應(yīng)第二類,以此類推,第K+1個數(shù)值對應(yīng)第K+1類。其中,類別響應(yīng)中哪一個數(shù)值的大小最接近于1,則該候選區(qū)域歸屬的訓練類別便與該數(shù)值對應(yīng)的類相匹配。比如,類別響應(yīng)中第二個數(shù)值的大小最接近于1,則該類別響應(yīng)歸屬的訓練類別為第二類。202g、獲取預先對模型訓練圖片的文本標記結(jié)果;根據(jù)文本標記結(jié)果,確定候選區(qū)域歸屬的實際類別。針對該步驟,在模型訓練過程中每一個樣本歸屬的類別均是事先已知的。比如,參見圖3,數(shù)據(jù)集中每一張模型訓練圖片中的文本區(qū)域分別都進行了標記。所以在獲取對該模型訓練圖片的文本標記結(jié)果后,根據(jù)該文本標記結(jié)果便可獲知該候選區(qū)域歸屬于文本區(qū)域還是非文本區(qū)域。而對于文本區(qū)域來說,又具體地分為了K類,所以當候選區(qū)域為文本區(qū)域時,根據(jù)文本區(qū)域的聚類結(jié)果,便可獲知該候選區(qū)域歸屬的實際類別。當候選區(qū)域為非文本區(qū)域時,則直接根據(jù)文本標記結(jié)果便可確定。202h、根據(jù)訓練類別和實際類別,優(yōu)化CNN模型中的各個參數(shù),直至CNN模型的分類誤差小于預設(shè)閾值。在本發(fā)明實施例中,對于一個候選區(qū)域來講,在得到其訓練類別和實際類別后,便可根據(jù)訓練類別和實際類別之間的差距對CNN模型中的各個參數(shù)進行優(yōu)化。比如,對CNN模型中的權(quán)矩陣進行優(yōu)化。也即,CNN模型的訓練過程是一個參數(shù)逐步優(yōu)化的過程,在訓練的CNN模型的分類誤差小于預設(shè)閾值后,即訓練的CNN模型達到預設(shè)的精度要求后,訓練結(jié)束。需要說明的是,在CNN模型的訓練過程中還需考慮兩個重要的因素。一個因素為懲罰因素,另一個因素為提高(boosting)因素。由于聚類方法屬于無監(jiān)督學習,所以存在不能將樣本進行精準分類的缺陷。因此通過將負對數(shù)似然準則作為損失函數(shù),對模型訓練圖片中的前景部分和背景部分我們使用不同的懲 罰措施。對于文本區(qū)域來說,由于我們將多個候選區(qū)域中的全部文本區(qū)域又細分為K類,所以若CNN模型將本屬于K類中某一類的文本區(qū)域,錯歸屬于K類中的另一個類,則由于僅是文本區(qū)域之間類的錯分,而未將其錯分為非文本區(qū)域,所以設(shè)置低懲罰措施。也即,在前景部分之間類的錯分,我們設(shè)置低懲罰措施,允許CNN模型對分類結(jié)果進行適當?shù)卣{(diào)整。但是,對于來自背景部分的區(qū)域,如果CNN模型將其進行錯分,則可能將本屬于背景區(qū)域的非文本區(qū)域,錯分為屬于前景部分的文本區(qū)域,這樣的錯分結(jié)果是十分嚴重的,所以設(shè)置高懲罰因素。此外,CNN模型是否善于過濾非文本區(qū)域,對于后續(xù)特征向量的生成步驟至關(guān)重要。為了使得訓練的CNN模型善于過濾非文本區(qū)域,我們使用boosting措施優(yōu)化CNN模型。起初,我們將候選區(qū)域簡單劃分為文本區(qū)域(來自前景部分)和非文本區(qū)域(來自背景部分)。之后,使用K-均值算法將全部文本區(qū)域聚成K類,而全部的非文本區(qū)域作為一個類。由于自然圖片中背景部分的復雜性和多樣性,我們可以從數(shù)據(jù)集抽取一些比較難進行文本區(qū)域和非文本區(qū)域區(qū)分的模型訓練圖片。當CNN模型第一次達到性能最優(yōu)狀態(tài)時,利用這些較難進行區(qū)分的模型訓練圖片,進一步地優(yōu)化CNN模型,重復進行3至5次,得到性能更加優(yōu)良的CNN模型,該模型可對非文本區(qū)域進行較為精準的過濾。在本發(fā)明實施例中,整個CNN模型的結(jié)構(gòu)由4個卷積層和2個全連接層構(gòu)成。其中,每一個卷積層后連接著maxpolling(最大池化)和rectifiedunits(整流單元)。其中,CNN模型架構(gòu)中一些設(shè)置參數(shù)詳見下述表1。表1層參數(shù)設(shè)置卷積層-1ks=5,ps=2,ss=1,nMap=64卷積層-2ks=5,ps=2,ss=1,nMap=128卷積層-3ks=3,ps=1,ss=1,nMap=384卷積層-4ks=3,ps=0,ss=1,nMap=512全連接層-1nNode=1024全連接層-2nNode=K+1其中,ks指代內(nèi)核數(shù)量(kernelnumber),ps指代填充尺寸(paddingsize),ss指代滑動步長(stridesize),nMap指代特征映射模型(featuremap)的數(shù)量,nNode指代線性層節(jié)點(linearlayernode)的數(shù)量。對于輸入CNN模型中的每一個候選區(qū)域來說,候選區(qū)域的大小被重新縮放到32×32,而通過特殊設(shè)計的前4個卷積層將產(chǎn)生一個1×1大小的映射模型。在本發(fā)明實施例中,我們使用的內(nèi)核數(shù)為64、128、384和512。在4個卷積步驟之后,是2個分別帶有1024和K+1個感知單元的全連接層。因為softmax用在CNN模型中的最后一層,所以我們通過softmax層的輸出可以得到一個K+1維度的特征向量,其中每個維度表示該候選區(qū)域歸屬于一個類別的概率。通過上述步驟202a至202h,我們闡述了CNN模型的訓練過程,接下來簡述一下SVM分類器的訓練過程。202i、對于每一個模型訓練圖片,獲取模型訓練圖片的訓練特征向量。在本發(fā)明實施例中,對于一個模型訓練圖片來講,由于從該模型訓練圖片中提取的每一個候選區(qū)域,均對應(yīng)一個K+1維度的類別響應(yīng),所以在CNN模型的最后一層softmax層輸出K+1維度的類別響應(yīng)后,根據(jù)該模型訓練圖片中多個候選區(qū)域的類別響應(yīng),便可生成一個特征矩陣。其中,該特征矩陣的大小為N*K+1,N為候選區(qū)域的個數(shù)。之后,利用BoW技術(shù)匯總該特征矩陣,生成該模型訓練圖片的訓練特征向量,該特征向量可以用來描述整個模型訓練圖片的特征。我們將上述特征向量的生成過程稱之為CNN編碼。其中,待檢測自然圖片的特征向量(也即,編碼結(jié)果)可以用下述公式(1)表示:Φ(I)=Σi=1K+1∂iφi---(1)]]>其中,I代表圖片,φi指代第i個類的響應(yīng),指代第i個類的權(quán)重,Φ(I)指 代整個圖片的編碼結(jié)果。202j、在全部訓練特征向量中,確定包括文本的模型訓練圖片對應(yīng)的第一訓練特征向量、包括非文本的模型訓練圖片對應(yīng)的第二訓練特征向量。由于在訓練SVM分類器過程中樣本所歸屬的類別是已知的。比如,數(shù)據(jù)集對文本圖片中文本區(qū)域和非文本區(qū)域均進行了標記,而對于非文本圖片而言便沒有任何標記。據(jù)此,可確定模型訓練圖片是歸屬于文本圖片還是非文本圖片。所以在全部的訓練特征向量中,可確定出文本訓練圖片對應(yīng)的全部特征向量,非文本圖片對應(yīng)的全部特征向量。其中,分類器是一類計算機程序,它的設(shè)計目標是通過學習之后,可自動將數(shù)據(jù)劃分到已知類別。SVM是一個類分類器,其本質(zhì)上是一個能夠?qū)⒉煌悩颖驹跇颖究臻g分隔的超平面。換句話說,給定一些標記好的訓練樣本,SVM算法輸出一個最優(yōu)化的分隔超平面,通過該超平面使得歸屬于不同類別的樣本成功分開。202k、根據(jù)第一訓練特征向量和第二訓練特征向量,優(yōu)化SVM分類器中的各個參數(shù)。在訓練過程中,我們得到了文本圖片對應(yīng)的全部特征向量、非文本區(qū)域?qū)?yīng)的全部特征向量,因此在初始化SVM分類器中的各個參數(shù)以后,便可根據(jù)第一訓練特征向量和第二訓練特征向量,對SVM分類器進行訓練,將SVM斷定的劃分區(qū)域繪制出來,得到超平面。上述過程詳述了CNN模型和SVM分類器的訓練過程。在訓練好模型后,便可根據(jù)訓練好的模型進行測試。詳細過程參見下述步驟。203、對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域。在本發(fā)明實施例中,待檢測自然圖片來自于數(shù)據(jù)集(dataset)。在待檢測自然圖片中進行多個候選區(qū)域提取時,可利用MSER技術(shù)實現(xiàn),MSER是當使用不同的灰度閾值對圖像進行二值化時得到的最穩(wěn)定的區(qū)域。其中,多個候選區(qū)域中既包括文本區(qū)域也包括非文本區(qū)域。MSER可捕捉 文本區(qū)域,其回召率可高達95%。其中,文本區(qū)域一般來講均是來自圖片的前景部分,而非文本區(qū)域一般來講均是來自圖片的背景部分。其中,MSER的提取過程可具體如下:使用一系列灰度閾值對模型訓練圖片進行二值化處理;對于每個閾值得到的二值圖像,得到相應(yīng)的黑色區(qū)域與白色區(qū)域;在比較寬的灰度閾值范圍內(nèi)保持形狀穩(wěn)定的區(qū)域即為提取的多個候選區(qū)域。204、對多個候選區(qū)域進行過濾,直至過濾后的候選區(qū)域的剩余百分比滿足預設(shè)數(shù)值,得到目標區(qū)域。在本發(fā)明實施例中,MSER技術(shù)在進行區(qū)域提取時,提取的非文本區(qū)域的數(shù)量常常比提取的文本區(qū)域的數(shù)量大好幾個數(shù)量級。而非文本區(qū)域過多將會大大影響后續(xù)待檢測自然圖片的特征向量的準確性。所以在進行候選區(qū)域提取之后,還包括過濾非文本區(qū)域的步驟,以對文本區(qū)域和非文本區(qū)域之間的比率進行嚴格控制。而上述受過訓練的CNN模型是善于對非文本區(qū)域進行過濾的,所以利用訓練好的CNN模型我們不僅可以計算待檢測自然圖片中每一個候選區(qū)域的特征向量,還可以對從待檢測自然圖片中提取的非文本區(qū)域進行過濾。如圖4所示,訓練好的CNN模型可有效地過濾非文本區(qū)域。在圖4中,在進行非文本區(qū)域過濾之前,圖片中的非文本區(qū)域較多,且遠遠大于文本區(qū)域的數(shù)量(圖4中上圖),在進行非文本過濾之后,非文本區(qū)域的數(shù)來那個明顯減少(圖4中上圖)。其中,預設(shè)數(shù)值的大小可為2%或10%等等,本發(fā)明實施例對此不進行具體限定??赏ㄟ^多次試驗得到預設(shè)數(shù)值的大小。在對非文本區(qū)域進行過濾之后,剩余的非文本區(qū)域和文本區(qū)域組成目標區(qū)域。205、計算每一個目標區(qū)域的類別響應(yīng)。其中,目標區(qū)域既可為文本區(qū)域也可為非文本區(qū)域。類別響應(yīng)的維度為K+1維,大小為1*(K+1)。由于已經(jīng)訓練好CNN模型,所以直接將每一個目標區(qū)域作為CNN模型的輸入,通過CNN模型之后,經(jīng)由CNN模型的最后一層softmax層便可得到每一個目標區(qū)域的類別響應(yīng)。其中,類別響應(yīng)表征了目標區(qū)域歸屬 于各個類別的概率。在類別響應(yīng)中,哪一個類別對應(yīng)的數(shù)值最接近于1,則該目標區(qū)域歸屬于該類別。206、根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量。其中,特征向量的維數(shù)與類別響應(yīng)的維數(shù)相等。在根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量時,可采取下述方式實現(xiàn):根據(jù)每一個目標區(qū)域的類別響應(yīng),生成待檢測自然圖片的特征矩陣;根據(jù)特征矩陣,計算待檢測自然圖片的特征向量。其中,特征矩陣的列數(shù)與類別響應(yīng)的維數(shù)相等。以從待檢測自然圖片中提取N個候選區(qū)域,對N個候選區(qū)域進行非文本區(qū)域過濾后剩余0.02*N個目標區(qū)域為例,則待檢測自然圖片的大小為0.02*N*(K+1),該特征矩陣中每一行均為一個目區(qū)域?qū)?yīng)的類別響應(yīng),多個類別響應(yīng)組成了該特征矩陣。之后,利用BoW技術(shù)匯總該特征矩陣,生成待檢測自然圖片的特征向量,特征向量的維數(shù)為K+1。207、當特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片。在本發(fā)明實施例中,由于已經(jīng)根據(jù)數(shù)據(jù)集中的模型訓練圖片訓練好SVM分類器,SVM分類器生成的超平面可精確對文本圖片歸屬的特征向量范圍、非文本圖片歸屬的特征向量范圍進行劃分。所以,將待檢測自然圖片的特征向量輸入SVM分類器后,SVM分類器根據(jù)文本圖片歸屬的特征向量范圍便可自動給出待檢測自然圖片的類別。當特征向量位于文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片。需要說明的是,為了評估上述文本圖片檢測方法,本發(fā)明實施例采取了F-measure評價標準。其中,P代表精確率(Precision),R代表回召率(Recall),度量公式如下:P=TPTP+FP---(2)]]>R=TPTP+FN---(3)]]>其中,TP指代TruePositives,即正類被判定為正類,在本發(fā)明實施例中對應(yīng)被正確分類的文本圖片的數(shù)量;FP指代falsepositives,即負類被判定為正類,在本發(fā)明實施例中對應(yīng)被錯誤分類的非文本圖片的數(shù)量;FN指代falsenegatives,即正類判定為負類,在本發(fā)明實施例中對應(yīng)被錯誤分類的文本圖片的數(shù)量。所以,P代表準確率。在本發(fā)明實施例中對應(yīng)被分類為文本圖片的圖片中實際文本圖片所占的比例。R代表回召率。在本發(fā)明實施例中對應(yīng)被正確分類的文本圖片占所有文本圖片的比例。在本發(fā)明實施例中,從模型訓練圖片中提取到多個候選區(qū)域后,在對多個候選區(qū)域中的全部文本區(qū)域進行聚類時,聚類個數(shù)的多少對整個文本圖片檢測過程有著較大的影響。先結(jié)合上述提及到的F-measure評價標準,對聚類個數(shù)對文本圖片檢測的影響進行解釋說明。參見下述表2,表2中示出了在模型訓練階段6種不同的聚類數(shù)目對P、R和F-measure的影響。表2K+1P(精確率)R(召回率)F-measure20.8890.8780.883510.9060.8740.8901010.8980.9030.9012010.8920.8920.8923010.8810.9020.8914010.8940.8840.8885010.8790.9080.892由上述表2可知,當K=100時,F(xiàn)-measure取得了最大值0.901,對應(yīng)的P=0.898,R=0.903,當K值繼續(xù)增大或繼續(xù)減小時,F(xiàn)-measure并沒有顯著改善。所以,K取值100時,也即將提取到的多個候選區(qū)域中的全部文本區(qū)域聚類為 100類時,效果最好。此外,在測試階段,由于非文本區(qū)域的數(shù)量對待檢測自然圖片的特征向量,有著明顯的不良影響,從而影響文本圖片的檢測結(jié)果。所以需利用訓練好的CNN模型對非文本區(qū)域進行過濾。在本發(fā)明實施例中,參見表3,我們試驗了在不同比例候選區(qū)域剩余的情況下,其對P、R和F-measure的影響。表3百分比精確率召回率F-measure1%0.9900.8840.8922%0.8980.9030.9015%0.9060.8660.88510%0.8970.8530.87420%0.9160.8190.86450%0.9030.8160.857100%0.9010.8120.854在上述表3中,當2%候選區(qū)域剩余時,F(xiàn)-measure取得了最大值0.901,對應(yīng)的P=0.898,R=0.903,當百分比繼續(xù)增大或繼續(xù)減小時,F(xiàn)-measure并沒有顯著改善。所以,2%候選區(qū)域剩余時,效果最好。這也證明了太多來自于背景部分的非文本區(qū)域?qū)z測結(jié)果有著不良影響。本發(fā)明實施例提供的文本圖片檢測方法,同其他算法相比,也具有顯著的有點。首先,LLC(Locality-constrainedLinearCoding,局部線性約束編碼)算法是我們的第一個基準方法,可以在3種不同的尺度下提取SIFT(Scale-invariantfeaturetransform,尺度不變特征變換)特征。在本發(fā)明實施例中,我們的編碼尺寸是2048。利用globalmax-pooling(全局最大池化)替代SPM(StatisticalParametricMapping,統(tǒng)計參數(shù)圖),因為我們發(fā)現(xiàn)SPM在編碼方面不但毫無任何改進且浪費更多的時間。其次,CNN作為第二個基準方法。其中CNN模型的架構(gòu)與之前運用的架構(gòu)類似,但是輸入尺寸是224*224,且在最后2個全連接層之前執(zhí)行g(shù)lobalmax-pooling。最后,本發(fā)明實施例提供的方法考慮邊界框信 息。我們?yōu)閭鹘y(tǒng)的LLC算法提供了一種改進的編碼方法。在過濾之后,為尋找穩(wěn)定區(qū)域,結(jié)合LLC算法,提取每一個圖像的HOG、LBP、梯度直方圖或梯度方向直方圖。我們稱之為MSER+Adaboost+LLC。如圖5所示的P-R的曲線表明,由于邊界框信息的存在,與基線方法相比,我們所提出的方法實現(xiàn)了顯著的增強性能。需要注意的是,將該方法(CNN編碼)與MSER+Adaboost+LLC相比較是公平的,因為這兩種方法在訓練階段均利用邊框標記信息。此外,在本發(fā)明實施例中還計算了提出的文本圖片檢測方法的時耗。參見表4,我們在一個常規(guī)的PC(personalcomputer,個人計算機)上測算了該文本圖片檢測方法的時耗。其中,該PC的配置情況為CPU:Intel(R)Xeon(R)CPUE3-1230V2@3.30GHz;GPU:TeslaK40c;RAM:8GB。參見表4,在單個CPU(CentralProcessingUnit,中央處理單元)和單個GPU(GraphicProcessingUnit,圖形處理器)上,我們的算法需要0.43~0.49s的時間來完成檢測任務(wù)。我們統(tǒng)計流水線上每一個階段的平均消耗時間,其中待檢測自然圖片的平均尺寸大小為720*620。其中,MSER過程是利用opencv-2.4.8在C++上執(zhí)行的。CNN編碼和SVM分類在Linux下的Torch7平臺上執(zhí)行。所提出的系統(tǒng)實現(xiàn)了高分類精度,且運行相當快,因此它可以用作大型文本信息挖掘任務(wù)的有力工具。表4階段時耗MSER提取0.18~0.23sCNN編碼0.25~0.26sSVM分類0.124ms總共0.43~0.49s本發(fā)明實施例提供的方法,對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域,并計算每一個目標區(qū)域的類別響應(yīng),之后根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量,當特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片, 由于上述文本圖片檢測方式可對自然圖片中的文本圖片進行檢測,所以該種檢測方式的應(yīng)用范圍較為廣泛,普適性強。圖6是本發(fā)明實施例提供了一種文本圖片檢測裝置的結(jié)構(gòu)示意圖。參見圖6,該裝置包括:候選區(qū)域提取模塊601、類別響應(yīng)計算模塊602、特征向量計算模塊603、文本圖片檢測模塊604。其中,候選區(qū)域提取模塊601與類別響應(yīng)計算模塊602連接,用于對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域;類別響應(yīng)計算模塊602與特征向量計算模塊603連接,用于計算每一個目標區(qū)域的類別響應(yīng),目標區(qū)域通過對多個候選區(qū)域進行過濾處理得到;特征向量計算模塊603與文本圖片檢測模塊604連接,用于根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量,特征向量的維數(shù)與類別響應(yīng)的維數(shù)相等;文本圖片檢測模塊604,用于當特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片??蛇x地,特征向量計算模塊,用于根據(jù)每一個目標區(qū)域的類別響應(yīng),生成待檢測自然圖片的特征矩陣,特征矩陣的列數(shù)與類別響應(yīng)的維數(shù)相等;根據(jù)特征矩陣,計算待檢測自然圖片的特征向量??蛇x地,該裝置還包括:自然圖片獲取模塊,用于獲取多個自然圖片,將多個自然圖片作為模型訓練圖片;候選區(qū)域提取模塊,用于對于每一個模型訓練圖片,在模型訓練圖片中提取多個候選區(qū)域;HOG特征計算模塊,用于計算多個候選區(qū)域中每一個文本區(qū)域的HOG特征;聚類模塊,用于根據(jù)HOG特征,對全部文本區(qū)域進行聚類,得到指定數(shù)目個類;初始化模塊,用于初始化CNN模型中的各個參數(shù);類別響應(yīng)計算模塊,用于基于CNN模型計算每一個候選區(qū)域的類別響應(yīng);模型優(yōu)化模塊,用于對于每一個候選區(qū)域,根據(jù)候選區(qū)域的類別響應(yīng),優(yōu)化CNN模型中的各個參數(shù),直至CNN模型的分類誤差小于預設(shè)閾值。可選地,模型優(yōu)化模塊,用于根據(jù)候選區(qū)域的類別響應(yīng),確定候選區(qū)域歸屬的訓練類別;獲取預先對模型訓練圖片的文本標記結(jié)果;根據(jù)文本標記結(jié)果,確定候選區(qū)域歸屬的實際類別;根據(jù)訓練類別和實際類別,優(yōu)化CNN模型中的各個參數(shù)。可選地,該裝置還包括:特征向量獲取模塊,用于對于每一個模型訓練圖片,獲取模型訓練圖片的訓練特征向量;特征向量確定模塊,用于在全部訓練特征向量中,確定包括文本的模型訓練圖片對應(yīng)的第一訓練特征向量、包括非文本的模型訓練圖片對應(yīng)的第二訓練特征向量;分類器優(yōu)化模塊,用于根據(jù)第一訓練特征向量和第二訓練特征向量,優(yōu)化SVM分類器中的各個參數(shù)??蛇x地,該裝置還包括:候選區(qū)域過濾模塊,用于對多個候選區(qū)域進行過濾,直至過濾后的候選區(qū)域的剩余百分比滿足預設(shè)數(shù)值,得到目標區(qū)域。本發(fā)明實施例提供的裝置,對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域,并計算每一個目標區(qū)域的類別響應(yīng),之后根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量,當特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片,由于上述文本圖片檢測方式可對自然圖片中的文本圖片進行檢測,所以該種檢測方式的應(yīng)用范圍較為廣泛,普適性強。需要說明的是:上述實施例提供的文本圖片檢測裝置在檢測文本圖片時,僅以上述各功能模塊的劃分進行舉例說明,實際應(yīng)用中,可以根據(jù)需要而將上述功能分配由不同的功能模塊完成,即將設(shè)備的內(nèi)部結(jié)構(gòu)劃分成不同的功能模塊,以完成以上描述的全部或者部分功能。另外,上述實施例提供的文本圖片檢測裝置與文本圖片檢測方法實施例屬于同一構(gòu)思,其具體實現(xiàn)過程詳見方法實施例,這里不再贅述。圖7是根據(jù)一示例性實施例示出的一種服務(wù)器,該服務(wù)器可以用于實施上述任一示例性實施例示出的文本圖片檢測方法。具體來講:參見圖7,該服務(wù)器700可因配置或性能不同而產(chǎn)生比較大的差異,可以包括一個或一個以上中央處理器(CentralProcessingUnit,CPU)722(例如,一個或一個以上處理器)和存儲器732,一個或一個以上存儲應(yīng)用程序742或數(shù)據(jù)744的存儲介質(zhì)730(例如一個或一個以上海量存儲設(shè)備)。其中,存儲器732和存儲介質(zhì)730可以是短暫存儲或持久存儲。存儲在存儲介質(zhì)730的程序可以包括一個或一個以上模塊(圖示沒標出)。服務(wù)器700還可以包括一個或一個以上電源726,一個或一個以上有線或無線網(wǎng)絡(luò)接口750,一個或一個以上輸入輸出接口758,和/或,一個或一個以上操作系統(tǒng)741,例如WindowsServerTM,MacOSXTM,UnixTM,LinuxTM,F(xiàn)reeBSDTM等等。一個或者一個以上程序存儲于存儲器中,且經(jīng)配置以由一個或者一個以上處理器執(zhí)行,一個或者一個以上程序包含用于進行以下操作的指令:對于每一個待檢測自然圖片,在所述待檢測自然圖片中提取多個候選區(qū)域;計算每一個目標區(qū)域的類別響應(yīng),所述目標區(qū)域通過對所述多個候選區(qū)域進行過濾處理得到;根據(jù)每一個目標區(qū)域的類別響應(yīng),計算所述待檢測自然圖片的特征向量,所述特征向量的維數(shù)與所述類別響應(yīng)的維數(shù)相等;當所述特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定所述待檢測自然圖片為文本圖片??蛇x地,所述根據(jù)所述每一個目標區(qū)域的類別響應(yīng),計算所述待檢測自然圖片的特征向量,包括:根據(jù)所述每一個目標區(qū)域的類別響應(yīng),生成所述待檢測自然圖片的特征矩陣,所述特征矩陣的列數(shù)與所述類別響應(yīng)的維數(shù)相等;根據(jù)所述特征矩陣,計算所述待檢測自然圖片的特征向量??蛇x地,所述在所述待檢測自然圖片中提取多個候選區(qū)域之前,該方法還包括:獲取多個自然圖片,將所述多個自然圖片作為模型訓練圖片;對于每一個模型訓練圖片,在所述模型訓練圖片中提取多個候選區(qū)域;計算所述多個候選區(qū)域中每一個文本區(qū)域的HOG特征;根據(jù)所述HOG特征,對全部文本區(qū)域進行聚類,得到指定數(shù)目個類;初始化CNN模型中的各個參數(shù);基于所述CNN模型計算每一個候選區(qū)域的類別響應(yīng);對于每一個候選區(qū)域,根據(jù)所述候選區(qū)域的類別響應(yīng),優(yōu)化所述CNN模型中的各個參數(shù),直至所述CNN模型的分類誤差小于預設(shè)閾值。可選地,所述根據(jù)所述候選區(qū)域的類別響應(yīng),優(yōu)化所述CNN模型中的各個參數(shù),包括:根據(jù)所述候選區(qū)域的類別響應(yīng),確定所述候選區(qū)域歸屬的訓練類別;獲取預先對所述模型訓練圖片的文本標記結(jié)果;根據(jù)所述文本標記結(jié)果,確定所述候選區(qū)域歸屬的實際類別;根據(jù)所述訓練類別和所述實際類別,優(yōu)化所述CNN模型中的各個參數(shù)。可選地,所述在所述待檢測自然圖片中提取多個候選區(qū)域之前,該方法還包括:對于每一個模型訓練圖片,獲取所述模型訓練圖片的訓練特征向量;在全部訓練特征向量中,確定包括文本的模型訓練圖片對應(yīng)的第一訓練特征向量、包括非文本的模型訓練圖片對應(yīng)的第二訓練特征向量;根據(jù)所述第一訓練特征向量和所述第二訓練特征向量,優(yōu)化SVM分類器中的各個參數(shù)。可選地,所述計算每一個目標區(qū)域的類別響應(yīng)之前,該方法還包括:對所述多個候選區(qū)域進行過濾,直至過濾后的候選區(qū)域的剩余百分比滿足預設(shè)數(shù)值,得到所述目標區(qū)域。本發(fā)明實施例提供的服務(wù)器,對于每一個待檢測自然圖片,在待檢測自然圖片中提取多個候選區(qū)域,并計算每一個目標區(qū)域的類別響應(yīng),之后根據(jù)每一個目標區(qū)域的類別響應(yīng),計算待檢測自然圖片的特征向量,當特征向量位于預先設(shè)置的文本圖片歸屬的特征向量范圍內(nèi)時,確定待檢測自然圖片為文本圖片,由于上述文本圖片檢測方式可對自然圖片中的文本圖片進行檢測,所以該種檢測方式的應(yīng)用范圍較為廣泛,普適性強。本領(lǐng)域普通技術(shù)人員可以理解實現(xiàn)上述實施例的全部或部分步驟可以通過硬件來完成,也可以通過程序來指令相關(guān)的硬件完成,所述的程序可以存儲于一種計算機可讀存儲介質(zhì)中,上述提到的存儲介質(zhì)可以是只讀存儲器,磁盤或光盤等。以上所述僅為本發(fā)明的較佳實施例,并不用以限制本發(fā)明,凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進等,均應(yīng)包含在本發(fā)明的保護范圍之內(nèi)。當前第1頁1 2 3 當前第1頁1 2 3 
當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1