本發(fā)明涉及一種基于圖像的物體識(shí)別方法。
背景技術(shù):
近些年來,深度卷積神經(jīng)網(wǎng)絡(luò)在物體識(shí)別,物體定位和圖像分割領(lǐng)域已經(jīng)取得了重大的進(jìn)展。通過基于深度卷積神經(jīng)網(wǎng)絡(luò)的物體識(shí)別算法,在個(gè)別任務(wù)上,機(jī)器的識(shí)別準(zhǔn)確率甚至已經(jīng)超過了人類。
另外一些算法,在現(xiàn)有技術(shù)中公開的r-cnn算法、fasterr-cnn算法、yolo(youonlylookonce)算法、ssd算法以及r-fcn算法在物體定位和圖像分割領(lǐng)域也取得很大的成功,得到了較高的準(zhǔn)確率。
然而這些方法普遍存在識(shí)別物體種類較少(20~80類),以及對(duì)于新的物體種類,需要大量帶標(biāo)簽的訓(xùn)練集,花費(fèi)大量時(shí)間重新訓(xùn)練神經(jīng)網(wǎng)絡(luò),才能達(dá)到識(shí)別的效果。此外,絕大部分物體定位和識(shí)別算法缺乏對(duì)同類物品中不同個(gè)體的區(qū)分能力。
因此存在對(duì)如下的物體識(shí)別方法的需求,該方法無需重新訓(xùn)練神經(jīng)網(wǎng)絡(luò),只需通過較為簡(jiǎn)單的步驟,即可識(shí)別新的物體。此外,該方法還需要具有識(shí)別精度高,定位準(zhǔn)確,擴(kuò)展性強(qiáng),可快速擴(kuò)展物體種類,區(qū)分物體個(gè)體差異強(qiáng)的特點(diǎn)。
技術(shù)實(shí)現(xiàn)要素:
本發(fā)明的目的旨在解決現(xiàn)有技術(shù)中存在的上述問題和缺陷的至少一個(gè)方面。
在本發(fā)明的一個(gè)方面中,提供一種基于圖像的物體識(shí)別方法,所述方法包括:
訓(xùn)練過程,所述訓(xùn)練過程用于建立第一數(shù)據(jù)庫和第二數(shù)據(jù)庫,所述第一數(shù)據(jù)庫包括用于描述多個(gè)物體形狀的第一特征向量,所述第二數(shù)據(jù)庫包括用于描述多個(gè)物體類別的第二特征向量;以及
識(shí)別過程,所述識(shí)別過程包括如下的步驟:
s21:將包含物體的圖片輸入到深度卷積神經(jīng)網(wǎng)絡(luò)中;
s22:在圖片上生成至少一個(gè)候選框,對(duì)至少一個(gè)候選框中的每個(gè)候選框?qū)?yīng)的特征映射圖進(jìn)行池化處理以得到用于每個(gè)候選框的第三特征向量;
s23:將第三特征向量與第一數(shù)據(jù)庫中的第一特征向量進(jìn)行比對(duì),計(jì)算兩個(gè)向量之間的相關(guān)系數(shù),在相關(guān)系數(shù)大于或等于特定閾值的情況下,將該第三特征向量所對(duì)應(yīng)的候選框選定為有效候選框;
s24:將有效候選框中的圖像輸入到分類神經(jīng)網(wǎng)絡(luò)中以獲取第四特征向量;
s25:基于第四特征向量、第二特征向量和第二數(shù)據(jù)庫,執(zhí)行k最近鄰分類算法(knn)以識(shí)別出物體的類別。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,所述訓(xùn)練過程包括如下的步驟:
s11:以第一角度、第一距離和第一光照對(duì)至少一個(gè)物體進(jìn)行拍攝以獲取物體圖片;
s12:將物體圖片輸入到深度卷積神經(jīng)網(wǎng)絡(luò)中以生成至少一個(gè)候選框;
s13:手動(dòng)地確定物體在圖片中的坐標(biāo)并選取每個(gè)物體的目標(biāo)候選框;
s14:對(duì)選取的目標(biāo)候選框?qū)?yīng)的圖像進(jìn)行池化處理,從而得到用于描述每個(gè)物體的第一特征向量,這些特征向量具有統(tǒng)一長(zhǎng)度;
s15:將這些統(tǒng)一長(zhǎng)度的第一特征向量存儲(chǔ)至第一數(shù)據(jù)庫;
s16:將目標(biāo)候選框中的圖像輸入到分類神經(jīng)網(wǎng)絡(luò)中以獲取描述每個(gè)物體的第二特征向量;
s17:將這些第二特征向量存儲(chǔ)至第二數(shù)據(jù)庫;
s18:以不同于第一角度、第一距離和第一光照的多個(gè)角度、多個(gè)距離和多個(gè)光照對(duì)至少一個(gè)物體進(jìn)行拍攝以獲取多個(gè)不同的圖片:以及
s19:對(duì)多個(gè)不同的圖片執(zhí)行步驟s12-s18的處理,以在第一數(shù)據(jù)庫中存儲(chǔ)用于描述同一物體的多個(gè)第一特征向量,在第二數(shù)據(jù)庫中存儲(chǔ)用于描述同一物體的多個(gè)第二特征向量。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,在步驟s21中使用的深度卷積神經(jīng)網(wǎng)絡(luò)是faster-rcnn網(wǎng)絡(luò),在步驟s22中使用區(qū)域生成網(wǎng)絡(luò)(regionproposalnetwork)生成至少一個(gè)候選框,進(jìn)行的池化處理是regionofinterestpooling處理,以及在步驟s24中使用的分類神經(jīng)網(wǎng)絡(luò)是卷積神經(jīng)網(wǎng)絡(luò)(cnn)。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,在步驟s12中使用的深度卷積神經(jīng)網(wǎng)絡(luò)是fast-rcnn網(wǎng)絡(luò),在步驟s14中進(jìn)行的池化處理是regionofinterestpooling處理,以及在步驟s16中使用的分類神經(jīng)網(wǎng)絡(luò)是卷積神經(jīng)網(wǎng)絡(luò)(cnn)。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,所述方法還包括如下的步驟:在步驟s23之后,執(zhí)行非極大值抑制算法以進(jìn)一步篩選有效候選框以將篩選出的有效候選框用在步驟s24中。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,進(jìn)行非極大值抑制所用的閾值位于0至0.6的范圍內(nèi)。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,所述相關(guān)系數(shù)是歐式距離、余弦距離或皮爾森相關(guān)系數(shù)。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,所述特定閾值位于0.5至1的范圍之內(nèi)。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,cnn網(wǎng)絡(luò)基于squeezenet模型、vgg模型和resnet模型中的任一種。
在根據(jù)本發(fā)明的一個(gè)優(yōu)選實(shí)施例中,k最近鄰分類算法是基于投票委員會(huì)的k最近鄰分類算法。
在根據(jù)本發(fā)明的物體識(shí)別方法中,在識(shí)別過程中,首先,通過深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖片中的候選框中的圖像的特征進(jìn)行提取,以得到第三特征向量,將該第三特征向量與第一特征向量進(jìn)行對(duì)比,并計(jì)算相關(guān)系數(shù),通過一閾值來過濾不匹配的目標(biāo)框,例如從圖片中去除表示不具有特定形狀的候選框,例如表示圖片的背景的候選框,從而初步地篩選出在其中包含了已知形狀的物體的候選框,即,有效候選框(boundingbox)。然后,將該有效候選框所對(duì)應(yīng)的圖像送入分類神經(jīng)網(wǎng)絡(luò)中以進(jìn)一步得到候選框中的第四特征向量。最后基于第四特征向量和第二數(shù)據(jù)庫(即,分類數(shù)據(jù)庫)來執(zhí)行第二級(jí)分類處理,從而對(duì)物體進(jìn)行類別細(xì)分。在該識(shí)別過程中,通過初步篩選和第二級(jí)分類處理可以進(jìn)行多級(jí)特征分類,從而提高分類和識(shí)別精度。
附圖說明
圖1是根據(jù)本發(fā)明的示例性實(shí)施例的一種物體識(shí)別方法的識(shí)別過程的流程圖。
圖2是是根據(jù)本發(fā)明的示例性實(shí)施例的一種物體識(shí)別方法的物體訓(xùn)練過程的流程圖
具體實(shí)施方式
下面通過實(shí)施例,并結(jié)合附圖,對(duì)本發(fā)明的技術(shù)方案作進(jìn)一步具體的說明。下述參照附圖對(duì)本發(fā)明實(shí)施方式的說明旨在對(duì)本發(fā)明的總體發(fā)明構(gòu)思進(jìn)行解釋,而不應(yīng)當(dāng)理解為對(duì)本發(fā)明的一種限制。
另外,在下面的詳細(xì)描述中,為便于解釋,闡述了許多具體的細(xì)節(jié)以提供對(duì)本披露實(shí)施例的全面理解。然而明顯地,一個(gè)或多個(gè)實(shí)施例在沒有這些具體細(xì)節(jié)的情況下也可以被實(shí)施。
根據(jù)本發(fā)明的總的發(fā)明構(gòu)思,本發(fā)明提供一種基于圖像的物體識(shí)別方法,所述方法包括:訓(xùn)練過程以及識(shí)別過程。所述訓(xùn)練過程用于建立第一數(shù)據(jù)庫和第二數(shù)據(jù)庫,所述第一數(shù)據(jù)庫包括用于描述多個(gè)物體形狀的第一特征向量,所述第二數(shù)據(jù)庫包括用于描述多個(gè)物體類別的第二特征向量。
如圖1所示,所述識(shí)別過程包括如下的步驟:
s21:將包含物體的圖片輸入到深度卷積神經(jīng)網(wǎng)絡(luò)中;
s22:在圖片上生成至少一個(gè)候選框,對(duì)至少一個(gè)候選框中的每個(gè)候選框?qū)?yīng)的特征映射圖進(jìn)行池化處理以得到用于每個(gè)候選框的第三特征向量;
s23:將第三特征向量與第一數(shù)據(jù)庫中的第一特征向量進(jìn)行比對(duì),計(jì)算兩個(gè)向量之間的相關(guān)系數(shù),在相關(guān)系數(shù)大于或等于特定閾值的情況下,將該第三特征向量所對(duì)應(yīng)的候選框選定為有效候選框;
s24:將有效候選框中的圖像輸入到分類神經(jīng)網(wǎng)絡(luò)中以獲取第四特征向量;
s25:基于第四特征向量、第二特征向量和第二數(shù)據(jù)庫,執(zhí)行k最近鄰分類算法(knn)以識(shí)別出物體的類別。
在根據(jù)本發(fā)明的物體識(shí)別方法中,同一物體在第一數(shù)據(jù)庫中通過第一特征向量表示,以明確該物體的形狀,在第二數(shù)據(jù)庫中通過第二特征向量表示,以明確該物體的具體類別,例如在第一數(shù)據(jù)庫中,某一第一特征向量表示杯子,那么在第二數(shù)據(jù)庫中,某一第二特征向量可以表示具有某種顏色的杯子,歸屬于某用戶的杯子等,因此多個(gè)第二特征向量可以表示不同顏色,歸屬于不同用戶的杯子,但是應(yīng)當(dāng)理解具體的形狀屬性和類別屬性可以根據(jù)實(shí)際需要而確定。
在根據(jù)本發(fā)明的物體識(shí)別方法中,在識(shí)別過程中,首先,通過深度卷積神經(jīng)網(wǎng)絡(luò)對(duì)圖片中的候選框中的圖像的特征進(jìn)行提取,以得到第三特征向量,將該第三特征向量與第一特征向量進(jìn)行對(duì)比,并計(jì)算相關(guān)系數(shù),通過一閾值來過濾不匹配的目標(biāo)框,例如從圖片中去除表示不具有特定形狀的候選框,例如表示圖片的背景的候選框,從而初步地篩選出在其中包含了已知形狀的物體的候選框,即,有效候選框(boundingbox)。然后,將該有效候選框所對(duì)應(yīng)的圖像送入分類神經(jīng)網(wǎng)絡(luò)中以進(jìn)一步得到候選框中的第四特征向量。最后基于第四特征向量和第二數(shù)據(jù)庫(即,分類數(shù)據(jù)庫)來執(zhí)行第二級(jí)分類處理,從而對(duì)物體進(jìn)行類別細(xì)分。在該識(shí)別過程中,通過初步篩選和第二級(jí)分類處理可以進(jìn)行多級(jí)特征分類,從而提高分類和識(shí)別精度。
在本發(fā)明的一個(gè)示例性實(shí)施例中,該相關(guān)系數(shù)可以是歐式距離、余弦距離或皮爾森相關(guān)系數(shù)。如上僅僅列舉出了相關(guān)系數(shù)的優(yōu)選實(shí)施例,能夠計(jì)算相關(guān)系數(shù)的所有計(jì)算方式均應(yīng)落在本發(fā)明的保護(hù)范圍之內(nèi)。在本發(fā)明的優(yōu)選實(shí)施例中,選用皮爾森相關(guān)系數(shù),其計(jì)算公式如下:
相關(guān)系數(shù)的值域?yàn)?1到1,正數(shù)區(qū)間表示正相關(guān),負(fù)數(shù)區(qū)間表示負(fù)相關(guān),其絕對(duì)值越大表示相關(guān)程度越高。在根據(jù)本發(fā)明的物體識(shí)別方法中,對(duì)對(duì)比得到的相關(guān)系數(shù)設(shè)定一個(gè)閾值,低于該閾值的特征向量及其對(duì)應(yīng)的boundingbox將被過濾掉。在本發(fā)明的一個(gè)示例性實(shí)施例中,該閾值一般設(shè)定到0.5到1之間。
在對(duì)卷積神經(jīng)網(wǎng)絡(luò)(cnn)的普遍認(rèn)知中,訓(xùn)練一個(gè)收斂且表現(xiàn)良好的網(wǎng)絡(luò)需要大量良好的數(shù)據(jù)對(duì)網(wǎng)絡(luò)進(jìn)行大量迭代?;趂aster-rcnn的設(shè)計(jì)理念,訓(xùn)練所需的數(shù)據(jù)集要求標(biāo)記出訓(xùn)練集圖像中所有物體的詳細(xì)boundingbox信息以及分類信息。這一過程需要消耗大量的人力,且由于網(wǎng)絡(luò)的復(fù)雜度高、迭代次數(shù)多的原因,faster-rcnn的訓(xùn)練需要消耗大量的時(shí)間,在目前的硬件條件下,消耗的時(shí)間需要以天為單位。此外,受限于其設(shè)計(jì)理念和圖像標(biāo)注方式,faster-rcnn僅僅能對(duì)物體的大類進(jìn)行區(qū)分(例如,區(qū)分電腦和杯子等具有不同形狀的大類),并不具備對(duì)物體進(jìn)行區(qū)分描述的能力??梢钥偨Y(jié)為,faster-rcnn的能力在于檢索圖像中特定形狀的物體,但不能進(jìn)行細(xì)分。
在本發(fā)明的一個(gè)示例性實(shí)施例中,由于認(rèn)識(shí)到faster-rcnn網(wǎng)絡(luò)在識(shí)別特定形狀的物體方面具有突出的能力,因此在步驟s21中使用的深度卷積神經(jīng)網(wǎng)絡(luò)是faster-rcnn網(wǎng)絡(luò),以提取表示物體形狀的第三特征向量,以更好地提取出在其中包含特定形狀的物體的boundingbox。在步驟s22中,通過faster-rcnn中的區(qū)域生成網(wǎng)絡(luò)(regionproposalnetwork),根據(jù)圖片的特征空間而生成相應(yīng)數(shù)量的候選框,該網(wǎng)絡(luò)的優(yōu)點(diǎn)在本領(lǐng)域中是已知的,在此不再贅述。由于不同的候選框中的特征向量的長(zhǎng)度可能不同,因此通過regionofinterestpooling處理,可以得到歸一化長(zhǎng)度的特征向量。由于卷積神經(jīng)網(wǎng)絡(luò)(cnn)可分類的物體種類多,并能達(dá)到相對(duì)理想的效果,該網(wǎng)絡(luò)所具備的不僅僅是對(duì)原1000類物體進(jìn)行分類的能力,而是具備對(duì)物體進(jìn)行可區(qū)分性描述的能力。根據(jù)實(shí)際的測(cè)試結(jié)果表明,通過這種神經(jīng)網(wǎng)絡(luò)進(jìn)行的物體描述,即cnn網(wǎng)絡(luò)提取的物體圖像特征,可以達(dá)到在同類物品中區(qū)別差異性個(gè)體(例如不同形狀或顏色的杯子、桌子、書等等)的效果。因此,在步驟s24中,所述分類神經(jīng)網(wǎng)絡(luò)是卷積神經(jīng)網(wǎng)絡(luò)(cnn)。
考慮到當(dāng)前的faster-rcnn在訓(xùn)練過程中所耗費(fèi)的時(shí)間之長(zhǎng),根據(jù)本發(fā)明的物體識(shí)別方法提出了如下的訓(xùn)練過程,如圖2所示,所述訓(xùn)練過程包括:
s11:以第一角度、第一距離和第一光照對(duì)至少一個(gè)物體進(jìn)行拍攝以獲取物體圖片;
s12:將物體圖片輸入到深度卷積神經(jīng)網(wǎng)絡(luò)中以生成至少一個(gè)候選框;
s13:手動(dòng)地確定物體在圖片中的坐標(biāo)并選取每個(gè)物體的目標(biāo)候選框并且;
s14:對(duì)選取的目標(biāo)候選框?qū)?yīng)的圖像進(jìn)行池化處理,從而得到用于描述每個(gè)物體的第一特征向量,這些特征向量具有統(tǒng)一長(zhǎng)度;
s15:將這些統(tǒng)一長(zhǎng)度的第一特征向量存儲(chǔ)至第一數(shù)據(jù)庫;
s16:將目標(biāo)候選框中的圖像輸入到分類神經(jīng)網(wǎng)絡(luò)中以獲取描述每個(gè)物體的第二特征向量;
s17:將這些第二特征向量存儲(chǔ)至第二數(shù)據(jù)庫;
s18:以不同于第一角度、第一距離和第一光照的多個(gè)角度、多個(gè)距離和多個(gè)光照對(duì)至少一個(gè)物體進(jìn)行拍攝以獲取多個(gè)不同的圖片:以及
s19:對(duì)多個(gè)不同的圖片執(zhí)行步驟s12-s18的處理,以在第一數(shù)據(jù)庫中存儲(chǔ)用于描述同一物體的多個(gè)第一特征向量,在第二數(shù)據(jù)庫中存儲(chǔ)用于描述同一物體的多個(gè)第二特征向量。
因此,通過如上所述的根據(jù)本發(fā)明的物體訓(xùn)練過程,可以通過簡(jiǎn)單的步驟建立物體第一數(shù)據(jù)庫(形狀數(shù)據(jù)庫)和第二數(shù)據(jù)庫(分類數(shù)據(jù)庫),并且在這些數(shù)據(jù)庫中,物體特征的可擴(kuò)展性很強(qiáng),可以根據(jù)用戶的需求靈活地設(shè)置,并且省去了重新訓(xùn)練神經(jīng)網(wǎng)絡(luò)的過程,節(jié)省了時(shí)間。
由于在訓(xùn)練過程中,手動(dòng)地選取目標(biāo)候選框,因此不需要使用區(qū)域生成網(wǎng)絡(luò)(regionproposalnetwork)來根據(jù)圖片的特征空間而生成相應(yīng)數(shù)量的候選框,并且考慮到fast-rcnn網(wǎng)絡(luò)識(shí)別特定形狀的物體方面具有突出的能力,因此在步驟s12中使用的深度卷積神經(jīng)網(wǎng)絡(luò)是fast-rcnn網(wǎng)絡(luò)。但是,在步驟s14中進(jìn)行的池化處理依舊是regionofinterestpooling處理,以及在步驟s16中使用的分類神經(jīng)網(wǎng)絡(luò)依舊是卷積神經(jīng)網(wǎng)絡(luò)(cnn)。具體的選擇理由如上所述,在此不再贅述。
在步驟s23之后,即使通過相關(guān)系數(shù)的閾值過濾掉了一部分不匹配的候選框,但是同一個(gè)物體還是可能由多個(gè)候選框來標(biāo)注,這些候選框之間存在一定的重疊,且每個(gè)候選框具有不同的置信值,因此在根據(jù)本發(fā)明的一個(gè)示例性實(shí)施例中,在步驟s23之后,執(zhí)行非極大值抑制算法以進(jìn)一步篩選有效候選框以將篩選出的有效候選框用在步驟s24中。在根據(jù)本發(fā)明的一個(gè)示例性實(shí)施例中,進(jìn)行非極大值抑制所用的閾值位于0至0.6的范圍內(nèi)。
在根據(jù)本發(fā)明的一個(gè)示例性實(shí)施例中,cnn網(wǎng)絡(luò)基于squeezenet模型、vgg模型和resnet模型中的任一種。如上僅僅列舉出了cnn所采用的分類模型的優(yōu)選實(shí)施例,能夠進(jìn)行分類計(jì)算的模型均應(yīng)落在本發(fā)明的保護(hù)范圍之內(nèi)。上述兩種方案具有相同的特點(diǎn)。squeezenet模型和vgg模型的區(qū)別在于計(jì)算量具有一定的差距,故此對(duì)物體的描述能力有強(qiáng)弱之分。二者相較,squeezenet的計(jì)算量級(jí)更低,但相比于vgg描述能力相對(duì)較弱。在根據(jù)本發(fā)明的優(yōu)選實(shí)施例中,考慮到計(jì)算速度的原因,選取更加經(jīng)濟(jì)合算的squeezenet模型。
對(duì)于k最近鄰分類算法的選擇可以采用傳統(tǒng)的k最近鄰分類算法,其中,傳統(tǒng)knn分類方法的做法是,將數(shù)據(jù)庫中不同的類別形成一個(gè)特征空間,每個(gè)類別的特征向量單獨(dú)形成一個(gè)獨(dú)立的區(qū)域。當(dāng)希望對(duì)表示某種物體的新得到的特征向量進(jìn)行分類時(shí),需計(jì)算新特征向量到每個(gè)類別的特征向量組成的區(qū)域的距離(設(shè)其距離為dmin),當(dāng)新特征向量到a類別的特征向量組成的區(qū)域的距離最小時(shí),將該新特征向量所表述的物體歸屬于a類別。需要對(duì)dmin進(jìn)行衡量,為此需確定一個(gè)閾值,當(dāng)dmin大于該閾值時(shí),分類結(jié)果將被舍棄,即認(rèn)為新特征向量不屬于原數(shù)據(jù)庫中的任何一種類別。
但是,在數(shù)據(jù)庫中類別較多或特征向量的描述性不夠強(qiáng)時(shí),利用基于投票委員會(huì)的k最近鄰分類算法。在基于投票委員會(huì)的k最近鄰分類算法,使用pearson相關(guān)系數(shù)對(duì)特征向量與分類數(shù)據(jù)庫中的所有特征向量進(jìn)行比對(duì),在得到若干組相關(guān)系數(shù)后,對(duì)每組中的相關(guān)系數(shù)進(jìn)行排序。通常,在每組相關(guān)系數(shù)中,選取相關(guān)系數(shù)最高的t個(gè)值組成投票委員會(huì),因此得到若干組投票委員會(huì),并分別對(duì)每組中的t個(gè)值進(jìn)行加權(quán)。加權(quán)方式可采用線性加權(quán)、指數(shù)加權(quán)、sigmoid型加權(quán)等。
然后,對(duì)加權(quán)后的值進(jìn)行歸類相加,即把委員會(huì)中歸屬于同一類物體的t個(gè)相關(guān)系數(shù)進(jìn)行求和得到一個(gè)加權(quán)和值。此外,設(shè)置兩個(gè)閾值,第一個(gè)閾值稱為差值閾值,即得分最高的類別的加權(quán)和值減去得分次高類別的加權(quán)和值的差須大于此閾值,將其設(shè)在0.3,但不排除其他值也是可行的。第二個(gè)閾值為決定閾值,即最高加權(quán)和值必須大于此門限,將其設(shè)在2,但不排除其他值也是可行的。當(dāng)最高加權(quán)和值滿足此上兩個(gè)條件時(shí),才認(rèn)為分類結(jié)果真實(shí)有效。
本領(lǐng)域的技術(shù)人員可以理解,上面所描述的實(shí)施例都是示例性的,并且本領(lǐng)域的技術(shù)人員可以對(duì)其進(jìn)行改進(jìn),各種實(shí)施例中所描述的結(jié)構(gòu)在不發(fā)生結(jié)構(gòu)或者原理方面的沖突的情況下可以進(jìn)行自由組合。
雖然結(jié)合附圖對(duì)本發(fā)明進(jìn)行了說明,但是附圖中公開的實(shí)施例旨在對(duì)本發(fā)明優(yōu)選實(shí)施方式進(jìn)行示例性說明,而不能理解為對(duì)本發(fā)明的一種限制。
雖然本總體發(fā)明構(gòu)思的一些實(shí)施例已被顯示和說明,本領(lǐng)域普通技術(shù)人員將理解,在不背離本總體發(fā)明構(gòu)思的原則和精神的情況下,可對(duì)這些實(shí)施例做出改變,本發(fā)明的范圍以權(quán)利要求和它們的等同物限定。
應(yīng)注意,措詞“包括”不排除其它元件或步驟,措詞“一”或“一個(gè)”不排除多個(gè)。另外,權(quán)利要求的任何元件標(biāo)號(hào)不應(yīng)理解為限制本發(fā)明的范圍。