專利名稱::特定被攝體檢測(cè)裝置及其學(xué)習(xí)裝置和學(xué)習(xí)方法
技術(shù)領(lǐng)域:
:本發(fā)明涉及一種特定被攝體檢測(cè)裝置及其學(xué)習(xí)裝置和學(xué)習(xí)方法,更具體地涉及對(duì)強(qiáng)分類器和弱分類器進(jìn)行學(xué)習(xí)訓(xùn)練的學(xué)習(xí)裝置和學(xué)習(xí)方法及使用所述學(xué)習(xí)裝置和學(xué)習(xí)方法的特定被攝體檢測(cè)裝置。
背景技術(shù):
:人臉檢測(cè)(facedetection)是指對(duì)于任意一幅給定的圖像,采用一定的策略對(duì)其進(jìn)行搜索以確定其中是否含有人臉,如果是,則返回人臉的位置、大小和姿態(tài)。人臉通常具有十分豐富的生物特征信息,可以用于人機(jī)交互、跟蹤監(jiān)控、身份識(shí)別等領(lǐng)域,而提取人臉相關(guān)信息的首要步驟正是定位人臉區(qū)域。這使得人臉檢測(cè)技術(shù)具有非同尋常的意義和極為廣泛的應(yīng)用前景。人臉檢測(cè)的實(shí)用性將取決于檢測(cè)精度和檢測(cè)速度二者的提高。圖1示出了現(xiàn)有技術(shù)的檢測(cè)器的功能層次框圖。如圖1所示,現(xiàn)有技術(shù)的檢測(cè)器層次結(jié)構(gòu),由上至下依次是檢測(cè)器、強(qiáng)分類器、弱分類器、特征提取以及函數(shù)映射。也就是說(shuō),現(xiàn)有技術(shù)的檢測(cè)器包括相互串聯(lián)的多個(gè)強(qiáng)分類器,各強(qiáng)分類器包括相互串聯(lián)的多個(gè)弱分類器,各弱分類器包括特征提取部和映射部。特征提取部采用稀疏粒度特征等特征提取方法進(jìn)行特征提取(可參見本專利申請(qǐng)人的第200610072576.4號(hào)中國(guó)專利申請(qǐng),通過(guò)引用將其并入本文中,如同在本文中完全闡明一樣),而映射部則采用基于查找表方法(LookUpTable)的分段線性函數(shù)等方法進(jìn)行弱分類。在使用檢測(cè)器前,需要對(duì)檢測(cè)器進(jìn)行訓(xùn)練。對(duì)檢測(cè)器進(jìn)行固定的離線訓(xùn)練是本領(lǐng)域所公知的。對(duì)于固定的離線訓(xùn)練算法來(lái)說(shuō),一旦用于訓(xùn)練的樣本集合(即人臉圖片和背景圖片)被確定下來(lái),其學(xué)習(xí)得到的人臉檢測(cè)器就不會(huì)發(fā)生太大的變化。由于離線訓(xùn)練樣本采集過(guò)程的局限性,樣本集合通常只能夠描述一般環(huán)境條件下人臉模式和非人臉模式的分布情況。然而由于終端用戶的不同、環(huán)境和目標(biāo)的變化,檢測(cè)器往往需要面對(duì)一些比較特殊的狀況。一方面,佩戴墨鏡和圍巾等飾物可以導(dǎo)致人臉的局部遮擋,而劇烈的光照變化更是極大地改變了人臉的表觀模式。這些特殊環(huán)境條件下的人臉模式由于比較罕見,通常很少出現(xiàn)在用于離線訓(xùn)練的人臉樣本集合中。另一方面,盡管我們可以收集數(shù)以萬(wàn)計(jì)的背景圖片集合,并從中提取出大量掃描窗口作為非人臉訓(xùn)練樣本,卻仍然無(wú)法確保能夠涵蓋所有的背景類型。換句話說(shuō),離線訓(xùn)練樣本集合(包括人臉和非人臉兩部分)所描述的一般情況與在線檢測(cè)過(guò)程所要處理的實(shí)際情況之間可能存在較大的差異。這種難以避免的差異使得離線訓(xùn)練得到的檢測(cè)器時(shí)常不能很好地適應(yīng)在線檢測(cè)的應(yīng)用環(huán)境,產(chǎn)生較多的漏檢和誤報(bào)。歸根結(jié)底,這種不適應(yīng)性是由于離線訓(xùn)練樣本不能反映在線情況所造成的。為了克服這個(gè)問(wèn)題,人們對(duì)在線學(xué)習(xí)進(jìn)行了大量的研究。在線學(xué)習(xí)是一類根據(jù)訓(xùn)練數(shù)據(jù)收集特點(diǎn)而專門設(shè)計(jì)的持續(xù)性學(xué)習(xí)算法。與離線學(xué)習(xí)過(guò)程中所有訓(xùn)練數(shù)據(jù)是預(yù)先收集得到的不同,在線學(xué)習(xí)過(guò)程需要處理不斷收集得來(lái)的數(shù)據(jù)流。由于總的數(shù)據(jù)量十分龐大,在線學(xué)習(xí)不能保存所有已收集到的數(shù)據(jù)。換句話說(shuō),每項(xiàng)訓(xùn)練數(shù)據(jù)在使用完后就必須被拋棄。在線學(xué)習(xí)并不需要離線訓(xùn)練得到的結(jié)果作為基礎(chǔ),因而是一個(gè)單純的學(xué)習(xí)框架。到目前為止,大多數(shù)與在線學(xué)習(xí)相關(guān)的工作都是基于傳統(tǒng)的機(jī)器學(xué)習(xí)方法,如P.Utgoff等人提出的基于決策樹模型的在線學(xué)習(xí)算法,N.Littlestone提出的Winnow算法、以及N.Littlestone和M.Warmuth所采用的WMA(WeightedMajorityAlgorithm)算法。在現(xiàn)有技術(shù)中,Boosting算法誕生于上世紀(jì)九十年代初,到現(xiàn)在僅有十余年時(shí)間,可以說(shuō)是一個(gè)非常年輕的機(jī)器學(xué)習(xí)算法。因此,與其相關(guān)的在線學(xué)習(xí)研究并不多。L.Breiman在他的文章中引入了一種"塊狀"在線Boosting算法,將在線訓(xùn)練樣本集合劃分為若干大小相同的子集,并依次用于各個(gè)弱分類器的在線訓(xùn)練。A.Fern禾BR.Givan則提出了另一種基于Arc-4x方法的在線Boosting算法,通過(guò)提高被錯(cuò)分訓(xùn)練樣本的權(quán)重來(lái)重新學(xué)習(xí)各個(gè)弱分類器。而相關(guān)工作中最具代表性的是N.Oza等人基于離散AdaBoost.Ml算法所提出的在線Boosting算法,其流程在圖2中示出。該算法利用當(dāng)前最新的訓(xùn)練樣本,按照自前向后的順序依次重新訓(xùn)練強(qiáng)分類器中的各個(gè)弱分類器以及與其對(duì)應(yīng)的組合系數(shù)。它采用決策樹模型作為弱分類器結(jié)構(gòu),根據(jù)樣本當(dāng)前權(quán)重(即被錯(cuò)分的程度)產(chǎn)生一個(gè)滿足柏松分布的隨機(jī)數(shù)t作為使用當(dāng)前樣本重新訓(xùn)練弱分類器的次數(shù)。如果訓(xùn)練的結(jié)果使得弱分類器能夠正確分類當(dāng)前樣本,那么將當(dāng)前樣本的權(quán)重累加到弱分類器的正確分類次數(shù)《中,調(diào)整弱分類器的錯(cuò)誤率e,",并根據(jù)該錯(cuò)誤率更新當(dāng)前樣本的權(quán)重h否則,將當(dāng)前樣本的權(quán)重累加到弱分類器的錯(cuò)誤分類次數(shù)^C中,類似地也需要調(diào)整弱分類器的錯(cuò)誤率e,"并更新當(dāng)前樣本的權(quán)重A。不難看出,N.Oza等人的在線Boosting算法在流程結(jié)構(gòu)上遵從于AdaBoost.Ml算法,是其對(duì)應(yīng)的在線訓(xùn)練版本?;贜.Oza等人提出的在線Boosting算法,0.Javed等人和H.Gmbner等人分別推出了各自的在線Boosting系統(tǒng),用于解決許多實(shí)際的計(jì)算機(jī)視覺問(wèn)題。0.Javed等人將N.Oza等人所提出的在線Boosting算法和協(xié)同訓(xùn)練框架(co-trainingframework)結(jié)合在一起,提高了用于行人和車輛的檢測(cè)系統(tǒng)的性能,而H.Grabner等人則通過(guò)引入一個(gè)特征選擇系統(tǒng),將在線Boosting算法廣泛用于各種計(jì)算機(jī)視覺問(wèn)題中,包括背景建模、物體檢測(cè)和跟蹤。然而上述這些在線Boosting算法無(wú)一例外地采用的都是二值輸出的弱分類器形式,對(duì)應(yīng)于傳統(tǒng)的離散AdaBoost算法。目前還沒有針對(duì)連續(xù)AdaBoost算法的在線學(xué)習(xí)Boosting算法。在線學(xué)習(xí)算法能夠?qū)Ξ?dāng)前檢測(cè)器進(jìn)行適當(dāng)?shù)恼{(diào)整,使其更好地處理這些樣本所代表的特殊場(chǎng)景,例如前面提到過(guò)的遮擋、光照變化。然而,在能力和容量都有限的條件下,檢測(cè)器想要具備更好處理特定場(chǎng)景的能力,通常就會(huì)損失一些處理一般環(huán)境的能力。更有甚者,如果在檢測(cè)器的調(diào)整過(guò)程中過(guò)分依賴于在線樣本,則有可能使得增量學(xué)習(xí)的效果大打折扣,不僅在一般應(yīng)用條件下性能顯著退化,甚至在所面對(duì)的特殊環(huán)境下也會(huì)出現(xiàn)過(guò)訓(xùn)練現(xiàn)象。因而,目前需要一種檢測(cè)器訓(xùn)練方法,既能彌補(bǔ)離線訓(xùn)練樣本不足的問(wèn)題,又不會(huì)使檢測(cè)器的性能大幅降低。另外,需要一種針對(duì)連續(xù)AdaBoost算法的檢測(cè)器訓(xùn)練算法。
發(fā)明內(nèi)容因此,本發(fā)明的一個(gè)目的是提供一種特定被攝體檢測(cè)裝置及檢測(cè)方法,可以利用增量學(xué)習(xí)的方法彌補(bǔ)離線訓(xùn)練樣本不足的問(wèn)題,又不會(huì)使檢測(cè)器的性能大幅降低。根據(jù)本發(fā)明的一個(gè)方面,本發(fā)明提供了一種特定被攝體檢測(cè)裝置,該特定被攝體檢測(cè)裝置包括輸入單元,用于輸入待檢測(cè)的圖像;一個(gè)或更多個(gè)強(qiáng)分類單元,用于對(duì)所述圖像進(jìn)行強(qiáng)分類,各所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元用于對(duì)所述圖像進(jìn)行弱分類;存儲(chǔ)單元,存儲(chǔ)所述弱分類器所使用的弱分類模板;判斷單元,根據(jù)所述強(qiáng)分類單元的分類結(jié)果,對(duì)所述圖像是否包含所述特定被攝體進(jìn)行判斷;其特征在于,所述特定被攝體檢測(cè)裝置還包括增量樣本輸入單元,用于輸入增量學(xué)習(xí)用的數(shù)據(jù),即輸入增量學(xué)習(xí)樣本,也就是該或其他特定被攝體檢測(cè)裝置所漏檢或誤報(bào)的數(shù)據(jù);學(xué)習(xí)單元,用于根據(jù)所述增量樣本輸入單元輸入的所述增量學(xué)習(xí)樣本,更新所述存儲(chǔ)單元所存儲(chǔ)的所述弱分類模板。根據(jù)本發(fā)明的另一方面,提供了一種用于特定被攝體檢測(cè)裝置的學(xué)習(xí)裝置,所述特定被攝體檢測(cè)裝置包括一個(gè)或更多個(gè)強(qiáng)分類單元,所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元利用弱分類模板對(duì)輸入的圖像進(jìn)行是否包含特定被攝體的判斷,所述學(xué)習(xí)裝置利用增量學(xué)習(xí)樣本對(duì)所述弱分類模板進(jìn)行更新,所述增量學(xué)習(xí)樣本是該或其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的數(shù)據(jù),所述學(xué)習(xí)裝置包括-優(yōu)化程度計(jì)算部,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度;判斷單元,根據(jù)所述優(yōu)化程度計(jì)算部的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),所述優(yōu)化參量更新單元對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),所述模板更新單元對(duì)所述弱分類模板進(jìn)行更新。根據(jù)本發(fā)明的再一方面,本發(fā)明提供了一種用于特定被攝體檢測(cè)裝置的學(xué)習(xí)方法,所述特定被攝體檢測(cè)裝置包括一個(gè)或更多個(gè)強(qiáng)分類單元,所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元利用弱分類模板對(duì)輸入的圖像進(jìn)行是否包含特定被攝體的判斷,所述學(xué)習(xí)方法包括針對(duì)各弱分類器的輸入步驟,輸入增量學(xué)習(xí)樣本,所述增量學(xué)習(xí)樣本是該或其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的數(shù)據(jù);優(yōu)化程度獲得步驟,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度,;判斷步驟,根據(jù)所述優(yōu)化程度獲得步驟的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新步驟,當(dāng)所述判斷步驟判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),該優(yōu)化參量更新步驟對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新步驟,當(dāng)所述判斷步驟判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),該模板更新步驟對(duì)所述弱分類模板進(jìn)行更新。應(yīng)該注意,上面的概要說(shuō)明和下文的詳細(xì)說(shuō)明都是示例性的,旨在對(duì)本發(fā)明進(jìn)行解釋說(shuō)明,不是對(duì)本發(fā)明的保護(hù)范圍的限制。下面將參照附圖詳細(xì)說(shuō)明本發(fā)明的實(shí)施例。在附圖中圖1示出了現(xiàn)有技術(shù)的檢測(cè)器的功能層次框圖;圖2示出了現(xiàn)有技術(shù)的在線Boosting算法流程;圖3示出了增量學(xué)習(xí)在人臉檢測(cè)框架中的位置;圖4示出了依據(jù)本發(fā)明一個(gè)實(shí)施例的特定被攝體檢測(cè)裝置10的功能框圖;圖5示出了強(qiáng)分類器單元的瀑布模式連接和矢量樹模式連接的示意圖;圖6示出了弱分類單元的功能框圖;圖7示出了依據(jù)本發(fā)明的一個(gè)實(shí)施例的學(xué)習(xí)單元的功能框圖;圖8示出了依據(jù)本發(fā)明一個(gè)實(shí)施例的優(yōu)化程度計(jì)算部131的方框圖;圖9示出了依據(jù)本發(fā)明一個(gè)實(shí)施例的優(yōu)化程度計(jì)算單元1314的方框圖;圖10示出了依據(jù)本發(fā)明另一個(gè)實(shí)施例的優(yōu)化程度計(jì)算單元1314的方框圖;圖11示出了根據(jù)在線樣本修正各類別的似然函數(shù);圖12示出了由區(qū)域分割弱分類器組成的強(qiáng)分類器的預(yù)測(cè)流程;圖13示出了強(qiáng)分類器在預(yù)測(cè)過(guò)程中涉及到的三個(gè)空間和兩個(gè)階段;圖14示出了依據(jù)本發(fā)明的實(shí)施例的增量學(xué)習(xí)方法的流程圖;圖15示出了對(duì)優(yōu)化程度進(jìn)行計(jì)算的一個(gè)實(shí)施例的流程圖;圖16是用文字描述的方式示出的本發(fā)明的增量學(xué)習(xí)方法的流程圖;圖17示出了增量學(xué)習(xí)算法和聯(lián)合學(xué)習(xí)算法在離線測(cè)試樣本以及在線測(cè)試樣本上錯(cuò)誤率的變化情況;圖18示出了在線訓(xùn)練樣本數(shù)分別為0、10、100和200時(shí)增量學(xué)習(xí)方法和聯(lián)合學(xué)習(xí)方法的離線測(cè)試錯(cuò)誤率以及在線測(cè)試錯(cuò)誤率;圖19示出了增量學(xué)習(xí)算法幫助檢測(cè)器提高處理特殊環(huán)境下人臉檢測(cè)問(wèn)題的效果;圖20示出了增量學(xué)習(xí)前后檢測(cè)器在CMU+MIT正面人臉測(cè)試集合上檢測(cè)精度的變化情況。具體實(shí)施方式下面,將參照附圖詳細(xì)說(shuō)明本發(fā)明的實(shí)施例。本發(fā)明釆用了增量學(xué)習(xí)的方法。圖3示出了增量學(xué)習(xí)在人臉檢測(cè)框架中的位置。如圖3所示,在整個(gè)人臉檢測(cè)框架片")不可能覆蓋所有的應(yīng)用條件,因此在實(shí)際的在線檢測(cè)過(guò)程中,經(jīng)常會(huì)出現(xiàn)漏檢和誤報(bào)。尤其在一些特殊的環(huán)境條件下(例如光照很差、面部出現(xiàn)明顯的遮擋等等情況),離線訓(xùn)練得到的檢測(cè)器往往無(wú)法達(dá)到令人滿意的檢測(cè)精度。因此,本文提出了增量學(xué)習(xí)的方法,利用終端用戶在線檢測(cè)過(guò)程中收集得到的漏檢和誤報(bào),對(duì)當(dāng)前的人臉檢測(cè)器進(jìn)行快速而有效地調(diào)整,使其更好地適應(yīng)這一特殊的應(yīng)用環(huán)境,同時(shí)保有檢測(cè)器原有良好的推廣性能,仍然能夠用于一般條件下的人臉檢測(cè)問(wèn)題。和耗時(shí)耗力的離線學(xué)習(xí)過(guò)程不同,檢測(cè)器的增量學(xué)習(xí)過(guò)程只需要消耗終端用戶很少的計(jì)算資源(包括計(jì)算時(shí)間和存儲(chǔ)空間兩方面),因而可以廣泛地應(yīng)用于各種人臉檢測(cè)平臺(tái)和設(shè)備之上。應(yīng)該注意,盡管在本文中以人臉檢測(cè)為例說(shuō)明本發(fā)明的特定被攝體檢測(cè)方法和檢測(cè)裝置,但應(yīng)該注意的是,本發(fā)明所述的特定被攝體也可以是人臉以外的事物,例如汽車、特定動(dòng)物等等。圖4示出了依據(jù)本發(fā)明一個(gè)實(shí)施例的特定被攝體檢測(cè)裝置10的功能框圖。如圖4所示,根據(jù)本發(fā)明的一個(gè)實(shí)施例的特定被攝體檢測(cè)裝置(在下文中,為了理解的方便,也稱為人臉檢測(cè)裝置)IO包括切換單元(切換裝置)11,用于切換所述特定被攝體檢測(cè)裝置的模式狀態(tài),使所述特定被攝體檢測(cè)裝置在檢測(cè)模式和學(xué)習(xí)模式之間互換;輸入單元12,用于在所述切換單元11將所述特定被攝體檢測(cè)裝置10的模式狀態(tài)切換到檢測(cè)模式時(shí)輸入待檢測(cè)的圖像,在所述切換單元11將所述特定被攝體檢測(cè)裝置10的模式狀態(tài)切換到學(xué)習(xí)模式時(shí)輸入增量學(xué)習(xí)用的數(shù)據(jù),即輸入增量學(xué)習(xí)樣本(此時(shí),該輸入單元也稱為增量樣本輸入單元);一個(gè)或更多個(gè)強(qiáng)分類單元14,用于對(duì)所述圖像進(jìn)行強(qiáng)分類,各所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元18,所述弱分類單元18用于對(duì)所述圖像進(jìn)行弱分類;存儲(chǔ)單元15,存儲(chǔ)所述弱分類器18所使用的弱分類模板和/或所述強(qiáng)分類器14所使用的強(qiáng)分類模板;判斷單元16,根據(jù)所述強(qiáng)分類單元的分類結(jié)果,對(duì)所述圖像是否包含所述特定被攝體進(jìn)行判斷;以及學(xué)習(xí)單元13,用于在所述切換單元11將所述特定被攝體檢測(cè)裝置10的模式狀態(tài)切換到學(xué)習(xí)模式時(shí),根據(jù)所述增量樣本輸入單元12輸入的增量學(xué)習(xí)樣本,更新所述存儲(chǔ)單元所存儲(chǔ)的所述模板。為了簡(jiǎn)潔,在圖中僅示出了一個(gè)強(qiáng)分類器。需要注意的是,在圖4所示的框圖中,學(xué)習(xí)單元被并入檢測(cè)裝置(檢測(cè)器)10中,作為檢測(cè)裝置的一個(gè)模塊,但在另選的實(shí)施例中,學(xué)習(xí)單元也可以與檢測(cè)裝置10的其他模塊分立。在這種情況下,可以在學(xué)習(xí)模塊與檢測(cè)裝置10相連接時(shí),就進(jìn)行增量學(xué)習(xí),此時(shí),可以省略切換單元11。另外,在本文中,根據(jù)上下文,"待檢測(cè)的圖像"即可以指待辨別的圖像整體,也可以指經(jīng)過(guò)檢測(cè)器預(yù)處理(如窗口處理等)之后要由弱分類器進(jìn)行處理的圖像或圖像塊。在本發(fā)明中,增量學(xué)習(xí)樣本是用戶收集來(lái)的少量的漏檢和誤報(bào)。這些漏檢和誤報(bào)可以來(lái)自該檢測(cè)裝置自身,也可以來(lái)自與該檢測(cè)裝置相同的其他檢測(cè)裝置。在所述漏檢和誤報(bào)來(lái)自該檢測(cè)裝置自身的情況下,所述增量樣本輸入單元可以包括記錄單元,用于記錄在該檢測(cè)裝置運(yùn)行中漏檢或誤報(bào)的圖像。在所述漏檢和誤報(bào)來(lái)自其他檢測(cè)裝置的情況下,該檢測(cè)裝置可以通過(guò)網(wǎng)絡(luò)(如互聯(lián)網(wǎng)、內(nèi)部網(wǎng)、局域網(wǎng)等)接收這些數(shù)據(jù)、或者可以通過(guò)磁盤、CD、VCD、DVD、閃存等介質(zhì)來(lái)接收這些漏檢或誤報(bào),在這種情況下,所述增量樣本輸入單元可以包括接收單元,用于接收來(lái)自所述其他檢測(cè)裝置在運(yùn)行中漏檢或誤報(bào)的圖像。顯然,輸入單元可以是所述的登記單元和接收單元兩者。在本發(fā)明中,所述一個(gè)或更多個(gè)強(qiáng)分類單元可以按瀑布模式連接也可按矢量樹模式連接。圖5示出了強(qiáng)分類單元的瀑布模式連接和矢量樹模式連接的示意圖。因而,根據(jù)上下文,對(duì)強(qiáng)分類單元的更新、訓(xùn)練也可能就是指對(duì)組成該強(qiáng)分類單元的弱分類單元的更新、訓(xùn)練。另外,根據(jù)上下文,對(duì)強(qiáng)分類單元的描述也就是對(duì)弱分類單元的描述。在這樣的上下文中,這樣的描述不會(huì)引起本領(lǐng)域技術(shù)人員混淆或誤解。圖6示出了弱分類單元18的功能框圖。如圖6所示,所述弱分類單元18包括子區(qū)間判定單元181,用于將輸入的樣本劃分到實(shí)例空間中的一系列互不相交的子區(qū)間中的一個(gè);弱分類確定單元182,用于根據(jù)所述子區(qū)間判定單元的判定結(jié)果,根據(jù)子區(qū)間弱分類模板對(duì)所述樣本進(jìn)行弱分類。所述子區(qū)間判定單元181包括特征提取單元1811和空間映射部1812。優(yōu)選的是,特征提取單元1811提取輸入的對(duì)象的稀疏粒度特征,當(dāng)然也可以提取其他的特征。而空間映射部1812則利用分段線性函數(shù)根據(jù)所述特征提取單元1811所提取的特征將所述輸入的對(duì)象映射到實(shí)例空間劃分出的若干互不相交的子區(qū)間。當(dāng)然也可以不采用分段線性函數(shù),而采用其他的函數(shù),在本實(shí)施例中,只要滿足區(qū)域分割弱分類器的要求即可。即,在本發(fā)明中,上述的稀疏粒度特征結(jié)合分段線性函數(shù)只是一個(gè)示例。弱分類確定單元182用于利用子區(qū)間弱分類模板根據(jù)子區(qū)間判定單元181的判定結(jié)果對(duì)所述輸入的對(duì)象進(jìn)行弱分類。后文將更詳細(xì)地描述弱分類器的操作。所述存儲(chǔ)單元15存儲(chǔ)所述子區(qū)間弱分類模板;所述學(xué)習(xí)單元13根據(jù)所述輸入單元12輸入的增量學(xué)習(xí)樣本,更新所述存儲(chǔ)單元所存儲(chǔ)的各所述子區(qū)間弱分類模板。在本發(fā)明中,子區(qū)間弱分類模板可以是二維表(分類表)、函數(shù)等,可以采用本領(lǐng)域技術(shù)人員所熟知的各種形式,只要利用其可以根據(jù)空間映射部1812的映射結(jié)果(可以是子區(qū)間的索引、名稱等)對(duì)待檢測(cè)的對(duì)象進(jìn)行分類即可。圖7示出了依據(jù)本發(fā)明的一個(gè)實(shí)施例的學(xué)習(xí)單元的功能框圖。如圖7所示,依據(jù)本發(fā)明的一個(gè)實(shí)施例的學(xué)習(xí)單元13包括優(yōu)化程度計(jì)算部131、判斷單元132、優(yōu)化參量更新單元133、模板更新單元134、以及增量學(xué)習(xí)樣本集合更新單元135。優(yōu)化程度計(jì)算部131用于根據(jù)輸入的增量學(xué)習(xí)樣本計(jì)算利用一優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。如后文所描述的,學(xué)習(xí)單元的學(xué)習(xí)過(guò)程實(shí)際上就是根據(jù)增量學(xué)習(xí)樣本獲得最優(yōu)化的優(yōu)化參量(Ac)的過(guò)程。這一過(guò)程是不斷地獲得優(yōu)化參量,并對(duì)該優(yōu)化參量的適合性進(jìn)行判斷的過(guò)程。在過(guò)程的開始,可以隨機(jī)地設(shè)定最初的優(yōu)化參量(例如,將Ac設(shè)為0)。該過(guò)程可以采用后面的最速下降法實(shí)現(xiàn),也可以采用其他的方法實(shí)現(xiàn)??梢蕴娲钏傧陆捣ǖ乃惴ㄓ泻芏?,比如牛頓法、擬牛頓法。優(yōu)化程度可以是后文所述的目標(biāo)損失函數(shù)的梯度。優(yōu)化參量對(duì)應(yīng)于模板調(diào)整量,也即對(duì)應(yīng)于后文中描述的查找表調(diào)整量。判斷單元132根據(jù)所述優(yōu)化程度計(jì)算部的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述弱分類模板(例如子區(qū)間弱分類模板)進(jìn)行的優(yōu)化是否滿足一定的條件(例如所述梯度是否小于預(yù)定值)。當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),所述優(yōu)化參量更新單元133對(duì)所述優(yōu)化參量進(jìn)行更新,即獲得新的優(yōu)化參量??梢酝ㄟ^(guò)0.618法等獲得組合系數(shù),利用該組合系數(shù)獲得新的優(yōu)化參量。這里的0.618法只是示例性的,可以采用其他的方法。0.618法作為與最速下降法配合使用的線性搜索方法,可以被Fibonacci法、插值法所替代。實(shí)際上由于目標(biāo)損失函數(shù)的分析性質(zhì)很好,是一個(gè)凸函數(shù),所以許多優(yōu)化方法都可以用于該目標(biāo)函數(shù)的優(yōu)化。當(dāng)所述判斷單元132判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板的優(yōu)化滿足了所述條件時(shí),所述模板更新單元134對(duì)所述弱分類模板進(jìn)行更新。同時(shí),所述學(xué)習(xí)單元13還包括增量學(xué)習(xí)樣本更新單元135,用于當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),減少所述增量學(xué)習(xí)樣本組成的集合中的增量學(xué)習(xí)樣本,得到新的所述增量學(xué)習(xí)樣本的集合,以用于對(duì)后面的弱分類器的模板的更新。具體地,即將所述增量學(xué)習(xí)樣本中的通過(guò)了更新后的弱分類器的樣本拋棄。在本文的上下文中,對(duì)弱分類模板的更新有時(shí)也稱對(duì)弱分類器的更新。當(dāng)完成了所述弱分類器的弱分類模板的更新時(shí),學(xué)習(xí)單元的任務(wù)結(jié)束。圖8示出了依據(jù)本發(fā)明一個(gè)實(shí)施例的優(yōu)化程度計(jì)算部131的方框圖。如圖8所示,依據(jù)本發(fā)明的優(yōu)化程度計(jì)算部131包括修正系數(shù)確定單元1311,用于確定增量學(xué)習(xí)樣本的修正系數(shù);第一目標(biāo)損失計(jì)算單元1312,用于計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化所造成的第一目標(biāo)損失;第二目標(biāo)損失計(jì)算單元1313,用于根據(jù)所輸入的所述增量學(xué)習(xí)樣本計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化造成的第二目標(biāo)損失;優(yōu)化程度計(jì)算單元1314,根據(jù)所述第一目標(biāo)損失計(jì)算單元1312計(jì)算出的第一目標(biāo)損失、所述第二目標(biāo)損失計(jì)算單元1313計(jì)算出的第二目標(biāo)損失、以及所述修正系數(shù)確定單元1311確定出的增量學(xué)習(xí)樣本的修正系數(shù),計(jì)算利用所述優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。其中第一目標(biāo)損失代表了優(yōu)化對(duì)處理一般環(huán)境的能力的影響,對(duì)應(yīng)于后文的損失函數(shù)的離線部分。第二目標(biāo)損失代表了優(yōu)化對(duì)處理特定場(chǎng)景的能力的影響,對(duì)應(yīng)于后文的損失函數(shù)的在線部分。后文將對(duì)這兩部分的計(jì)算進(jìn)行更詳細(xì)的描述。所述第一目標(biāo)損失計(jì)算單元可以采用Nai'veBayes法計(jì)算所述第一目標(biāo)損失。后文將對(duì)所述第一目標(biāo)損失計(jì)算單元1312對(duì)第一目標(biāo)損失的計(jì)算以及第二目標(biāo)損失計(jì)算單元1313對(duì)第二目標(biāo)損失的計(jì)算進(jìn)行詳細(xì)描述。圖9示出了依據(jù)本發(fā)明一個(gè)實(shí)施例的優(yōu)化程度計(jì)算單元1314的方框圖。如圖9所示,依據(jù)本發(fā)明的優(yōu)化程度計(jì)算單元1314包括第一乘法部13141、第二乘法部13142、加法部13143、和求導(dǎo)部13144,所述第一乘法部13141將1與修正系數(shù)確定單元1311確定出來(lái)的所述修正系數(shù)的差與所述第一目標(biāo)損失相乘,所述第二乘法部13142用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘,所述加法部13143用于將所述第一乘法部的相乘結(jié)果與第二乘法部的相乘結(jié)果相加,所述求導(dǎo)部13144用于對(duì)所述加法部的相加結(jié)果進(jìn)行求導(dǎo)。后文將結(jié)合式2和式30對(duì)修正系數(shù)進(jìn)行詳細(xì)的說(shuō)明。圖10示出了依據(jù)本發(fā)明另一個(gè)實(shí)施例的優(yōu)化程度計(jì)算單元1314的方框圖。如圖10所示,依據(jù)本發(fā)明的優(yōu)化程度計(jì)算單元1313包括第一乘法部13141、第二乘法部13142、第一求導(dǎo)部13146、第二求導(dǎo)部13147和加法部13143,所述第一乘法部13141將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘,所述第二乘法部13142用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘,所述第一求導(dǎo)部13146用于對(duì)所述第一乘法部13141的相乘結(jié)果進(jìn)行求導(dǎo);所述第二求導(dǎo)部13147用于對(duì)所述第二乘法部13142的相乘結(jié)果進(jìn)行求導(dǎo);所述加法部13143用于將所述第一求導(dǎo)部的求導(dǎo)結(jié)果與所述第二求導(dǎo)部的求導(dǎo)結(jié)果相加。下面,以區(qū)域分割連續(xù)AdaBoost為例對(duì)本發(fā)明的實(shí)施例進(jìn)行更詳細(xì)的解釋說(shuō)明。首先介紹本發(fā)明的區(qū)域分割連續(xù)AdaBoost的增量學(xué)習(xí)算法。AdaBoost算法的本質(zhì)是利用加性模型(additivemodel)逐步優(yōu)化基于指數(shù)損失的目標(biāo)函數(shù)(以下也稱為損失函數(shù)),最終達(dá)到logistic回歸(logisticregression)的目的。這個(gè)關(guān)鍵性的目標(biāo)函數(shù)(損失函數(shù))如式(1)所示<formula>formulaseeoriginaldocumentpage22</formula>(l)在基于數(shù)學(xué)期望表示的損失函數(shù)形式中,實(shí)例x和類別標(biāo)簽;;被視為兩個(gè)隨機(jī)變量(^=+1對(duì)應(yīng)于正例,y=-l對(duì)應(yīng)于反例),而數(shù)學(xué)期望則基于由它們所組成的聯(lián)合概率密度函數(shù)H^)。在上面的式i中,(x,,乂;i表示第i個(gè)樣本,其中x為實(shí)例,乃為類別標(biāo)簽;丄(尸&))表示強(qiáng)分類器尸(力所對(duì)應(yīng)的目標(biāo)損失函數(shù);^表示第i個(gè)樣本的初始權(quán)重;p(:c,/)表示實(shí)例和類別標(biāo)簽作為兩個(gè)隨機(jī)變量的聯(lián)合概率密度函數(shù)。在線樣本(在本發(fā)明中對(duì)應(yīng)于增量學(xué)習(xí)樣本)的引入必將使得這個(gè)聯(lián)合概率密度函數(shù)發(fā)生一定程度的變化。在正反例樣本之間互不干擾的前提下,該變化可以通過(guò)分別對(duì)兩個(gè)類別的似然(likelihood)進(jìn)行線性修正而體現(xiàn)出來(lái),如式2所示<formula>formulaseeoriginaldocumentpage22</formula>(2)其中/v^W和肊"W分別是離線樣本和在線樣本所對(duì)應(yīng)的類別^的似然函數(shù),而則是針對(duì)類別;;的線性修正系數(shù)。這個(gè)修正過(guò)程可以用圖11來(lái)表示。圖11示出了根據(jù)在線樣本修正各類別的似然函數(shù)?;谠撔拚蟮乃迫缓瘮?shù),AdaBoost算法的損失函數(shù)(式1)變成為<formula>formulaseeoriginaldocumentpage22</formula><formula>formulaseeoriginaldocumentpage23</formula>分別表示類別少在離線樣本和在線樣本上的損失函數(shù)。這樣的話,四個(gè)部分的損失函數(shù)(離線/在線,正例/反例)通過(guò)兩個(gè)類別的先驗(yàn)概率尸oo和修正系數(shù)進(jìn)行線性組合,就得到了引入在線樣本后的AdaBoost算法的混合目標(biāo)損失函數(shù)(hybridobjectivelossfonction)。所以,在AdaBoost算法框架下,增量學(xué)習(xí)算法的議題是如何對(duì)已有的強(qiáng)分類器F(x)進(jìn)行適當(dāng)?shù)恼{(diào)整,使其在更新后的概率分布情況(式2)下取得盡可能小的損失值。換句話說(shuō),以AdaBoost算法為基礎(chǔ)的增量學(xué)習(xí)過(guò)程就是對(duì)如式3所示的損失函數(shù)進(jìn)行優(yōu)化的過(guò)程。在增量學(xué)習(xí)算法的優(yōu)化過(guò)程中,主要有三個(gè)方面的問(wèn)題首先,作為一個(gè)學(xué)習(xí)機(jī)器(learningmachine),強(qiáng)分類器^x)中包含有大量可調(diào)整的參數(shù)。其中哪些參數(shù)適合在增量學(xué)習(xí)過(guò)程中調(diào)整、哪些參數(shù)必須在離線學(xué)習(xí)時(shí)就確定下來(lái)而不能改變,這是優(yōu)化算法最先必須面對(duì)的問(wèn)題。選擇錯(cuò)誤的優(yōu)化對(duì)象可能導(dǎo)致優(yōu)化算法的復(fù)雜程度大大增加。其次,由于提供了在線訓(xùn)練樣本,增量學(xué)習(xí)算法可以很輕松地將式5中的數(shù)學(xué)期望轉(zhuǎn)化成為加權(quán)求和來(lái)計(jì)算混合目標(biāo)損失函數(shù)(式3)中的在線部分。然而和在線學(xué)習(xí)類似,增量學(xué)習(xí)也不保存已經(jīng)使用過(guò)的訓(xùn)練數(shù)據(jù)。因此離線訓(xùn)練樣本對(duì)于增量學(xué)習(xí)過(guò)程來(lái)說(shuō)是不可使用的。所以如何對(duì)混合目標(biāo)損失函數(shù)中的離線部分(即式4)進(jìn)行有效的計(jì)算就成為了增量學(xué)習(xí)算法的關(guān)鍵問(wèn)題,這也是整個(gè)算法的主要難點(diǎn)。最后,混合目標(biāo)損失函數(shù)是由離線和在線兩個(gè)部分通過(guò)線性修正系數(shù)S組合得到的。實(shí)質(zhì)上,系數(shù)s的取值大小決定了增量學(xué)習(xí)算法在優(yōu)化過(guò)程中對(duì)于離線樣本和在線樣本的關(guān)注程度。通過(guò)調(diào)整系數(shù)c^,我們可以權(quán)衡增量學(xué)習(xí)后得到的強(qiáng)分類器對(duì)于一般環(huán)境(由離線樣本描述)和特殊情況(由在線樣本描述)的關(guān)注程度。因此如何選擇合適的修正系數(shù)也是增量學(xué)習(xí)算法無(wú)法回避的問(wèn)題。下面,我們先從方向性的問(wèn)題著手,通過(guò)分析區(qū)域分割連續(xù)AdaBoost算法的分類預(yù)測(cè)流程,來(lái)確定在增量學(xué)習(xí)過(guò)程中強(qiáng)分類器內(nèi)的可調(diào)整參數(shù);接著采用和NaiveBayes方法相同的策略,對(duì)混合目標(biāo)損失函數(shù)中的離線部分進(jìn)行合理近似;然后簡(jiǎn)要介紹混合目標(biāo)損失函數(shù)中在線部分的計(jì)算方法,以及如何優(yōu)化增量學(xué)習(xí)過(guò)程的混合目標(biāo)損失函數(shù);最終提出一種線性修正系數(shù)的自適應(yīng)調(diào)整方法。和其他傳統(tǒng)的Boosting算法關(guān)注如何選擇合適的弱分類器組合系數(shù)不同,由于允許弱分類器輸出任意大小的實(shí)數(shù)表示其對(duì)于分類預(yù)測(cè)結(jié)果的置信度,R.E.Schapire和Y.Singer所提出的區(qū)域分割連續(xù)AdaBoost算法中并沒有顯式的弱分類器組合系數(shù)選擇過(guò)程,而是將其融入到了弱分類器的訓(xùn)練過(guò)程中。簡(jiǎn)而言之,區(qū)域分割弱分類器的設(shè)計(jì)思路就是讓弱分類器/(x)借助區(qū)域分割函數(shù)+),將樣本所屬的實(shí)例空間義(instancespace)劃分成為一系列互不相交的子區(qū)間化,■,;},并對(duì)落入第z個(gè)子區(qū)間的所有實(shí)例輸出相同的一個(gè)弱分類預(yù)測(cè)結(jié)果cz,即;ce《,.(.)=>"x)=zeN=>/(;c)=czelR(6)在這個(gè)弱分類預(yù)測(cè)過(guò)程中,z可以被看作是實(shí)例x在區(qū)域分割函數(shù)r(x)下的觀測(cè)結(jié)果(observation)。如果用查找表函數(shù)(look-up-tableftmction)5(z)表示從觀測(cè)量z到預(yù)測(cè)結(jié)果c,的映射關(guān)系,那么弱分類器/'(:c)就可以表示為/(x)i(r(x))(7)而強(qiáng)分類器尸(^=21,(^對(duì)實(shí)例X所進(jìn)行的分類預(yù)測(cè)就可以表示為例如如圖12所示的流程。其中觀測(cè)結(jié)果^…,z,分屬不同的弱分類器。它們合在一起,就組成了該強(qiáng)分類器在預(yù)測(cè)過(guò)程中對(duì)實(shí)例x的觀測(cè)向量z-^,…,z。eZ^1^,其中Z表示這個(gè)向量所屬的r維觀測(cè)空間(observationspace)。這些隸屬于不同弱分類器的觀測(cè)量通過(guò)各自對(duì)應(yīng)的查找表計(jì)算得到的弱預(yù)測(cè)結(jié)果被累加在一起,就得到了強(qiáng)分類器F(;c;)對(duì)實(shí)例x預(yù)測(cè)的最終結(jié)果ye;V;R,其中y表示強(qiáng)分類器的預(yù)測(cè)空間(predictionspace)。這個(gè)最終預(yù)測(cè)結(jié)果的符號(hào)表示強(qiáng)分類器對(duì)該實(shí)例所屬類別的判定,而其絕對(duì)值大小表示強(qiáng)分類器對(duì)這一類別判定結(jié)果的置信程度。通過(guò)這樣的方式,強(qiáng)分類器F(;c)24在作為輸入的實(shí)例X和作為輸出的預(yù)測(cè)結(jié)果/之間建立起了某種有效的映射關(guān)系。而觀測(cè)空間Z的引入,則將強(qiáng)分類器的預(yù)測(cè)流程F(力:;V—y分解成為兩個(gè)不同的階段i(;c):^4Z和S(z):Z—;y。其中前者是聯(lián)合區(qū)域分害!j函數(shù)(jointdomain-partitioningfunction),=(義),…,廠";c))-z(8)它完成從實(shí)例空間義到觀測(cè)空間2的變換。而后者是累加查找表函數(shù)(aggregatedlook-up-tablefunction),4)=i>,(z,)L"'(9)它根據(jù)觀測(cè)向量z進(jìn)行強(qiáng)分類器預(yù)測(cè)結(jié)果的計(jì)算。其中c,,Zi=*)(10)是第/個(gè)弱分類器中查找表函數(shù)對(duì)第4個(gè)子區(qū)間的常量預(yù)測(cè)結(jié)果(參考前面的式6)。聯(lián)合區(qū)域分割函數(shù)i")、累加?xùn)苏冶砗瘮?shù)^z)與強(qiáng)分類器F(x)之間的關(guān)系,以及實(shí)例空間^、觀測(cè)空間Z與預(yù)測(cè)空間y之間的聯(lián)系,可以通過(guò)圖13表示清楚。聯(lián)合區(qū)域分割函數(shù)(x)決定了強(qiáng)分類器中各個(gè)弱分類器對(duì)實(shí)例空間義的劃分方式。在離線學(xué)習(xí)過(guò)程中,為了確定合適的劃分方式,訓(xùn)練算法需要借助某些區(qū)分性判別準(zhǔn)則——如KL散度和Bhattacharyya距離等等一一來(lái)對(duì)各類別在實(shí)例空間Y內(nèi)的分布情況進(jìn)行細(xì)致的非參數(shù)化分析。這是一項(xiàng)需要大量訓(xùn)練樣本才能夠完成的工作,而增量學(xué)習(xí)過(guò)程卻并不具備這一條件。由于只有少量的在線訓(xùn)練樣本,增量學(xué)習(xí)算法無(wú)法有效地預(yù)計(jì)改變i(x)將在多大程度上影響到混合目標(biāo)損失函數(shù)的離線部分(式4)。這意味著對(duì)于強(qiáng)分類器F(;c)而言,哪怕只對(duì)i(;c)中的參數(shù)進(jìn)行一些微小的調(diào)整,在處理由離線訓(xùn)練樣本所代表的一般環(huán)境時(shí),都可能招致意想不到的嚴(yán)重后果。因此,我們所提出的增量學(xué)習(xí)算法只關(guān)注于如何根據(jù)少量的在線訓(xùn)練樣本適當(dāng)?shù)卣{(diào)整累加查找表函數(shù)^z),而聯(lián)合區(qū)域分割函數(shù)i(x)則在樣本充足的離線學(xué)習(xí)過(guò)程中一次性確定且在增量學(xué)習(xí)過(guò)程中不做改變。在本文的特定被攝體(例如人臉)檢測(cè)算法中,弱分類器通過(guò)稀疏粒度特征將作為輸入的高維實(shí)例映射到一維特征空間后,根據(jù)分段線性函數(shù)對(duì)其進(jìn)行等間隔劃分并籍此計(jì)算最終的分類預(yù)測(cè)結(jié)果。這種做法正是R.E.Schapire和Y.Singer所提出的區(qū)域分割弱分類器思想的一種具體實(shí)現(xiàn)形式。在離線訓(xùn)練過(guò)程中,強(qiáng)分類器的聯(lián)合區(qū)域分割函數(shù)i(;c)由各個(gè)弱分類器的稀疏粒度特征和分段線性函數(shù)的上下界以及子區(qū)間個(gè)數(shù)確定,而累加?xùn)苏冶砗瘮?shù)^勾則根據(jù)落在各個(gè)子區(qū)間內(nèi)的正例和反例樣本權(quán)重分布情況計(jì)算得到。由于S(z)以各個(gè)弱分類器的査找表輸出結(jié)果為參數(shù)(參見式9),所以它又可以表示為S(z:c)。其中c—^,…A,…,Cn,…),為所有查找表輸出結(jié)果所組成的參數(shù)向量。在這種情況下,增量學(xué)習(xí)算法的任務(wù)實(shí)際上就是以離線訓(xùn)練所確定的累加?xùn)苏冶砗瘮?shù)S(z:c)為基礎(chǔ),尋找合適的參數(shù)調(diào)整量Ac,使得更新參數(shù)后的強(qiáng)分類器F(x)-S(i(;c):c+Ac)能夠優(yōu)化同時(shí)考慮了離線和在線樣本的AdaBoost算法的混合目標(biāo)損失函數(shù)(式3)?;旌夏繕?biāo)損失函數(shù)中離線部分的近似計(jì)算下面介紹混合目標(biāo)損失函數(shù)中離線部分的近似計(jì)算,對(duì)應(yīng)于第一目標(biāo)損失計(jì)算單元1312的計(jì)算。由于聯(lián)合區(qū)域分割函數(shù)i(x)唯一確定了從實(shí)例空間l到觀測(cè)空間Z的映射關(guān)系(參見圖13),在給定i(x)的前提下,增量學(xué)習(xí)算法可以將混合目標(biāo)損失函數(shù)中離線部分(式4)的計(jì)算從實(shí)例空間義轉(zhuǎn)換到觀測(cè)空間Z中,艮口<formula>formulaseeoriginaldocumentpage26</formula>(11)其中是類別少在觀測(cè)空間Z中的似然函數(shù)。根據(jù)定義式9,參數(shù)更新后的累加查找表函數(shù)實(shí)際上是兩部分之和,5(z:c+Ac)-S(z:c)+S(z:Ac)(13)因此混合目標(biāo)損失函數(shù)中離線部分(式ll)又可以表示為<formula>formulaseeoriginaldocumentpage27</formula>其中丄(/V(+):c)和丄(/V(+):c+Ac)分別是更新前后強(qiáng)分類器的對(duì)應(yīng)混合目標(biāo)損失函數(shù)中離線部分的縮寫形式(完整形式分別為丄(;V(xl力,S(i(x):e))和丄(j^(xl少),S(i(x):c+Ac))),而~險(xiǎn)/。V(15)則是根據(jù)更新前累加查找表函數(shù)Wz:c)的指數(shù)損失加權(quán)后,類別少在觀測(cè)空間Z中的似然函數(shù)。由于^^(zW-l,它仍然是一個(gè)概率分布。顯然,在混合目標(biāo)損失函數(shù)離線部分的計(jì)算過(guò)程中,如何獲取這個(gè)加權(quán)似然函數(shù)》。#)成為了關(guān)鍵問(wèn)題。然而,由于增量學(xué)習(xí)過(guò)程中不保存任何離線訓(xùn)練樣本,該算法不可能通過(guò)采樣求和的方式來(lái)模擬這個(gè)加權(quán)似然函數(shù)。同時(shí)在離線訓(xùn)練過(guò)程中記錄下這個(gè)似然函數(shù)的分布情況也可能是不利的,因?yàn)殡S著弱分類器數(shù)目的增加,記錄所需的存儲(chǔ)空間將呈現(xiàn)出指數(shù)級(jí)別的增長(zhǎng)趨勢(shì)。為此,我們?cè)谠隽繉W(xué)習(xí)算法中提出,采用在各個(gè)觀測(cè)量上的邊緣分布的乘積來(lái)近似該加權(quán)似然函數(shù)<#(z|_y)f]^'W少射(16)為加權(quán)似然函數(shù)^(zW在(17)則量A上的邊緣概率密度函數(shù)。這種近似方式實(shí)際上就是Nai'veBayes方法。它只需要增量學(xué)習(xí)算法記錄下聯(lián)合概率密度函數(shù)在各個(gè)觀測(cè)量上的邊緣分布情況。因此隨著弱分類器數(shù)目(即觀測(cè)量數(shù)目)的增加,記錄加權(quán)似然函數(shù)的存儲(chǔ)空間的增長(zhǎng)速度從原本的指數(shù)級(jí)別降低為線性級(jí)別。將這種近似方法應(yīng)用在如式16所示的混合目標(biāo)損失函數(shù)離線部分(式14)的計(jì)算過(guò)程中,根據(jù)累加?xùn)苏冶砗瘮?shù)S(z:c)的線性性質(zhì)(參見式9),我們有丄(~(+):c+Ac)(+):c+Ac)=如(+):必-剩fp。小I》=丄(xl少)c)Z…Z!IT尸。#(z'.|>0exP)(18)i=l:,r其中Z(;v(+):c+Ac)表示混合目標(biāo)損失函數(shù)離線部分的近似結(jié)果,而二J]|y)exp(—"Ac,、(19)則表示)&上的加權(quán)邊緣似然函數(shù)》。#(5>)由于引入?yún)?shù)調(diào)整量Ac介所導(dǎo)致的指數(shù)損失。這樣,通過(guò)調(diào)換求積和求和的先后次序,和前面紹的存儲(chǔ)空間復(fù)雜度一樣,混合目標(biāo)損失函數(shù)離線部分的計(jì)算時(shí)間復(fù)雜度也從指數(shù)級(jí)別降低到了線性級(jí)別。需要指出的是,當(dāng)Ac-0、即不對(duì)累加查找表函數(shù)的參數(shù)作任何調(diào)整時(shí),=1,/=i,---,:r。因此1(/V(工W:c+Ac)=Z(~(+):c+Ac)(20)不僅如此,對(duì)Ac中的任意一個(gè)參數(shù)Ac^(即第/7個(gè)查找表函數(shù)對(duì)于第《個(gè)子區(qū)間輸出的預(yù)測(cè)結(jié)果)計(jì)算其偏導(dǎo)數(shù),根據(jù)式6-14,我們有"(/V(x卜)c+Ac)32^W'(zWexP-3^Ac',:|'=1(21)",。〃廣r=—"i(/V(+):c)Z<(z|_y)exp-《Ac,:V'.=i而根據(jù)式18,我們有&(~(+):c+Ac必c:z(~(xW:c)必C——(22)-(~(+)'丄)?"2》—(->^)nm,當(dāng)Ac-0時(shí),根據(jù)式21和式22,我們又有S丄(;v(小)c+Ac)必c〃門、、wn&(~W:C+Ac)=—少'丄(P。/r(^少)c)尸w(zp=《l少)=~^-^3Ac(23)所以這兩個(gè)混合目標(biāo)損失函數(shù)在Ac=0時(shí)不僅具有相同的函數(shù)值(式20),其梯度也完全相等(式23)。所以從泰勒展開的角度來(lái)講,采用邊緣分布函數(shù)計(jì)算的£(;v:c+Ac)在|Ac||2不太大的條件下,是采用聯(lián)合分布函數(shù)計(jì)算的£(;v.(xW:c+Ac)的合理近似。至此已經(jīng)證明,采用邊緣分布函數(shù)的乘積來(lái)近似聯(lián)合分布函數(shù)的這種做法,不僅將混合目標(biāo)損失函數(shù)離線部分計(jì)算過(guò)程的空間復(fù)雜度和時(shí)間復(fù)雜度從指數(shù)級(jí)別降低為線性級(jí)別,使得算法可以用于解決實(shí)際問(wèn)題,還能夠在參數(shù)調(diào)整量Ac變化不大的條件下,確保近似計(jì)算的結(jié)果擁有足夠的精度。作為這種近似算法中的關(guān)鍵部分,如式17所示的離線加權(quán)邊緣分布函數(shù)?w(z,如)是在增量學(xué)習(xí)之前——即離線學(xué)習(xí)過(guò)程中——通過(guò)對(duì)離線樣本在各個(gè)觀測(cè)量上的分布進(jìn)行統(tǒng)計(jì)而得到的。其計(jì)算過(guò)程如下所示a2lh")=z,〗exp(:c》其中7^.是類別少的離線樣本數(shù),而[r,(a)=z,=.(24)1,if*)=z,0,其他情況混合目標(biāo)損失函數(shù)中在線部分的精確計(jì)算現(xiàn)在己經(jīng)介紹了如何在增量學(xué)習(xí)算法中采用Nai'veBayes方法來(lái)近似計(jì)算混合目標(biāo)損失函數(shù)中的離線部分。至于它的在線部分的計(jì)算(式5),即對(duì)應(yīng)于第二目標(biāo)損失計(jì)算單元1313的計(jì)算,可以通過(guò)在線訓(xùn)練樣本來(lái)模擬其對(duì)應(yīng)的聯(lián)合分布函數(shù),所以我們有<formula>formulaseeoriginaldocumentpage30</formula>其中iV:,為類別少的在線訓(xùn)練樣本數(shù),AC,.,,.'W是第々個(gè)樣本在第個(gè)弱分類器查找表函數(shù)中對(duì)應(yīng)的子區(qū)間預(yù)測(cè)輸出的調(diào)整量,而5("=^rexp(-"s(i(x4):c))(26)則是類別_y中的第&個(gè)在線樣本在增量學(xué)習(xí)過(guò)程中對(duì)應(yīng)的初始權(quán)重。它實(shí)際上是對(duì)根據(jù)離線學(xué)習(xí)得到的強(qiáng)分類器輸出S(iOO:c)進(jìn)行調(diào)整得到的。這個(gè)權(quán)重的含義和以往的Boosting算法一樣,體現(xiàn)的都是當(dāng)前強(qiáng)分類器對(duì)于該樣本的錯(cuò)分程度。這個(gè)混合目標(biāo)損失函數(shù)的在線部分對(duì)于任意參數(shù)調(diào)整量Ac^的偏導(dǎo)數(shù)為<formula>formulaseeoriginaldocumentpage30</formula>混合目標(biāo)損失函數(shù)的優(yōu)化方法現(xiàn)在,我們對(duì)增量學(xué)習(xí)過(guò)程中混合目標(biāo)損失函數(shù)(式3)的離線部分和在線部分分別提出了近似和精確的計(jì)算方法。為了解決增量學(xué)習(xí)過(guò)程中實(shí)際面臨的優(yōu)化問(wèn)題,我們提出采用如下所示的近似形式來(lái)計(jì)算不同參數(shù)調(diào)整量Ac對(duì)應(yīng)的混合目標(biāo)損失函數(shù)值,Z<formula>formulaseeoriginaldocumentpage30</formula>其與精確結(jié)果Z(p(x,^,c+Ac)唯一的區(qū)別在于,離線部分是通過(guò)NaiVeBayes方法近似計(jì)算得到的。由于前面已經(jīng)證明,從泰勒展開的角度來(lái)講,在llA(4不大的條件下,這一近似方法是具有足夠精度的。因此式28是對(duì)增量學(xué)習(xí)過(guò)程中混合目標(biāo)損失函數(shù)的合理近似。式28是增量學(xué)習(xí)過(guò)程中的混合目標(biāo)損失函數(shù)。式25是其中在線的部分,而式18是其中離線的部分。需要注意的是,在式18中,我們采用NaiveBayes方法對(duì)離線部分的目標(biāo)損失函數(shù)進(jìn)行了合理的近似。因此在式28中,丄(;p(;c,;;),c+厶c)是準(zhǔn)確的目標(biāo)損失函數(shù),而Z(p(;c,",c+Ac)則是采用了這種離線近似方法的近似目標(biāo)損失函數(shù)。當(dāng)然如前所述,也可以精確計(jì)算離線部分的目標(biāo)損失函數(shù),但這會(huì)增大計(jì)算負(fù)擔(dān)。不難證明,如式27所示的近似混合目標(biāo)損失函數(shù)對(duì)于參數(shù)Ac來(lái)說(shuō)是一個(gè)凸函數(shù)。至此,我們就可以采用最速下降法,根據(jù)式22和式26中的偏導(dǎo)數(shù),計(jì)算近似混合目標(biāo)損失函數(shù)的梯度,再結(jié)合0.618方法進(jìn)行梯度方向上的線性搜索。最終將在若干次迭代之后得到其優(yōu)化結(jié)果(見式29)。也就是說(shuō),Ac代表查找表的某個(gè)調(diào)整量,而Ac^是所有調(diào)整量中能夠最優(yōu)化目標(biāo)損失函數(shù)的那個(gè)調(diào)整量。Ac*=argmin(Z((義,力,c+Ac))(29)Ac這里,argmin表示的是所有自變量(這里是Ac)取值范圍內(nèi)能夠最小化函數(shù)Z(;;(;c,力,c+Ac)的那個(gè)取值,艮卩Z(p(x,力,c+Ac"是所有可能的目標(biāo)損失函數(shù)值中最小的一個(gè)。而增量學(xué)習(xí)的結(jié)果就是更新后的強(qiáng)分類器F(x)-^/(x),c+Ac')。需要特別指出的是,以往的在線Boosting算法對(duì)于各個(gè)弱分類器的調(diào)整過(guò)程是順序進(jìn)行的(sequentialprocess),調(diào)整后得到的強(qiáng)分類器是逐步優(yōu)化的結(jié)果(stage-wiseoptimization);而本文提出的增量學(xué)習(xí)算法可以針對(duì)所有弱分類器的調(diào)整過(guò)程同步并行(parallelprocess),調(diào)整后得到的強(qiáng)分類器是全局優(yōu)化的結(jié)果(globaloptimization^修正系數(shù)S的自適應(yīng)選擇方法根據(jù)式2,不難發(fā)現(xiàn)每個(gè)離線樣本和每個(gè)在線樣本對(duì)于修正似然函數(shù)的貢獻(xiàn)分別為^J和!,其中乂》和《,分別表示類別;;的離線樣本<formula>formulaseeoriginaldocumentpage31</formula>^和在線樣本數(shù)。由此我們可以定義<formula>formulaseeoriginaldocumentpage31</formula>為類別y的在線樣本增強(qiáng)比率(reinforceratioofonlinesamples),表示每個(gè)在線樣本對(duì)于似然函數(shù)的貢獻(xiàn)相當(dāng)于幾個(gè)離線樣本。在實(shí)際應(yīng)用中,在線樣本通常是由用戶通過(guò)手工標(biāo)定逐漸累積到的,因此在增量學(xué)習(xí)過(guò)程中,在線樣本的數(shù)目經(jīng)常會(huì)發(fā)生很大的變化。在這種情況下,如果不考慮樣本數(shù)量情況而直接指定修正系數(shù)的大小,那么根據(jù)式30,平均每個(gè)在線樣本對(duì)于似然函數(shù)的貢獻(xiàn)——即在線樣本增強(qiáng)比率A,——會(huì)發(fā)生劇烈的波動(dòng)。更加合理的方式應(yīng)當(dāng)是在增量學(xué)習(xí)過(guò)程中,保持穩(wěn)定的在線樣本增強(qiáng)比率^。這樣的話,修正系數(shù)a,將根據(jù)在線樣本數(shù)《,的變化做出相應(yīng)的調(diào)整在線樣本越多,增量學(xué)習(xí)的優(yōu)化過(guò)程對(duì)于混合目標(biāo)損失函數(shù)中在線部分的關(guān)注程度就越高,反之亦然。事實(shí)上,這種自適應(yīng)的參數(shù)選擇方法的核心思想是確保每個(gè)在線樣本所發(fā)揮的作用不受在線樣本總數(shù)變化的影響。換句話說(shuō),這種算法要使每個(gè)在線樣本的損失在目標(biāo)損失函數(shù)中的加權(quán)系數(shù)^保持與離線樣本的損失在目標(biāo)損失函數(shù)中的加權(quán)系數(shù)t^l的比值不變(參見式30)。該工作可以由修正系數(shù)確定單元1311來(lái)完成。上面介紹了基于連續(xù)AdaBoost的算法的增量學(xué)習(xí)裝置和增量學(xué)習(xí)方法。本發(fā)明也可應(yīng)用于基于區(qū)域分割VectorBoosting的算法的增量學(xué)習(xí)裝置和增量學(xué)習(xí)方法。事實(shí)上,基于連續(xù)AdaBoost算法與基于區(qū)域分割VectorBoosting的算法沒有本質(zhì)區(qū)別。前面的R(x)、S(z)的概念依然不變,只是S(z)的輸出從標(biāo)量變成了向量。VectorBoosting算法是以連續(xù)AdaBoost算法為基礎(chǔ)的多類別分類算法。兩者同樣根據(jù)指數(shù)損失函數(shù)來(lái)度量訓(xùn)練樣本被錯(cuò)分的嚴(yán)重程度,兩者也同樣釆用加性模型來(lái)優(yōu)化目標(biāo)損失函數(shù)。兩者之間最主要的區(qū)別在于,連續(xù)AdaBoost算法處理的是二分類問(wèn)題,分類器的輸出是標(biāo)量預(yù)測(cè)結(jié)果F(;c),訓(xùn)練樣本(;c,力的分類邊界(margin)是,(;c);而VectorBoosting算法要處理的卻是更加復(fù)雜的多類別分類問(wèn)題,分類器的輸出是矢量化的預(yù)測(cè)結(jié)果F(x),訓(xùn)練樣本(")的分類邊界定義為W(x),這是它的本質(zhì)投影向量^和預(yù)測(cè)結(jié)果F(x)在齊次坐標(biāo)空間內(nèi)的點(diǎn)積。然而在采用區(qū)域分割弱分類器的前提下,VectorBoosting算法對(duì)應(yīng)的增量學(xué)習(xí)算法卻和連續(xù)AdaBoost算法的沒有本質(zhì)差別。原因如下。在VectorBoosting算法的框架下,增量學(xué)習(xí)過(guò)程的混合目標(biāo)損失函<formula>formulaseeoriginaldocumentpage33</formula>(31)<formula>formulaseeoriginaldocumentpage33</formula>(32)<formula>formulaseeoriginaldocumentpage33</formula>(33)與連續(xù)AdaBoost算法對(duì)應(yīng)的式3,式4和式5相比,主要的區(qū)別在于原本用于表示類別屬性的二值化隨機(jī)標(biāo)量_y變成了多值化的隨機(jī)向量「而分類邊界的表示方式也從3^(x)相應(yīng)地變成了^^;c;)。但這些改變并不影響本文對(duì)于強(qiáng)分類器觀測(cè)空間Z的分析和把握。因此,在VectorBoosting算法的框架下,同樣是由離線訓(xùn)練過(guò)程確定聯(lián)合分割函數(shù)/(x),而增量學(xué)習(xí)過(guò)程只關(guān)注于如何調(diào)整矢量化輸出的累加查找表函數(shù)S(z)。和前面的做法一樣,在VectorBoosting算法的框架之下,增量學(xué)習(xí)算法仍然可以采用NaiveBayes方法近似計(jì)算混合目標(biāo)損失函數(shù)的離線部分(式32),其結(jié)果如下所示<formula>formulaseeoriginaldocumentpage33</formula>(34)<formula>formulaseeoriginaldocumentpage33</formula>其中Ac".表示的是第Z個(gè)弱分類器中第&個(gè)子區(qū)間輸出結(jié)果的變化量。需要注意的是,此時(shí)查找表中的元素是矢量而非標(biāo)量。除此之外,式34和連續(xù)AdaBoost算法對(duì)應(yīng)的式18幾乎完全相同。而混合目標(biāo)損失函數(shù)的在線部分(式33)同樣可以表示為與式25極其類似的形式,<formula>formulaseeoriginaldocumentpage33</formula>(35)至此,VectorBoosting算法對(duì)應(yīng)的增量學(xué)習(xí)過(guò)程就可以采用與前面一樣的梯度下降法,對(duì)如式31所示的混合目標(biāo)損失函數(shù)進(jìn)行迭代優(yōu)化的操作,從而最終獲得根據(jù)在線樣本調(diào)整得到的強(qiáng)分類器F(;c)-S(i(x):c+Ac)。下面介紹本發(fā)明的檢測(cè)器的增量學(xué)習(xí)算法。圖14示出了依據(jù)本發(fā)明的實(shí)施例的增量學(xué)習(xí)方法的流程圖。如圖14所示,其包括如下的步驟。首先,在步驟101,輸入合適的增強(qiáng)比率(該增強(qiáng)比率可以在10—100之間)、已有檢測(cè)器的各層強(qiáng)分類器的分類器模板、在線樣本的集合。此處,各層強(qiáng)分類器的分類器模板即各強(qiáng)分類器所包含的弱分類器的模板,具體在本發(fā)明中,是各弱分類器的子區(qū)間分類模板。另外,此處的輸入應(yīng)作廣義的理解,可以指從網(wǎng)上接收、從存儲(chǔ)介質(zhì)上獲取、手工輸入等各種形式。之后,在步驟102,進(jìn)行初始化,即設(shè)置初始優(yōu)化參量(模板調(diào)整量),例如將其設(shè)置為零。在步驟103,根據(jù)輸入增量學(xué)習(xí)樣本,獲得利用所述初始優(yōu)化參量進(jìn)行的優(yōu)化的優(yōu)化程度,在本實(shí)施例中,所述優(yōu)化程度指混合目標(biāo)函數(shù)的梯度。圖15示出了對(duì)優(yōu)化程度進(jìn)行計(jì)算的一個(gè)實(shí)施例的流程圖。如圖15所示,所述優(yōu)化程度計(jì)算可以包括修正系數(shù)確定步驟201、第一目標(biāo)損失計(jì)算步驟202、第二目標(biāo)損失計(jì)算步驟203、優(yōu)化程度計(jì)算步驟204。修正系數(shù)確定步驟201用于確定增量學(xué)習(xí)樣本的修正系數(shù),例如可以依據(jù)上述的式30利用初始化步驟中獲得的增強(qiáng)比率計(jì)算該修正系數(shù)。第一目標(biāo)損失計(jì)算步驟202用于計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化所造成的第一目標(biāo)損失。第二目標(biāo)損失計(jì)算步驟203用于根據(jù)所輸入的所述增量學(xué)習(xí)樣本計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化造成的第二目標(biāo)損失。優(yōu)化程度計(jì)算步驟204,根據(jù)所述第一目標(biāo)損失計(jì)算步驟202計(jì)算出的第一目標(biāo)損失、所述第二目標(biāo)損失計(jì)算步驟203計(jì)算出的第二目標(biāo)損失、以及所述修正系數(shù)確定步驟201確定出的增量學(xué)習(xí)樣本的修正系數(shù),計(jì)算利用所述優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。該步驟204可以包括第一相乘步驟、第二相乘步驟、第一求導(dǎo)步驟、第二求導(dǎo)步驟和相加步驟,所述第一相乘步驟將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘,所述第二相乘步驟用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘,所述第一求導(dǎo)步驟用于對(duì)所述第一相乘步驟的相乘結(jié)果進(jìn)行求導(dǎo);所述第二求導(dǎo)步驟用于對(duì)所述第二相乘步驟的相乘結(jié)果進(jìn)行求導(dǎo);所述相加步驟用于將所述第一求導(dǎo)步驟的求導(dǎo)結(jié)果與所述第二求導(dǎo)步驟的求導(dǎo)結(jié)果相加。該優(yōu)化程度計(jì)算步驟204也可以包括第一相乘步驟、第二相乘步驟、相加步驟、和求導(dǎo)步驟,所述第一相乘步驟將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘,所述第二相乘步驟用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘,所述相加步驟用于將所述第一相乘步驟的相乘結(jié)果與所述第二相乘步驟的相乘結(jié)果相加,所述求導(dǎo)步驟用于對(duì)所述相加步驟的相加結(jié)果進(jìn)行求導(dǎo)。本領(lǐng)域技術(shù)人員在本申請(qǐng)的教導(dǎo)下,參見上述的式,完全可以理解上述步驟,因而不再展開論述。另外,本領(lǐng)域的技術(shù)人員也可以根據(jù)本申請(qǐng)的教導(dǎo),依據(jù)上面的式構(gòu)思出其他的計(jì)算方法,這些都在本發(fā)明的范圍內(nèi)?,F(xiàn)在回到圖14,在步驟104,根據(jù)所述優(yōu)化程度獲得步驟103所獲得的計(jì)算結(jié)果,判斷所述優(yōu)化參量是否是對(duì)所述弱分類模板進(jìn)行優(yōu)化的可接受的優(yōu)化參量。這可以通過(guò)判斷所述計(jì)算結(jié)果是否滿足一定的條件來(lái)進(jìn)行,例如判斷所述優(yōu)化參量是否在預(yù)定的范圍內(nèi),例如小于預(yù)定值。當(dāng)步驟104的判斷為肯定時(shí),進(jìn)入步驟105和步驟106,利用所述優(yōu)化參量更新所述模板,并更新增量學(xué)習(xí)樣本集合,然后結(jié)束對(duì)該弱分類模板的處理。當(dāng)步驟104的判斷為否定時(shí),進(jìn)入步驟107,更新優(yōu)化參量,然后重復(fù)步驟103和104、107的處理,直到步驟104的判斷為肯定為止。圖16用文字描述的方式示出了本發(fā)明的增量學(xué)習(xí)方法的流程圖。在圖16的流程圖中,需要解釋的是,因?yàn)樵隽繉W(xué)習(xí)樣本是漏檢和誤報(bào)的樣本,所以在將優(yōu)化增量Ac初始地設(shè)為O時(shí),混合目標(biāo)損失函數(shù)的梯度會(huì)大于預(yù)定閾值。另外,符號(hào)llgt表示g的模。下面通過(guò)與聯(lián)合學(xué)習(xí)方法進(jìn)行比較來(lái)說(shuō)明本發(fā)明的優(yōu)點(diǎn)。如前所述,各種在線Boosting算法都是以離散AdaBoost作為基礎(chǔ)發(fā)展得到的,它們都無(wú)法適用于本文所采用的基于區(qū)域分割弱分類器的連續(xù)AdaBoost算法(處理多類別分類問(wèn)題時(shí)則是VectorBoosting算法)。而在人臉檢測(cè)器的離線訓(xùn)練過(guò)程中,區(qū)域分割連續(xù)AdaBoost算法所表現(xiàn)出來(lái)的學(xué)習(xí)能力又明顯優(yōu)于傳統(tǒng)的離散AdaBoost算法。為了更好地說(shuō)明本發(fā)明的優(yōu)點(diǎn),本文將采用聯(lián)合學(xué)習(xí)方法作為增量學(xué)習(xí)方法的比較對(duì)象。聯(lián)合學(xué)習(xí)(combinedlearning)是一種將離線樣本和在線樣本直接合并在一起,根據(jù)AdaBoost算法對(duì)強(qiáng)分類器中各個(gè)弱分類器依次重新進(jìn)行訓(xùn)練的方法。在本文的人臉檢測(cè)算法框架下,它和增量學(xué)習(xí)算法一樣,也是根據(jù)在線樣本對(duì)各類別的似然函數(shù)進(jìn)行修正后,在保持聯(lián)合區(qū)域分割函數(shù)i(;c)不變的前提下,調(diào)整累加查找表函數(shù)S(z)以便優(yōu)化混合目標(biāo)損失函數(shù)(式3)。然而聯(lián)合學(xué)習(xí)方法需要保留所有曾在離線訓(xùn)練過(guò)程中使用過(guò)的訓(xùn)練樣本,而增量學(xué)習(xí)方法卻只記錄了各個(gè)觀測(cè)量^上的加權(quán)邊緣分布。這一本質(zhì)差異使得兩種算法在混合目標(biāo)損失函數(shù)離線部分(式4)的計(jì)算過(guò)程中采用了截然不同的方法聯(lián)合學(xué)習(xí)和傳統(tǒng)的離線訓(xùn)練一樣,都是采用大量的離線樣本來(lái)模擬離線部分對(duì)應(yīng)的似然函數(shù);而增量學(xué)習(xí)則釆用NaiveBayes方法,通過(guò)各個(gè)觀測(cè)量z,上邊緣分布的乘積來(lái)近似估計(jì)屬于離線部分的加權(quán)似然函數(shù)。實(shí)驗(yàn)以正面直立人臉檢測(cè)問(wèn)題為例,研究增量學(xué)習(xí)算法和聯(lián)合學(xué)習(xí)算法根據(jù)少量光照條件很差的在線人臉訓(xùn)練樣本,修正離線訓(xùn)練得到的強(qiáng)分類器的情況。實(shí)驗(yàn)所用的樣本如下表l所示。我們從FERET庫(kù)中提取得到20000個(gè)光照均勻的正面直立人臉樣本,代表一般情況下的人臉檢測(cè)問(wèn)題。其中一半用于訓(xùn)練,另一半用于測(cè)試。另一方面,我們又從CMUPIE庫(kù)中選取了1425張圖片,并對(duì)它們進(jìn)行適當(dāng)擾動(dòng)后得到總共4275個(gè)正面直立人臉樣本。其中200個(gè)用于訓(xùn)練,剩余的4075個(gè)用于測(cè)試。這些人臉圖像都是在各種極端的光照條件下拍攝獲得的,可以代表特殊條件下的人臉檢測(cè)問(wèn)題。而作為反例的非人臉訓(xùn)練樣本則分別取自兩個(gè)獨(dú)立的背景圖片庫(kù),其數(shù)量與人臉樣本數(shù)一一對(duì)應(yīng)。表l離線樣本和在線樣本示例(括號(hào)中斜線前面的數(shù)字為訓(xùn)練樣本數(shù),斜線后面的數(shù)字為測(cè)試樣本數(shù))<table>tableseeoriginaldocumentpage37</column></row><table>采用區(qū)域分割連續(xù)AdaBoost算法,我們離線訓(xùn)練得到了一個(gè)由25個(gè)弱分類器組成的強(qiáng)分類器。這個(gè)強(qiáng)分類器的離線測(cè)試錯(cuò)誤率(在離線測(cè)試樣本上的錯(cuò)誤率)僅為0.37%,但由于離線訓(xùn)練過(guò)程中并沒有考慮各種極端光照的影響,這個(gè)強(qiáng)分類器的在線測(cè)試錯(cuò)誤率(在在線測(cè)試樣本上的錯(cuò)誤率)高達(dá)6.27%。為了能更加有效地處理各種特殊光照下的人臉檢測(cè)問(wèn)題,我們分別采用增量學(xué)習(xí)方法和聯(lián)合學(xué)習(xí)方法,根據(jù)不斷累積的在線訓(xùn)練樣本(從0個(gè)逐漸增加到200個(gè)),以不同的在線樣本增強(qiáng)比率(;1,=10'',《=0,-,8),對(duì)離線學(xué)習(xí)得到的強(qiáng)分類器進(jìn)行了相應(yīng)的調(diào)整,并記錄下其離線測(cè)試錯(cuò)誤率和在線測(cè)試錯(cuò)誤率的變化情況,如圖17所示。在圖17中,"COM1E0"對(duì)應(yīng)于^=10°的聯(lián)合學(xué)習(xí)算法(combinedlearning),"INC1E4"則對(duì)應(yīng)于義,=104的增量學(xué)習(xí)算法(incrementalkaming)。橫軸表示算法所采用的在線訓(xùn)練樣本數(shù),左子圖的縱軸和右子圖的縱軸則分別表示調(diào)整后強(qiáng)分類器的離線測(cè)試錯(cuò)誤率和在線測(cè)試錯(cuò)誤率。就圖17的整體趨勢(shì)而言,隨著越來(lái)越多的在線樣本參與訓(xùn)練,無(wú)論是增量學(xué)習(xí)方法還是聯(lián)合學(xué)習(xí)方法都能夠比較有效地降低原有強(qiáng)分類器的在線測(cè)試錯(cuò)誤率,同時(shí)其離線測(cè)試錯(cuò)誤率也有不同程度的提升。這實(shí)際上是兩種學(xué)習(xí)算法在離線樣本所代表的"一般情況"以及在線樣本所代表的"特殊情況"之間進(jìn)行重新權(quán)衡的結(jié)果,并非過(guò)訓(xùn)練現(xiàn)象。以^=102的增量學(xué)習(xí)方法為例,它通過(guò)僅僅200個(gè)在線訓(xùn)練樣本,就將強(qiáng)分類器的在線測(cè)試錯(cuò)誤率從6.27%降低到2.94%,而其離線測(cè)試錯(cuò)誤率僅從0.37%上升到0.77%。為了讓原本用來(lái)處理一般問(wèn)題的檢測(cè)器能夠更好地處理特殊條件下的人臉檢測(cè)問(wèn)題,這種程度的錯(cuò)誤率交換還是值得的。為了進(jìn)一步研究在線樣本增強(qiáng)比率在增量學(xué)習(xí)方法以及聯(lián)合學(xué)習(xí)方法中所起到的作用,我們通過(guò)對(duì)圖17進(jìn)行"切片",在采用相同數(shù)量在線訓(xùn)練樣本的前提下,考察^的取值對(duì)離線測(cè)試錯(cuò)誤率和在線測(cè)試錯(cuò)誤率的影響。實(shí)驗(yàn)結(jié)果如圖18所示。圖18的四個(gè)子圖從左上至右下,分別表示在線訓(xùn)練樣本數(shù)為0、10、100和200時(shí)的情況。圖中橫軸表示在線樣本增強(qiáng)比率,取值范圍是^=10","=0,...,8。"COMOFF"表示聯(lián)合學(xué)習(xí)方法的離線測(cè)試錯(cuò)誤率,而"INCON"則表示增量學(xué)習(xí)方法的在線測(cè)試錯(cuò)誤率。通過(guò)觀察這些"切片"結(jié)果,我們發(fā)現(xiàn),雖然增大在線樣本增強(qiáng)比率七——也就是增大在線樣本的修正系數(shù)^—一能夠使增量學(xué)習(xí)和聯(lián)合學(xué)習(xí)在優(yōu)化過(guò)程中更加關(guān)注混合目標(biāo)損失函數(shù)的在線部分,但這一做法并不能確保降低在線測(cè)試錯(cuò)誤率,卻讓離線測(cè)試錯(cuò)誤率始終保持上升。這種現(xiàn)象在聯(lián)合學(xué)習(xí)方法的身上表現(xiàn)得尤其突出。如圖18右上所示的在線訓(xùn)練樣本數(shù)僅為10的情況,當(dāng)^不斷增大至108、即逐漸接近于1的時(shí)候(^和、之間的關(guān)系可以參考式30),聯(lián)合學(xué)習(xí)方法的離線測(cè)試錯(cuò)誤率和在線測(cè)試錯(cuò)誤率雙雙呈現(xiàn)出顯著的上升趨勢(shì)。這實(shí)際上是一種過(guò)訓(xùn)練現(xiàn)象,原因是在線訓(xùn)練樣本數(shù)量很少,但在線部分卻在混合目標(biāo)損失函數(shù)中占據(jù)統(tǒng)治地位。另一方面,增量學(xué)習(xí)方法在各種情況下對(duì)于這種過(guò)訓(xùn)練現(xiàn)象的抑制能力要明顯優(yōu)于聯(lián)合學(xué)習(xí)方法。導(dǎo)致這一差別的根本原因在于二種方法針對(duì)混合目標(biāo)損失函數(shù)的離線部分采用了完全不同的計(jì)算方式。聯(lián)合學(xué)習(xí)方法在計(jì)算混合目標(biāo)損失函數(shù)的離線部分時(shí),需要通過(guò)離線訓(xùn)練樣本來(lái)模擬觀測(cè)空間內(nèi)似然函數(shù)的聯(lián)合分布情況(式12)。由于觀測(cè)空間的維數(shù)通常很高(和弱分類器個(gè)數(shù)相同),這一采樣過(guò)程是不夠充分的。當(dāng)在線部分占據(jù)統(tǒng)治地位時(shí),算法需要對(duì)強(qiáng)分類器進(jìn)行較大的調(diào)整才能夠優(yōu)化混合目標(biāo)損失函數(shù)。此時(shí)聯(lián)合學(xué)習(xí)方法采樣不充分的問(wèn)題就突出了起來(lái),使得混合目標(biāo)損失函數(shù)離線部分的計(jì)算結(jié)果可能同真實(shí)值之間產(chǎn)生極大的誤差。而增量學(xué)習(xí)方法卻采用NaiveBayes方法,通過(guò)似然函數(shù)在各個(gè)觀測(cè)量上的邊緣分布的乘積來(lái)近似其聯(lián)合分布。這使得增量學(xué)習(xí)方法對(duì)于采樣數(shù)量的依賴性大為降低,不至于產(chǎn)生像聯(lián)合學(xué)習(xí)方法那樣巨大的誤差。事實(shí)上,圖18的實(shí)驗(yàn)結(jié)果表明,增量學(xué)習(xí)方法對(duì)參數(shù)人并不敏感在相當(dāng)大的范圍內(nèi)任意改變都不會(huì)對(duì)增量學(xué)習(xí)的結(jié)果造成很大的影響。不僅如此,無(wú)論是離線測(cè)試錯(cuò)誤率,還是在線測(cè)試錯(cuò)誤率,增量學(xué)習(xí)方法都表現(xiàn)出了不遜于聯(lián)合學(xué)習(xí)方法的性能前者的錯(cuò)誤率幾乎始終保持在比后者的錯(cuò)誤率更低或至少相當(dāng)?shù)乃街稀?紤]到使用聯(lián)合學(xué)習(xí)方法的前提是保存所有的離線訓(xùn)練樣本,增量學(xué)習(xí)方法顯然更具優(yōu)勢(shì)。圖18的左上子圖中還展現(xiàn)了一個(gè)有趣的現(xiàn)象。當(dāng)在線訓(xùn)練樣本數(shù)為0時(shí),增量學(xué)習(xí)方法的離線測(cè)試錯(cuò)誤率為0.34%,在線測(cè)試錯(cuò)誤率為6.18%,竟然都略低于使用了10000個(gè)離線樣本進(jìn)行訓(xùn)練的聯(lián)合學(xué)習(xí)方法(分別為0.37%和6.27%)。實(shí)際上這是由于兩種學(xué)習(xí)方法采用了不同的優(yōu)化策略所致。我們知道,AdaBoost算法實(shí)際上是一個(gè)采用加性模型逐步優(yōu)化目標(biāo)損失函數(shù)的過(guò)程。因此對(duì)于目標(biāo)損失函數(shù)而言,離線訓(xùn)練得到的強(qiáng)分類器并非全局最優(yōu)結(jié)果。當(dāng)在線訓(xùn)練樣本數(shù)為0的時(shí)候,聯(lián)合學(xué)習(xí)方法實(shí)質(zhì)上就是離線訓(xùn)練時(shí)的AdaBoost算法,所以其學(xué)習(xí)得到的仍然是逐步優(yōu)化的結(jié)果。而增量學(xué)習(xí)算法則有所不同。由于它以并行化的弱分類器調(diào)整策略獲取目標(biāo)損失函數(shù)的全局最優(yōu)結(jié)果,離線學(xué)習(xí)得到的強(qiáng)分類器可以被增量學(xué)習(xí)方法進(jìn)一步地優(yōu)化。這實(shí)際上也是增量學(xué)習(xí)方法能夠在離線和在線測(cè)試錯(cuò)誤率方面優(yōu)于聯(lián)合學(xué)習(xí)方法的另一個(gè)原因。另外,為了檢驗(yàn)該增量學(xué)習(xí)算法是否能夠有效對(duì)檢測(cè)器進(jìn)行適當(dāng)?shù)恼{(diào)整,我們選擇了三類特殊環(huán)境下的人臉檢測(cè)問(wèn)題對(duì)其進(jìn)行獨(dú)立的測(cè)試。其中佩戴墨鏡和圍巾的正面直立人臉圖片來(lái)自AR庫(kù),各有765張不同的人臉圖片,屬于人臉被部分遮擋的情況。而逆光的半側(cè)面圖片則來(lái)自CMUPIE庫(kù),共有340張不同的人臉圖片,屬于光照條件極端不良的情況。測(cè)試方法仿照一般終端用戶的操作方式,每標(biāo)定圖片中的一個(gè)漏檢人臉,就生成與之對(duì)應(yīng)的若干樣本加入到已有的在線訓(xùn)練樣本集合中,再通過(guò)增量學(xué)習(xí)算法對(duì)檢測(cè)器進(jìn)行適當(dāng)?shù)恼{(diào)整。具體在實(shí)驗(yàn)中,每個(gè)被標(biāo)定的人臉都會(huì)加以適度地?cái)_動(dòng)并生成16個(gè)樣本。由于上面的實(shí)驗(yàn)已經(jīng)說(shuō)明,強(qiáng)分類器的增量學(xué)習(xí)過(guò)程對(duì)在線樣本增強(qiáng)比率并不敏感。因此我們直接經(jīng)驗(yàn)性地選擇義+1=16。至于、,由于這個(gè)實(shí)驗(yàn)所采用的圖片集合(AR庫(kù)和CMUP正庫(kù))的背景十分簡(jiǎn)單,在實(shí)驗(yàn)中始終收集不到任何檢測(cè)器的誤報(bào)作為反例進(jìn)行增量學(xué)習(xí),所以反例的在線樣本增強(qiáng)比率是多少無(wú)關(guān)緊要。實(shí)驗(yàn)的結(jié)果如圖19所示,其中左子圖對(duì)應(yīng)AR庫(kù)中正面直立人臉的兩種特殊情況(墨鏡和圍巾),而右子圖則對(duì)應(yīng)CMUPIE庫(kù)中半側(cè)面人臉的逆光情況。在沒有標(biāo)定任何在線樣本之前(對(duì)應(yīng)于圖中x軸為0的情況),離線訓(xùn)練得到的人臉檢測(cè)器在這三個(gè)測(cè)試集合上的檢測(cè)率很不理想,都有大量的人臉圖片漏檢。然而,只需要手工標(biāo)注15張(墨鏡)、19張(圍巾)和8張(半側(cè)面逆光)漏檢的人臉圖片,借助于上述檢測(cè)器的增量學(xué)習(xí)算法,我們就可以分別得到三個(gè)檢測(cè)率達(dá)100%的人臉檢測(cè)器。這意味著我們提出的增量學(xué)習(xí)算法能夠根據(jù)少量的在線訓(xùn)練樣本有效地調(diào)整已有的人臉檢測(cè)器,使之快速地適應(yīng)特殊的應(yīng)用環(huán)境。然而僅僅這樣還是不夠的,我們還需要增量學(xué)習(xí)后得到的檢測(cè)器仍然保有處理一般情況下人臉檢測(cè)問(wèn)題的能力。為此,以佩戴墨鏡的正面人臉檢測(cè)問(wèn)題為例,我們將增量學(xué)習(xí)前后的檢測(cè)器在CMU+MIT正面人臉測(cè)試集合上進(jìn)行比較。得到了如圖20所示的ROC曲線比較結(jié)果。在圖20中,"OFF"表示檢測(cè)器在增量學(xué)習(xí)之前(即離線訓(xùn)練的結(jié)果)的ROC曲線,而"INC"則表示該檢測(cè)器通過(guò)增量學(xué)習(xí)達(dá)到100%的戴墨鏡人臉檢測(cè)率之后(參見圖19的左子圖),在與訓(xùn)練集合無(wú)關(guān)的CMU+MIT正面人臉測(cè)試集合上獲得的ROC曲線。不難看出,在處理像CMU+MIT正面人臉測(cè)試集合這樣一般情況下的人臉檢測(cè)問(wèn)題時(shí),增量學(xué)習(xí)得到的人臉檢測(cè)器雖然略遜于離線學(xué)習(xí)得到的人臉檢測(cè)器,但考慮到圖19中增量學(xué)習(xí)前后檢測(cè)器在處理特殊環(huán)境時(shí)能力的巨大差異,這樣微小程度的退步是可以接受的。通過(guò)深入分析,我們發(fā)現(xiàn)增量學(xué)習(xí)后檢測(cè)器精度降低的原因并不是檢測(cè)率下降。在同樣的檢測(cè)條件下,與增量學(xué)習(xí)之前的檢測(cè)器相比,根據(jù)戴墨鏡人臉樣本增量學(xué)習(xí)之后的檢測(cè)器能夠從圖片中檢測(cè)到更多困難的人臉(方框?yàn)樵隽繉W(xué)習(xí)之前的結(jié)果,圓圈為增量學(xué)習(xí)之后的結(jié)果)。真正導(dǎo)致檢測(cè)器精度下降的原因是誤報(bào)率在增量學(xué)習(xí)之后上升了。問(wèn)題的根源在于,增量學(xué)習(xí)戴墨鏡人臉樣本的過(guò)程中,根本沒有涉及到任何非人臉訓(xùn)練樣本。這使得增量學(xué)習(xí)算法在調(diào)整檢測(cè)器使之適應(yīng)特殊人臉樣本的同時(shí),也錯(cuò)誤地讓一部分與這些在線訓(xùn)練樣本相似的非人臉模式得以通過(guò)。實(shí)際上,只需要將檢測(cè)器所產(chǎn)生的誤報(bào)收集起來(lái),作為非人臉在線訓(xùn)練樣本,然后重新對(duì)檢測(cè)器進(jìn)行增量學(xué)習(xí),就可以在檢測(cè)過(guò)程中有效地消除這些誤報(bào)。圖20中"INC+"曲線正是重新增量學(xué)習(xí)后得到的結(jié)果。這個(gè)檢測(cè)器的誤報(bào)數(shù)幾乎一直保持在0左右,而由于增量學(xué)習(xí)考慮了佩帶墨鏡的人臉情況,其檢測(cè)率相對(duì)于離線訓(xùn)練的結(jié)果又有所提高。因此,這個(gè)重新增量學(xué)習(xí)后得到的檢測(cè)器在檢測(cè)精度方面明顯優(yōu)于離線訓(xùn)練和第一次增量學(xué)習(xí)的結(jié)果。綜上所述,根據(jù)本發(fā)明的一個(gè)方面,提供了一種特定被攝體檢測(cè)裝置,該特定被攝體檢測(cè)裝置包括輸入單元,用于輸入待檢測(cè)的圖像;一個(gè)或更多個(gè)強(qiáng)分類單元,用于對(duì)所述圖像進(jìn)行強(qiáng)分類,各所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元使用弱分類模板對(duì)所述待檢測(cè)的圖像進(jìn)行弱分類;存儲(chǔ)單元,存儲(chǔ)所述弱分類器所使用的弱分類模板;判斷單元,根據(jù)所述強(qiáng)分類單元的分類結(jié)果,對(duì)所述圖像是否包含所述特定被攝體進(jìn)行判斷;其特征在于,所述特定被攝體檢測(cè)裝置還包括增量樣本輸入單元,用于輸入增量學(xué)習(xí)用的數(shù)據(jù),即輸入增量學(xué)習(xí)樣本,也就是該種特定被攝體檢測(cè)裝置所漏檢或誤報(bào)的數(shù)據(jù);學(xué)習(xí)單元,用于根據(jù)所述增量樣本輸入單元輸入的增量學(xué)習(xí)樣本,更新所述存儲(chǔ)單元所存儲(chǔ)的所述弱分類模板。根據(jù)本發(fā)明的又一方面,本發(fā)明提供了一種用于特定被攝體檢測(cè)裝置的學(xué)習(xí)裝置,所述特定被攝體檢測(cè)裝置包括一個(gè)或更多個(gè)強(qiáng)分類單元,所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元利用弱分類模板對(duì)輸入的圖像進(jìn)行是否包含特定被攝體的判斷,所述學(xué)習(xí)裝置利用增量學(xué)習(xí)樣本對(duì)所述弱分類模板進(jìn)行更新,所述增量學(xué)習(xí)樣本是該種特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的數(shù)據(jù),所述學(xué)習(xí)裝置包括優(yōu)化程度計(jì)算部,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度;判斷單元,根據(jù)所述優(yōu)化程度計(jì)算部的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),所述優(yōu)化參量更新單元對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),所述模板更新單元對(duì)所述弱分類模板進(jìn)行更新。優(yōu)選地,所述弱分類單元包括子區(qū)間判定單元,用于根據(jù)對(duì)實(shí)例空間的劃分將輸入的所述待檢測(cè)的圖像歸類到互不相交的多個(gè)子區(qū)間中的某個(gè)子區(qū)間;弱分類確定單元,用于根據(jù)所述子區(qū)間判定單元的判定結(jié)果,根據(jù)子區(qū)間弱分類模板,輸出對(duì)所述待檢測(cè)圖像所屬的分類的預(yù)測(cè)結(jié)果;所述存儲(chǔ)單元存儲(chǔ)有所述子區(qū)間弱分類模板;所述學(xué)習(xí)單元根據(jù)所述增量樣本輸入單元輸入的增量學(xué)習(xí)樣本,更新所述存儲(chǔ)單元所存儲(chǔ)的各所述子區(qū)間弱分類模板。優(yōu)選地,所述學(xué)習(xí)單元包括優(yōu)化程度計(jì)算部,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度;判斷單元,根據(jù)所述優(yōu)化程度計(jì)算部的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),所述優(yōu)化參量更新單元對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),所述模板更新單元對(duì)所述弱分類模板進(jìn)行更新。優(yōu)選地,所述優(yōu)化程度計(jì)算部包括修正系數(shù)確定單元,用于確定增量學(xué)習(xí)樣本的修正系數(shù);第一目標(biāo)損失計(jì)算單元,用于計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化所造成的第一目標(biāo)損失;第二目標(biāo)損失計(jì)算單元,用于根據(jù)所輸入的所述增量學(xué)習(xí)樣本計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化造成的第二目標(biāo)損失;優(yōu)化程度計(jì)算單元,根據(jù)所述第一目標(biāo)損失計(jì)算單元計(jì)算出的第一目標(biāo)損失、所述第二目標(biāo)損失計(jì)算單元計(jì)算出的第二目標(biāo)損失、以及所述修正系數(shù)確定單元確定出的增量樣本的修正系數(shù),計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。優(yōu)選地,所述優(yōu)化程度計(jì)算單元包括第一乘法部、第二乘法部、第一求導(dǎo)部、第二求導(dǎo)部和加法部,所述第一乘法部用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二乘法部用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述第一求導(dǎo)部用于對(duì)所述第一乘法部的相乘結(jié)果進(jìn)行求導(dǎo);所述第二求導(dǎo)部用于對(duì)所述第二乘法部的相乘結(jié)果進(jìn)行求導(dǎo);所述加法部用于將所述第一求導(dǎo)部的求導(dǎo)結(jié)果與所述第二求導(dǎo)部的求導(dǎo)結(jié)果相加。優(yōu)選地,所述優(yōu)化程度計(jì)算單元包括第一乘法部、第二乘法部、加法部、和求導(dǎo)部,所述第一乘法部用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二乘法部用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述加法部用于將所述第一乘法部的相乘結(jié)果與所述第二乘法部的相乘結(jié)果相加;所述求導(dǎo)部用于對(duì)所述加法部的相加結(jié)果進(jìn)行求導(dǎo)。優(yōu)選地,所述修正系數(shù)確定單元根據(jù)在線樣本的數(shù)量確定所述修正系數(shù),使增量學(xué)習(xí)樣本的作用不受增量學(xué)習(xí)樣本總數(shù)變化的影響。優(yōu)選地,所述學(xué)習(xí)單元還包括增量學(xué)習(xí)樣本更新單元,該增量學(xué)習(xí)樣本更新單元用于減少所述增量學(xué)習(xí)樣本組成的集合中的增量學(xué)習(xí)樣本,得到新的所述增量學(xué)習(xí)樣本的集合。優(yōu)選地,所述第一目標(biāo)損失計(jì)算單元采用NaiVeBayes法計(jì)算所述第一目標(biāo)損失。優(yōu)選地,所述優(yōu)化參量更新單元根據(jù)0.618法更新所述優(yōu)化參量。優(yōu)選地,所述子區(qū)間判定單元首先提取所述待檢測(cè)圖像的特征,然后根據(jù)分段函數(shù)的等間隔分隔方式將所述待檢測(cè)圖像歸類到所述實(shí)例空間中的某個(gè)子區(qū)間。優(yōu)選地,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,所述增量樣本輸入單元包括記錄單元,所述記錄單元用于記錄所述特定被攝體檢測(cè)裝置在運(yùn)行中漏檢或誤報(bào)的圖像。優(yōu)選地,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置之外的與所述特定被攝體檢測(cè)裝置相同的其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,所述增量樣本輸入單元包括接收單元,所述接收單元用于接收來(lái)自所述其他特定被攝體檢測(cè)裝置在運(yùn)行中漏檢或誤報(bào)的圖像。其中,所述特定被攝體指人臉。其中,所述一個(gè)或更多個(gè)強(qiáng)分類單元按瀑布模式或矢量樹模式連接。優(yōu)選地,所述特定被攝體檢測(cè)裝置包括切換裝置,所述切換裝置用于切換所述特定被攝體檢測(cè)裝置的模式狀態(tài),使所述特定被攝體檢測(cè)裝置在檢測(cè)模式和學(xué)習(xí)模式之間互換;所述增量樣本輸入單元和所述學(xué)習(xí)單元在所述切換裝置將所述特定被攝體檢測(cè)裝置切換為學(xué)習(xí)模式時(shí)工作。根據(jù)本發(fā)明的又一方面,提供了一種用于特定被攝體檢測(cè)裝置的學(xué)習(xí)方法,所述特定被攝體檢測(cè)裝置包括一個(gè)或更多個(gè)強(qiáng)分類單元,所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元利用弱分類模板對(duì)輸入的圖像進(jìn)行是否包含特定被攝體的判斷,所述學(xué)習(xí)方法包括針對(duì)各弱分類器的輸入步驟,輸入增量學(xué)習(xí)樣本;優(yōu)化程度獲得步驟,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度,所述增量學(xué)習(xí)樣本是該種特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的數(shù)據(jù);判斷步驟,根據(jù)所述優(yōu)化程度獲得步驟的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新步驟,當(dāng)所述判斷步驟判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),該優(yōu)化參量更新步驟對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新步驟,當(dāng)所述判斷步驟判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),該模板更新步驟對(duì)所述弱分類模板進(jìn)行更新。優(yōu)選地,所述優(yōu)化程度獲得步驟包括修正系數(shù)確定步驟,用于確定增量學(xué)習(xí)樣本的修正系數(shù);第一目標(biāo)損失計(jì)算步驟,用于計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化所造成的第一目標(biāo)損失;第二目標(biāo)損失計(jì)算步驟,用于根據(jù)所輸入的所述增量學(xué)習(xí)樣本計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化造成的第二目標(biāo)損失;優(yōu)化程度計(jì)算步驟,根據(jù)所述第一目標(biāo)損失計(jì)算步驟計(jì)算出的第一目標(biāo)損失、所述第二目標(biāo)損失計(jì)算步驟計(jì)算出的第二目標(biāo)損失、以及所述修正系數(shù)確定步驟確定出的增量學(xué)習(xí)樣本的修正系數(shù),計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。優(yōu)選地,所述優(yōu)化程度計(jì)算步驟包括第一相乘步驟、第二相乘步驟、第一求導(dǎo)步驟、第二求導(dǎo)步驟和相加步驟,所述第一相乘步驟用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二相乘步驟用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述第一求導(dǎo)步驟用于對(duì)所述第一相乘步驟的相乘結(jié)果進(jìn)行求導(dǎo);所述第二求導(dǎo)步驟用于對(duì)所述第二相乘步驟的相乘結(jié)果進(jìn)行求導(dǎo);所述相加步驟用于將所述第一求導(dǎo)步驟的求導(dǎo)結(jié)果與所述第二求導(dǎo)步驟的求導(dǎo)結(jié)果相加。優(yōu)選地,所述優(yōu)化程度計(jì)算步驟包括第一相乘步驟、第二乘法步驟、相加步驟、和求導(dǎo)步驟,所述第一相乘步驟用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二相乘步驟用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述相加步驟用于將所述第一相乘步驟的相乘結(jié)果與所述第二相乘步驟的相乘結(jié)果相加;所述求導(dǎo)步驟用于對(duì)所述相加步驟的相加結(jié)果進(jìn)行求導(dǎo)。優(yōu)選地,所述修正系數(shù)確定步驟根據(jù)在線樣本的數(shù)量確定所述修正系數(shù),使增量學(xué)習(xí)樣本的作用不受增量學(xué)習(xí)樣本總數(shù)變化的影響。優(yōu)選地,所述學(xué)習(xí)方法還包括增量學(xué)習(xí)樣本更新步驟,所述增量學(xué)習(xí)樣本更新步驟用于減少所述增量學(xué)習(xí)樣本組成的集合中的增量學(xué)習(xí)樣本,得到新的所述增量學(xué)習(xí)樣本的集合。優(yōu)選地,所述第一目標(biāo)損失計(jì)算步驟釆用邊緣分布函數(shù)法或NaiVeBayes法計(jì)算所述第一目標(biāo)損失。其中,所述弱分類單元包括子區(qū)間判定單元,用于根據(jù)對(duì)實(shí)例空間的劃分將輸入的所述待檢測(cè)的圖像歸類到互不相交的多個(gè)子區(qū)間中的某個(gè)子區(qū)間;弱分類確定單元,用于根據(jù)所述子區(qū)間判定單元的判定結(jié)果,根據(jù)子區(qū)間弱分類模板,輸出對(duì)所述待檢測(cè)圖像所屬的分類的預(yù)測(cè)結(jié)果;所述學(xué)習(xí)方法根據(jù)所述增量學(xué)習(xí)樣本,更新各所述子區(qū)間弱分類模板。優(yōu)選地,所述優(yōu)化參量更新步驟利用0.618法對(duì)所述優(yōu)化參量進(jìn)行更新。其中,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,或所述特定被攝體檢測(cè)裝置之外的與所述特定被攝體檢測(cè)裝置相同的其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像。其中,所述特定被攝體是人臉。另外,根據(jù)本發(fā)明的又一方面,本發(fā)明提供了一種計(jì)算機(jī)程序,當(dāng)其由計(jì)算機(jī)執(zhí)行時(shí),可以使計(jì)算機(jī)作為上述特定被攝體檢測(cè)裝置進(jìn)行工作。另外,根據(jù)本發(fā)明的又一方面,本發(fā)明提供了一種計(jì)算機(jī)程序,當(dāng)其由計(jì)算機(jī)執(zhí)行時(shí),可以使計(jì)算機(jī)作為上述學(xué)習(xí)裝置進(jìn)行工作。另外,根據(jù)本發(fā)明的又一方面,本發(fā)明提供了一種計(jì)算機(jī)程序,當(dāng)其由計(jì)算機(jī)執(zhí)行時(shí),可以使計(jì)算機(jī)實(shí)現(xiàn)上述學(xué)習(xí)方法。另外,根據(jù)本發(fā)明的又一方面,本發(fā)明提供了一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其存儲(chǔ)由上面所述的可以使計(jì)算機(jī)作為上述特定被攝體檢測(cè)裝置進(jìn)行工作的計(jì)算機(jī)程序。另外,根據(jù)本發(fā)明的又一方面,本發(fā)明提供了一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其存儲(chǔ)由上面所述的可以使計(jì)算機(jī)作為學(xué)習(xí)裝置進(jìn)行工作的計(jì)算機(jī)程序。另外,根據(jù)本發(fā)明的又一方面,本發(fā)明提供了一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其存儲(chǔ)由上面所述的可以使計(jì)算機(jī)實(shí)現(xiàn)上述學(xué)習(xí)方法的計(jì)算機(jī)程序。所述計(jì)算機(jī)存儲(chǔ)介質(zhì)可以是軟盤、DVD、VCD、CD、磁盤、硬盤、Flash、磁光盤等本領(lǐng)域技術(shù)人員所知的任何計(jì)算機(jī)可讀存儲(chǔ)介質(zhì)。下面列出了對(duì)于理解本發(fā)明有益的相關(guān)的參考文獻(xiàn),通過(guò)引用將它們并入本文中,如同在本文中完全闡明了一樣。R.E.SchapireandY.Singer.ImprovedBoostingAlgorithmsUsingConfidence-ratedPredictions.In:MachineLearning,vol.37,pp.297-336,1999.V.N.Vapnik.Thenatureofstatisticallearningtheory.Berlin,Germany:Springer-Verlag,1995.J.Friedman,T.Hastie,andR.Tibshirani.Additivelogisticregression:Astatisticalviewofboosting.In:AnnalsofStatistics,vol.28,pp.337-374,2000.P.Utgoff,N.Berkman,andJ.Clouse.Decisiontreeinductionbasedonefficienttreerestructuring.In:MachineLearning,29(1),5^44.1997.N.Littlestone.Learningquicklywhenirrelevantattributesabound:Anewlinearthresholdalgorithm.In:MachineLearning,2,285—318.1988.N.Littlestone,andM.Warmuth.Theweightedmajorityalgorithm.In:InformationandComputation,108,212—261.1994.L.Breiman,Pastingsmallvotesforclassificationinlargedatabasesandon-line.In:MachineLearning,36,85—103.1999.A.FernandR.Givan.Onlineensemblelearning:Anempiricalstudy-In:Proc.ICML,pp.151279—286,2000.N.OzaandS.Russel.Onlinebaggingandboosting.In:Proc,ArtificialIntelligenceandStatistics,2001.N.Oza.Onlineensemblelearning.Ph.D,thesis,UniversityofCalifornia,Berkeley,2001.O.Javed,S.Ali,andM.Shah.Onlinedetectionandclassificationofmovingobjectsusingprogressivelyimprovingdetectors.In:Proc.CVPR,2005,H.GrabnerandH.Bischof.OnlineBoostingandVision.In:Proc.CVPR,2006.T.Sim,S.Baker,andM.Bsat.TheCMUpose,illumination,andexpressiondatabase.7>cm&iMM/'25(12),1615-1618,2003.權(quán)利要求1、一種特定被攝體檢測(cè)裝置,該特定被攝體檢測(cè)裝置包括輸入單元,用于輸入待檢測(cè)的圖像;一個(gè)或更多個(gè)強(qiáng)分類單元,用于對(duì)所述待檢測(cè)的圖像進(jìn)行強(qiáng)分類,各所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元使用弱分類模板對(duì)所述待檢測(cè)的圖像進(jìn)行弱分類;存儲(chǔ)單元,存儲(chǔ)所述弱分類單元所使用的弱分類模板;判斷單元,根據(jù)所述強(qiáng)分類單元的分類結(jié)果,對(duì)所述待檢測(cè)的圖像是否包含所述特定被攝體進(jìn)行判斷;其特征在于,所述特定被攝體檢測(cè)裝置還包括增量樣本輸入單元,用于輸入增量學(xué)習(xí)用的數(shù)據(jù),即輸入增量學(xué)習(xí)樣本,也就是該或其他特定被攝體檢測(cè)裝置所漏檢或誤報(bào)的數(shù)據(jù);學(xué)習(xí)單元,用于根據(jù)所述增量樣本輸入單元輸入的所述增量學(xué)習(xí)樣本,更新所述存儲(chǔ)單元所存儲(chǔ)的所述弱分類模板。2、根據(jù)權(quán)利要求1所述的特定被攝體檢測(cè)裝置,其特征在于,所述弱分類單元包括子區(qū)間判定單元,用于根據(jù)對(duì)實(shí)例空間的劃分將輸入的所述待檢測(cè)的圖像歸類到互不相交的多個(gè)子區(qū)間中的某個(gè)子區(qū)間;弱分類確定單元,用于根據(jù)所述子區(qū)間判定單元的判定結(jié)果,根據(jù)子區(qū)間弱分類模板,輸出對(duì)所述待檢測(cè)圖像所屬的分類的預(yù)測(cè)結(jié)果;所述存儲(chǔ)單元存儲(chǔ)有所述子區(qū)間弱分類模板;所述學(xué)習(xí)單元根據(jù)所述增量樣本輸入單元輸入的增量學(xué)習(xí)樣本,更新所述存儲(chǔ)單元所存儲(chǔ)的各所述子區(qū)間弱分類模板。3、根據(jù)權(quán)利要求2所述的特定被攝體檢測(cè)裝置,其特征在于,所述學(xué)習(xí)單元包括優(yōu)化程度計(jì)算部,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度;判斷單元,根據(jù)所述優(yōu)化程度計(jì)算部的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),所述優(yōu)化參量更新單元對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),所述模板更新單元對(duì)所述弱分類模板進(jìn)行更新。4、根據(jù)權(quán)利要求3所述的特定被攝體檢測(cè)裝置,其特征在于,所述優(yōu)化程度計(jì)算部包括修正系數(shù)確定單元,用于確定增量學(xué)習(xí)樣本的修正系數(shù);第一目標(biāo)損失計(jì)算單元,用于計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化所造成的第一目標(biāo)損失;第二目標(biāo)損失計(jì)算單元,用于根據(jù)所輸入的所述增量學(xué)習(xí)樣本計(jì)算利用所述優(yōu)化參量對(duì)所述子區(qū)間弱分類模板進(jìn)行的優(yōu)化造成的第二目標(biāo)損失;優(yōu)化程度計(jì)算單元,根據(jù)所述第一目標(biāo)損失計(jì)算單元計(jì)算出的第一目標(biāo)損失、所述第二目標(biāo)損失計(jì)算單元計(jì)算出的第二目標(biāo)損失、以及所述修正系數(shù)確定單元確定出的增量樣本的修正系數(shù),計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。5、根據(jù)權(quán)利要求4所述的特定被攝體檢測(cè)裝置,其特征在于,所述優(yōu)化程度計(jì)算單元包括第一乘法部、第二乘法部、第一求導(dǎo)部、第二求導(dǎo)部和加法部,所述第一乘法部用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二乘法部用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述第一求導(dǎo)部用于對(duì)所述第一乘法部的相乘結(jié)果進(jìn)行求導(dǎo);所述第二求導(dǎo)部用于對(duì)所述第二乘法部的相乘結(jié)果進(jìn)行求導(dǎo);所述加法部用于將所述第一求導(dǎo)部的求導(dǎo)結(jié)果與所述第二求導(dǎo)部的求導(dǎo)結(jié)果相加。6、根據(jù)權(quán)利要求4所述的特定被攝體檢測(cè)裝置,其特征在于,所述優(yōu)化程度計(jì)算單元包括第一乘法部、第二乘法部、加法部、和求導(dǎo)部,所述第一乘法部用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二乘法部用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述加法部用于將所述第一乘法部的相乘結(jié)果與所述第二乘法部的相乘結(jié)果相加;所述求導(dǎo)部用于對(duì)所述加法部的相加結(jié)果進(jìn)行求導(dǎo)。7、根據(jù)權(quán)利要求4所述的特定被攝體檢測(cè)裝置,其特征在于,所述修正系數(shù)確定單元根據(jù)在線樣本的數(shù)量確定所述修正系數(shù),使增量學(xué)習(xí)樣本的作用不受增量學(xué)習(xí)樣本總數(shù)變化的影響。8、根據(jù)權(quán)利要求3所述的特定被攝體檢測(cè)裝置,其特征在于,所述學(xué)習(xí)單元還包括增量學(xué)習(xí)樣本更新單元,所述增量學(xué)習(xí)樣本更新單元用于減少所述增量學(xué)習(xí)樣本組成的集合中的增量學(xué)習(xí)樣本,得到新的所述增量學(xué)習(xí)樣本的集合。9、根據(jù)權(quán)利要求4所述的特定被攝體檢測(cè)裝置,其特征在于,所述第一目標(biāo)損失計(jì)算單元采用Na'iVeBayes法計(jì)算所述第一目標(biāo)損失。10、根據(jù)權(quán)利要求3所述的特定被攝體檢測(cè)裝置,其特征在于,所述優(yōu)化參量更新單元根據(jù)0.618法更新所述優(yōu)化參量。11、根據(jù)權(quán)利要求2所述特定被攝體檢測(cè)裝置,其特征在于,所述子區(qū)間判定單元首先提取所述待檢測(cè)圖像的特征,然后根據(jù)分段函數(shù)的等間隔分隔方式將所述待檢測(cè)圖像歸類到所述實(shí)例空間中的某個(gè)子區(qū)間。12、根據(jù)權(quán)利要求l一ll中任一項(xiàng)所述的特定被攝體檢測(cè)裝置,其特征在于,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,所述增量樣本輸入單元包括記錄單元,所述記錄單元用于記錄所述特定被攝體檢測(cè)裝置的在運(yùn)行中漏檢或誤報(bào)的圖像。13、根據(jù)權(quán)利要求l一ll中任一項(xiàng)所述的特定被攝體檢測(cè)裝置,其特征在于,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置之外的與所述特定被攝體檢測(cè)裝置相同的其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,所述增量樣本輸入單元包括接收單元,所述接收單元用于接收來(lái)自所述其他特定被攝體檢測(cè)裝置在運(yùn)行中漏檢或誤報(bào)的圖像。14、根據(jù)權(quán)利要求l一ll中任一項(xiàng)所述的特定被攝體檢測(cè)裝置,其特征在于,所述特定被攝體指人臉。15、根據(jù)權(quán)利要求l一ll中任一項(xiàng)所述的特定被攝體檢測(cè)裝置,其特征在于,所述一個(gè)或更多個(gè)強(qiáng)分類單元按瀑布模式或矢量樹模式連接。16、根據(jù)權(quán)利要求l一ll中任一項(xiàng)所述的特定被攝體檢測(cè)裝置,其特征在于,所述特定被攝體檢測(cè)裝置包括切換裝置,所述切換裝置用于切換所述特定被攝體檢測(cè)裝置的模式狀態(tài),使所述特定被攝體檢測(cè)裝置在檢測(cè)模式和學(xué)習(xí)模式之間互換;所述增量樣本輸入單元和所述學(xué)習(xí)單元在所述切換裝置將所述特定被攝體檢測(cè)裝置切換為學(xué)習(xí)模式時(shí)工作。17、一種用于特定被攝體檢測(cè)裝置的學(xué)習(xí)裝置,所述特定被攝體檢測(cè)裝置包括一個(gè)或更多個(gè)強(qiáng)分類單元,所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元利用弱分類模板對(duì)輸入的圖像進(jìn)行是否包含特定被攝體的判斷,所述學(xué)習(xí)裝置利用增量學(xué)習(xí)樣本對(duì)所述弱分類模板進(jìn)行更新,所述增量學(xué)習(xí)樣本是該或其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的數(shù)據(jù),所述學(xué)習(xí)裝置包括-優(yōu)化程度計(jì)算部,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度;判斷單元,根據(jù)所述優(yōu)化程度計(jì)算部的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),所述優(yōu)化參量更新單元對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新單元,當(dāng)所述判斷單元判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化滿足了一定的條件時(shí),所述模板更新單元對(duì)所述弱分類模板進(jìn)行更新。18、根據(jù)權(quán)利要求17所述的學(xué)習(xí)裝置,其特征在于,所述優(yōu)化程度計(jì)算部包括修正系數(shù)確定單元,用于確定增量學(xué)習(xí)樣本的修正系數(shù);第一目標(biāo)損失計(jì)算單元,用于計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化所造成的第一目標(biāo)損失;第二目標(biāo)損失計(jì)算單元,用于根據(jù)所輸入的所述增量學(xué)習(xí)樣本計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化造成的第二目標(biāo)損失;優(yōu)化程度計(jì)算單元,根據(jù)所述第一目標(biāo)損失計(jì)算單元計(jì)算出的第一目標(biāo)損失、所述第二目標(biāo)損失計(jì)算單元計(jì)算出的第二目標(biāo)損失、以及所述修正系數(shù)確定單元確定出的增量學(xué)習(xí)樣本的修正系數(shù),計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。19、根據(jù)權(quán)利要求18所述的學(xué)習(xí)裝置,其特征在于,所述優(yōu)化程度計(jì)算單元包括第一乘法部、第二乘法部、第一求導(dǎo)部、第二求導(dǎo)部和加法部,所述第一乘法部用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二乘法部用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述第一求導(dǎo)部用于對(duì)所述第一乘法部的相乘結(jié)果進(jìn)行求導(dǎo);所述第二求導(dǎo)部用于對(duì)所述第二乘法部的相乘結(jié)果進(jìn)行求導(dǎo);所述加法部用于將所述第一求導(dǎo)部的求導(dǎo)結(jié)果與所述第二求導(dǎo)部的求導(dǎo)結(jié)果相加。20、根據(jù)權(quán)利要求18所述的學(xué)習(xí)裝置,其特征在于,所述優(yōu)化程度計(jì)算單元包括第一乘法部、第二乘法部、加法部、和求導(dǎo)部,所述第一乘法部用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二乘法部用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述加法部用于將所述第一乘法部的相乘結(jié)果與所述第二乘法部的相乘結(jié)果相加;所述求導(dǎo)部用于對(duì)所述加法部的相加結(jié)果進(jìn)行求導(dǎo)。21、根據(jù)權(quán)利要求18所述的學(xué)習(xí)裝置,其特征在于,所述修正系數(shù)確定單元根據(jù)在線樣本的數(shù)量確定所述修正系數(shù),使增量學(xué)習(xí)樣本的作用不受增量學(xué)習(xí)樣本總數(shù)變化的影響。22、根據(jù)權(quán)利要求17所述的學(xué)習(xí)裝置,其特征在于,所述學(xué)習(xí)單元還包括增量學(xué)習(xí)樣本更新單元,所述增量學(xué)習(xí)樣本更新單元用于減少所述增量學(xué)習(xí)樣本組成的集合中的增量學(xué)習(xí)樣本,得到新的所述增量學(xué)習(xí)樣本的集合。23、根據(jù)權(quán)利要求18所述的學(xué)習(xí)裝置,其特征在于,所述第一目標(biāo)損失計(jì)算單元采用NaiVeBayes法計(jì)算所述第一目標(biāo)損失。24、根據(jù)權(quán)利要求17所述的學(xué)習(xí)裝置,其特征在于,所述弱分類單元包括子區(qū)間判定單元,用于根據(jù)對(duì)實(shí)例空間的劃分將輸入的所述待檢測(cè)的圖像歸類到其中某個(gè)子區(qū)間;弱分類確定單元,用于根據(jù)所述子區(qū)間判定單元的判定結(jié)果,通過(guò)査找子區(qū)間弱分類模板,輸出對(duì)所述待檢測(cè)圖像所屬的分類的預(yù)測(cè)結(jié)果;所述學(xué)習(xí)單元根據(jù)所述增量學(xué)習(xí)樣本,對(duì)各所述子區(qū)間弱分類模板更新。25、根據(jù)權(quán)利要求17—24中任一項(xiàng)所述的學(xué)習(xí)裝置,其特征在于,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,所述特定被攝體檢測(cè)裝置包括記錄單元,所述記錄單元用于記錄所述特定被攝體檢測(cè)裝置在運(yùn)行中漏檢或誤報(bào)的圖像。26、根據(jù)權(quán)利要求17—24中任一項(xiàng)所述的學(xué)習(xí)裝置,其特征在于,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置之外的與所述特定被攝體檢測(cè)裝置相同的其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,所述特定被攝體檢測(cè)裝置包括接收單元,所述接收單元用于接收來(lái)自所述其他特定被攝體檢測(cè)裝置的在運(yùn)行中漏檢或誤報(bào)的圖像。27、根據(jù)權(quán)利要求17—24中任一項(xiàng)所述的學(xué)習(xí)裝置,其特征在于,所述特定被攝體指人臉。28、一種用于特定被攝體檢測(cè)裝置的學(xué)習(xí)方法,所述特定被攝體檢測(cè)裝置包括一個(gè)或更多個(gè)強(qiáng)分類單元,所述強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元利用弱分類模板對(duì)輸入的圖像進(jìn)行是否包含特定被攝體的判斷,所述學(xué)習(xí)方法包括針對(duì)各弱分類器的輸入步驟,輸入增量學(xué)習(xí)樣本;優(yōu)化程度獲得步驟,用于根據(jù)輸入的增量學(xué)習(xí)樣本,計(jì)算利用一優(yōu)化參量對(duì)弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度,所述增量學(xué)習(xí)樣本是該或其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的數(shù)據(jù);判斷步驟,根據(jù)所述優(yōu)化程度獲得步驟的計(jì)算結(jié)果,判斷利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化是否滿足一定的條件;優(yōu)化參量更新步驟,當(dāng)所述判斷步驟判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化未滿足一定的條件時(shí),該優(yōu)化參量更新步驟對(duì)所述優(yōu)化參量進(jìn)行更新;以及模板更新步驟,當(dāng)所述判斷步驟判斷出利用所述優(yōu)化參量對(duì)所述弱分類模板迸行的優(yōu)化滿足了一定的條件時(shí),該模板更新步驟對(duì)所述弱分類模板進(jìn)行更新。29、根據(jù)權(quán)利要求28所述的學(xué)習(xí)方法,其特征在于,所述優(yōu)化程度獲得步驟包括.-修正系數(shù)確定步驟,用于確定增量學(xué)習(xí)樣本的修正系數(shù);第一目標(biāo)損失計(jì)算步驟,用于計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化所造成的第一目標(biāo)損失;第二目標(biāo)損失計(jì)算步驟,用于根據(jù)所輸入的所述增量學(xué)習(xí)樣本計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行的優(yōu)化造成的第二目標(biāo)損失;優(yōu)化程度計(jì)算步驟,根據(jù)所述第一目標(biāo)損失計(jì)算步驟計(jì)算出的第一目標(biāo)損失、所述第二目標(biāo)損失計(jì)算步驟計(jì)算出的第二目標(biāo)損失、以及所.述修正系數(shù)確定步驟確定出的增量學(xué)習(xí)樣本的修正系數(shù),計(jì)算利用所述優(yōu)化參量對(duì)所述弱分類模板進(jìn)行優(yōu)化的優(yōu)化程度。30、根據(jù)權(quán)利要求29所述的學(xué)習(xí)方法,其特征在于,所述優(yōu)化程度計(jì)算步驟包括第一相乘步驟、第二相乘步驟、第一求導(dǎo)步驟、第二求導(dǎo)步驟和相加步驟,所述第一相乘步驟用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二相乘步驟用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述第一求導(dǎo)步驟用于對(duì)所述第一相乘步驟的相乘結(jié)果進(jìn)行求導(dǎo);所述第二求導(dǎo)步驟用于對(duì)所述第二相乘步驟的相乘結(jié)果進(jìn)行求導(dǎo);所述相加步驟用于將所述第一求導(dǎo)步驟的求導(dǎo)結(jié)果與所述第二求導(dǎo)步驟的求導(dǎo)結(jié)果相加。31、根據(jù)權(quán)利要求29所述的學(xué)習(xí)方法,其特征在于,所述優(yōu)化程度計(jì)算步驟包括第一相乘步驟、第二相乘步驟、相加步驟、和求導(dǎo)步驟,所述第一相乘步驟用于將1與所述修正系數(shù)的差與所述第一目標(biāo)損失相乘;所述第二相乘步驟用于將所述修正系數(shù)與所述第二目標(biāo)損失相乘;所述相加步驟用于將所述第一相乘步驟的相乘結(jié)果與所述第二相乘步驟的相乘結(jié)果相加;所述求導(dǎo)步驟用于對(duì)所述相加步驟的相加結(jié)果進(jìn)行求導(dǎo)。32、根據(jù)權(quán)利要求29所述的學(xué)習(xí)方法,其特征在于,所述修正系數(shù)確定步驟根據(jù)在線樣本的數(shù)量確定所述修正系數(shù),使增量學(xué)習(xí)樣本的作用不受增量學(xué)習(xí)樣本總數(shù)變化的影響。33、根據(jù)權(quán)利要求28所述的學(xué)習(xí)方法,其特征在于,所述學(xué)習(xí)方法還包括增量學(xué)習(xí)樣本更新步驟,所述增量學(xué)習(xí)樣本更新步驟用于減少所述增量學(xué)習(xí)樣本組成的集合中的增量學(xué)習(xí)樣本,得到新的所述增量學(xué)習(xí)樣本的集合。34、根據(jù)權(quán)利要求29所述的學(xué)習(xí)方法,其特征在于,所述第一目標(biāo)損失計(jì)算步驟采用邊緣分布函數(shù)法或NaiVeBayes法計(jì)算所述第一目標(biāo)損失。35、根據(jù)權(quán)利要求28所述的學(xué)習(xí)方法,其特征在于,所述弱分類單元包括子區(qū)間判定單元,用于根據(jù)對(duì)實(shí)例空間的劃分將輸入的所述待檢測(cè)的圖像歸類到互不相交的多個(gè)子區(qū)間中的某個(gè)子區(qū)間;弱分類確定單元,用于根據(jù)所述子區(qū)間判定單元的判定結(jié)果,根據(jù)子區(qū)間弱分類模板,輸出對(duì)所述待檢測(cè)圖像所屬的分類的預(yù)測(cè)結(jié)果;所述學(xué)習(xí)方法根據(jù)所述增量學(xué)習(xí)樣本,更新各所述子區(qū)間弱分類模板。36、根據(jù)權(quán)利要求28所述的學(xué)習(xí)方法,其特征在于,所述優(yōu)化參量更新步驟利用0.618法對(duì)所述優(yōu)化參量進(jìn)行更新。37、根據(jù)權(quán)利要求28—36中任一項(xiàng)所述的學(xué)習(xí)方法,其特征在于,所述增量學(xué)習(xí)樣本是所述特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像,或所述特定被攝體檢測(cè)裝置之外的與所述特定被攝體檢測(cè)裝置相同的其他特定被攝體檢測(cè)裝置運(yùn)行中被漏檢或誤報(bào)的圖像。38、根據(jù)權(quán)利要求28—36中任一項(xiàng)所述的學(xué)習(xí)方法,其特征在于,所述特定被攝體是人臉。全文摘要本發(fā)明公開了特定被攝體檢測(cè)裝置及其學(xué)習(xí)裝置和學(xué)習(xí)方法。該特定被攝體檢測(cè)裝置包括輸入單元,用于輸入待檢測(cè)的圖像;一個(gè)或更多個(gè)強(qiáng)分類單元,用于對(duì)圖像進(jìn)行強(qiáng)分類,各強(qiáng)分類單元包括一個(gè)或更多個(gè)弱分類單元,所述弱分類單元使用弱分類模板對(duì)所述圖像進(jìn)行弱分類;存儲(chǔ)單元,存儲(chǔ)所述弱分類單元所使用的弱分類模板;判斷單元,根據(jù)強(qiáng)分類單元的分類結(jié)果,對(duì)圖像是否包含特定被攝體進(jìn)行判斷;該特定被攝體檢測(cè)裝置還包括增量樣本輸入單元,用于輸入增量學(xué)習(xí)用的數(shù)據(jù),即輸入增量學(xué)習(xí)樣本,也就是該或其他特定被攝體檢測(cè)裝置所漏檢或誤報(bào)的數(shù)據(jù);學(xué)習(xí)單元,用于根據(jù)增量樣本輸入單元輸入的增量學(xué)習(xí)樣本,更新存儲(chǔ)單元所存儲(chǔ)的弱分類模板。文檔編號(hào)G06K9/64GK101315670SQ20071010987公開日2008年12月3日申請(qǐng)日期2007年6月1日優(yōu)先權(quán)日2007年6月1日發(fā)明者勞世紅,山下隆義,源李,艾海舟申請(qǐng)人:清華大學(xué);歐姆龍株式會(huì)社