專利名稱:基于第二代條帶波變換的人體檢測方法
技術(shù)領(lǐng)域:
本發(fā)明屬于模式識別技術(shù)領(lǐng)域,涉及人體檢測方法,可用于對圖像中的人體 及其它復(fù)雜目標(biāo)的分類與檢測。
背景技術(shù):
人體檢測在計算機(jī)視覺中有許多重要的應(yīng)用,如視頻監(jiān)控、智能汽車及智能 交通、機(jī)器人和高級人機(jī)交互等。然而,由于人體自身姿態(tài)的變化、衣服的多樣 性和光照等因素的影響,人體的外觀變化非常大,導(dǎo)致人體檢測成為一個非常困 難的問題。
目前,靜態(tài)圖像中人體檢測的方法主要有基于人體模型的方法、基于模板匹 配的方法和基于統(tǒng)計分類的方法。基于人體模型的方法有明確的模型,可以處理 遮擋問題,并且可以推斷出人體的姿態(tài)。缺點是模型的構(gòu)建比較難,求解也比較 復(fù)雜?;谀0迤ヅ涞姆椒ㄓ嬎愫唵?,缺點是由于人體姿態(tài)的復(fù)雜性,很難構(gòu)造 出足夠的模板以處理不同的姿態(tài)?;诮y(tǒng)計分類的方法通過機(jī)器學(xué)習(xí)從一系列訓(xùn) 練數(shù)據(jù)中學(xué)習(xí)得到一個分類器,用該分類器來表示人體,然后利用該分類器對輸 入窗口進(jìn)行分類及識別?;诮y(tǒng)計分類的方法的優(yōu)點是比較魯棒,缺點是需要很 多訓(xùn)練數(shù)據(jù),并且很難解決姿態(tài)和遮擋的問題。
基于統(tǒng)計分類的方法主要包括兩個步驟特征提取和分類器設(shè)計。其中所選 特征的表征能力將直接影響分類器的性能。目前所選的特征包括原始灰度特征
空間、Haar小波特征、形狀描述符特征、Gabor^寺征、有向梯度直方圖HOG特征和 SIFT特征等。其中HOG特征提取方法的提取速度快,檢測正確率也較高,由此, 近年來得到了廣泛的應(yīng)用。如何進(jìn)一步提高檢測的正確率,成為該研究領(lǐng)域的核 心問題之一。
根據(jù)分類器的設(shè)計方法,現(xiàn)有的基于統(tǒng)計分類的方法可分為基于神經(jīng)網(wǎng)絡(luò)NN 的方法、基于支持向量機(jī)SVM的方法和基于Adaboost的方法。AdaBoost是一種具 有自適應(yīng)性的Bostirig算法,它通過建立多學(xué)習(xí)機(jī)組合使得弱學(xué)習(xí)機(jī)的性能得到 提升,由于其獨有的對學(xué)習(xí)機(jī)性能的自適應(yīng)和對過學(xué)習(xí)現(xiàn)象的免疫性,近年來引 起了廣泛的關(guān)注。傳統(tǒng)的基于圖像邊緣的表示方法僅通過圖像的邊緣來描述其幾何特性,不僅 不嚴(yán)格,而且很難較好地刻畫圖像。為此,法國學(xué)者Pennec和Mallat等引入了幾 何流來刻畫圖像的幾何性質(zhì),于2000年提出了第一代條帶波Bandelet變換。但其 計算復(fù)雜度高,而且由于其非正交性,在曲波變換時會引入邊界效應(yīng)。為此,法 國學(xué)者G.Peyr6和S.Mallat在2004年提出了第二代Bandelet變換,避免了第一代 Bandelet變換的重采樣和彎曲等繁雜操作,通過多尺度分析和幾何方向分析共同 完成圖像的分解。多尺度分析通過二維標(biāo)準(zhǔn)小波變換完成,幾何方向分析通過幾 何正交方向上的一維小波變換完成。
目前,基于第二代Bandelet變換的研究主要集中于圖像的壓縮和降噪中。由
于其能夠更好的表示圖像,所以,如何將其應(yīng)用于圖像的特征提取,從而實現(xiàn)對
特定目標(biāo)的分類和識別,成為其研究領(lǐng)域的一大熱點。
發(fā)明內(nèi)容
本發(fā)明的目的是從圖像的幾何流特性出發(fā),提出一種基于第二代條帶波變換 的人體檢測方法,以進(jìn)一步提高人體檢測的正確率。
實現(xiàn)本發(fā)明目的的技術(shù)方案是利用條帶波Bandelet變換具有沿幾何流方向 的多尺度變換的優(yōu)點,以Bandelet變換之后的Bandelet系數(shù)及其統(tǒng)計特征作為人 體圖像的特征,通過AdaBoost訓(xùn)練這些特征,得到分類器,并使用窗口掃描實現(xiàn) 對靜態(tài)圖像中人體的檢測。具體過程如下
(1) 以INRIA數(shù)據(jù)庫為基礎(chǔ),通過負(fù)樣本的自舉操作獲取大量的負(fù)樣本,并 與數(shù)據(jù)庫中其它的正樣本一起構(gòu)成訓(xùn)練樣本集;
(2) 提取訓(xùn)練樣本集中所有訓(xùn)練樣本的Bandelet聯(lián)合特征組成一個樣本特征 集,利用AdaBoost算法進(jìn)行分類訓(xùn)練,得到一個分類器;
(3) 輸入任意大小的被測圖像,計算其Bandelet系數(shù)矩陣;
(4) 根據(jù)所得的Bandelet系數(shù)矩陣,計算被測圖像中所有掃描窗口的Bandeet 聯(lián)合特征,輸入到步驟(2)中所得的分類器中進(jìn)行分類;
(5) 根據(jù)分類器輸出的分類結(jié)果,利用主窗口合并法,對所有分為人體的掃描 窗口進(jìn)行組合,形成最終的人體檢測結(jié)果。
本發(fā)明與現(xiàn)有的技術(shù)相比具有以下優(yōu)點
1、由于本發(fā)明使用了兩種不同的特征提取方法進(jìn)行負(fù)樣本的自舉操作,使得 在獲得大量負(fù)樣本的同時,所獲得的負(fù)樣本也更具代表性,其構(gòu)成的樣本集訓(xùn)練的分類器具有更好的分類性能。
2、 由于本發(fā)明在提取Bandelet聯(lián)合特征時使用的Bandelet變換是通過圖像的 幾何流來刻畫圖像的幾何性質(zhì),使得該Bandelet聯(lián)合特征具有更好的特征表征能 力,能夠更利于分類器訓(xùn)練,與特征維數(shù)相近的其它特征相比,對應(yīng)分類器達(dá)到 相同訓(xùn)練誤差所需的訓(xùn)練時間大大縮短。
3、 實驗結(jié)果表明,本發(fā)明中使用的Bandelet聯(lián)合特征能夠更好的刻畫圖像, 使得與傳統(tǒng)的HOG特征提取方法相比,在分類正確率上有明顯的提高,檢測也更 加準(zhǔn)確。
圖l是本發(fā)明的流程示意圖2是本發(fā)明中使用的部分正樣本與負(fù)樣本圖像;
圖3是本發(fā)明與傳統(tǒng)HOG特征提取方法在樣本訓(xùn)練時的誤差衰減對比圖; 圖4是本發(fā)明用于靜態(tài)圖像的人體檢測結(jié)果圖。
具體實施例方式
本發(fā)明由圖像的幾何流特性出發(fā),提出了一種基于第二代Bandelet變換的人 體檢測特征提取新方法。即利用Bandeet變換中的Bandelet系數(shù)及其統(tǒng)計特征作為 圖像的特征,進(jìn)行分類并檢測圖像中的人體。本發(fā)明在對Bandelet變換的一些改進(jìn) 的基礎(chǔ)上,通過實驗確立了相關(guān)的最優(yōu)參數(shù)和統(tǒng)計特征,然后利用AdaBoost分類 器算法進(jìn)行了樣本訓(xùn)練,并將分類結(jié)果與HOG特征進(jìn)行了比較。詳細(xì)描述如圖l、 圖3、圖4和圖5。
參照圖l,本發(fā)明的具體實現(xiàn)過程如下-
步驟一,以INRIA數(shù)據(jù)庫為基礎(chǔ),通過負(fù)樣本的自舉操作來獲取大量的負(fù)樣 本,并與數(shù)據(jù)庫中其它的正樣本--起構(gòu)成訓(xùn)練樣本集。
本發(fā)明使用的數(shù)據(jù)庫來自INRIA人體數(shù)據(jù)庫,下載地址為 http:〃pascal,inrialpes.fr/data/human/。由于該數(shù)據(jù)庫沒有提供足夠的負(fù)樣本,所 以需要以該數(shù)據(jù)庫為基礎(chǔ),通過負(fù)樣本的自舉操作來獲取大量的負(fù)樣本。
本發(fā)明為了使訓(xùn)練樣本更具有帶表性,在特征提取時分別使用了 HOG特征及 Bandelet聯(lián)合特征兩種特征,這樣進(jìn)行負(fù)樣本的自舉操作,可得到兩個負(fù)樣本集, 然后取其交集作為最終的負(fù)樣本集。最后由這個負(fù)樣本集加上INRIA數(shù)據(jù)庫中的
7正樣本集,得到最終的訓(xùn)練樣本集,共有6246個樣本,將其中的2416個正樣本 與1877個負(fù)樣本作為訓(xùn)練集,1132個正樣本與821個負(fù)樣本作為測試集,樣本 的大小均為128X64像素。圖2給出了其中的部分樣本圖像,其中圖2(a)為部分 正樣本,圖2(b)為部分負(fù)樣本。
其中,所述負(fù)樣本的自舉操作過程如下-
(1.1) 先從INRIA數(shù)據(jù)庫中任取一小部分正樣本與負(fù)樣本,進(jìn)行特征提取,訓(xùn) 練初始分類器;
(1.2) 使用這個初始分類器,來檢測數(shù)據(jù)庫中的其余非人體圖像,從錯分的掃 描窗口圖像中隨機(jī)挑選一部分與當(dāng)前的負(fù)樣本組成新的負(fù)樣本集,使用隨機(jī)挑選 能夠避免混入大量特征相似的樣本圖像;
(1.3) 重復(fù)特征提取、訓(xùn)練分類器、檢測非人體圖像及組成新的負(fù)樣本集這一 過程直至收集到與INRIA數(shù)據(jù)庫中正樣本個數(shù)相同的最終負(fù)樣本。
步驟二,利用Bandelet變換,計算所有訓(xùn)練樣本的Bandelet聯(lián)合特征組成一個 訓(xùn)練樣本特征集。
(2.1) 對每個樣本圖像做二維離散正交小波變換 先對每行做一維小波變換
X,+Z,2)/V^ / = l,2,...rar/2 il-l,3,5…。二2,4'6…
X,=(H2)/V^ / = ra:/2,"x:/2 + l,..."x /1 = 1,3,5... 。 = 2,4,6...
其中,11,《,,1,2分別表示每一行上第/,/1,/2個像素點的灰度值,m:表示圖像
灰度矩陣的行數(shù);
然后對每列做一維小波變換
=CY;1+I;.2)/V^ y、l,2,…"少/2 " = 1,3,5...」2 = 2,4,6... 義j.=(義"_義,2)/^ ) = ">^/2,">;/2 + 1,..."7 " = 1,3,5... )2 = 2,4,6...
其中,J^,Z",^2分別表示每一列上第y,幾y'2個像素點的灰度值;"少表示
圖像灰度矩陣的列數(shù)。本發(fā)明通過對比實驗得出,做二維小波變換的層數(shù)為l時, 特征的表征性能最好。
(2.2) 將二維離散正交小波變換后的樣本圖像進(jìn)行二進(jìn)剖分,并將每個丄x丄的 小塊作為 一個Bandelet塊。
8本發(fā)明通過對比實驗得出,當(dāng)二進(jìn)剖分大小丄x丄取為4X4像素時,特征的表 征性能最好。
(2.3)對各Bandelet塊,根據(jù)Lagarange罰函數(shù)法求取一個最優(yōu)方向,即最佳幾 何流方向,具體步驟為
(a) 對于尺寸為丄x丄的子塊S,將圓周角
,然后按下式截去右邊小于8個像素與下邊小于16個像素的多余部分
X=|X/8|X8 Y叫Y/16IX16 | l表示截尾取整
其中,X為被測圖像在水平方向的像素值,Y為被測圖像在垂直方向的像素值。 截去多余部分是為了在向水平移動8像素及垂直移動16像素的圖像掃描時,能 夠直接從整個圖像的特征值中準(zhǔn)確取出任意掃描窗口上的特征值。
(4.2) 對處理過的被測圖像進(jìn)行二維離散正交小波變換,小波變換的層數(shù)為l;
(4.3) 將二維離散正交小波變換后的圖像進(jìn)行4X4像素的二進(jìn)剖分,并將每個 4 X 4像素的小塊作為 一個Bandelet塊;
(4.4) 計算每個Bandelet塊在各方向上的投影誤差,并按最小Lagrange函數(shù)法,求取一個最優(yōu)的投影誤差排序索引;
(4.5) 根據(jù)每個Bandelet塊的最優(yōu)排序索引,將其上的二維離散小波變換系數(shù) 進(jìn)行重排序,得到對應(yīng)的一維信號;
(4.6) 將每個一維信號作一維小波變換,并將對應(yīng)的一維小波變換系數(shù),按 Mallet法則重新組合為二維形式,作為對應(yīng)Bandelet塊的Bandelet系數(shù),將所有 Bandelet塊的Bandelet系數(shù)構(gòu)成該處理過的被測圖像的Bandelet系數(shù)矩陣。
步驟五,根據(jù)Bandelet系數(shù)矩陣,計算被測圖像中所有掃描窗口的Bandelet
聯(lián)合特征。
(5.1) 將被測圖像左上角的一個樣本大小的區(qū)域作為第一個掃描窗口,每向右 平移8個像素或向下平移16個像素作為一個新的掃描窗口,由此得到一組掃描窗 □;
(5.2) 設(shè)裁剪后的被測圖像大小為XxY,某掃描窗口在被測圖像中的位置為(x, y),則取Bandelet系數(shù)矩陣中(x/2, y/2)、 (x/2+X/2, y/2)、 (x/2, y/2+ Y/2)和(x/2+X/2, y/2+Y/2)四個位置上大小為l/4樣本的區(qū)域上的值,作為該掃描窗口上的Bandelet 系數(shù);
(5.3) 計算每個掃描窗口上Bandelet系數(shù)的能量、熵、均值及最大值這幾類統(tǒng) 計值,將這些統(tǒng)計值與Bandelet系數(shù)一起作為對應(yīng)掃描窗口的Bandelet聯(lián)合特征。
步驟六,將所有掃描窗口的Bandelet聯(lián)合特征輸入之前所得的分類器進(jìn)行分 類,得到一組判定結(jié)果。
分類器將判定所有掃描窗口中的圖像是否是人體。每個掃描窗口會得到一個 判定分?jǐn)?shù),該值大于O表示該掃描窗口為人體窗口,否則為非人體窗口。將被測 圖像的縮放比、所有掃描窗口的位置及其所得的分類器分?jǐn)?shù)作為分類器輸出的分 類結(jié)果。
步驟七,根據(jù)分類器輸出的分類結(jié)果,利用主窗口合并法,對所有分為人體 的掃描窗口進(jìn)行組合,形成最終的人體檢測結(jié)果,具體步驟如下
(7.1) 根據(jù)分類器輸出的掃描窗口判斷被測圖像中是否包含人體,若分類器輸 出的掃描窗口沒有人體窗口,則被測圖像中不包含人體,否則,從所有的人體窗 口中,找出其分類器分?jǐn)?shù)最高的作為主窗口;
(7.2) 對主窗口與其他人體窗口進(jìn)行組合判定,當(dāng)其他人體窗口處于主窗口周 圍且重疊小于l/2時判為不組合,否則進(jìn)行組合;(7.3) 將主窗口與所有需要組合的人體窗口的邊界均值作為一個檢測結(jié)果; 本發(fā)明,在求邊界均值時,將人體窗口的分類器分?jǐn)?shù)作為邊界的加權(quán)值分
類器分?jǐn)?shù)越大的,其邊界加權(quán)越大,對最終的檢測結(jié)果影響越大;分類器分?jǐn)?shù)越 小的,其邊界加權(quán)越小,對最終的檢測結(jié)果影響也越小,這樣能使人體的檢測位 置更加準(zhǔn)確。
(7.4) 刪除主窗口及所有參與組合的人體窗口;
(7.5) 若還有剩余的人體窗口,則再找出其中分類器分?jǐn)?shù)最高的作為主窗口, 并重復(fù)(2)- (4)的操作;
(7.6) 在被測人體圖像上標(biāo)出所有檢測結(jié)果,作為該被測圖像最終的人體檢測 結(jié)果。 一般采用矩形框來表示檢測結(jié)果,被檢測出的人體處于矩形框內(nèi)。
本發(fā)明的效果可通過以下仿真進(jìn)一步說明
1. 仿真內(nèi)容
采用本發(fā)明所提出的Bandelet聯(lián)合特征提取方法和目前廣泛使用的HOG特征 提取方法進(jìn)行仿真對比實驗。其中的正樣本集取自INRIA數(shù)據(jù)庫,負(fù)樣本集以該 數(shù)據(jù)庫為基礎(chǔ),通過負(fù)樣本自舉操作得到。最后得到的樣本集共有6246個樣本, 其中2416個正樣本與1877個負(fù)樣本作為訓(xùn)練集,1132個正樣本與821個負(fù)樣本 作為測試集,樣本大小均為128x64像素。圖2給出了其中的部分樣本圖像,其中 圖2(a)為部分正樣本,圖2(b)為部分負(fù)樣本。
針對每種特征提取方法,先提取訓(xùn)練集的特征,再使用AdaBoost算法進(jìn)行分 類訓(xùn)練,得到一個分類器,然后使用該分類器對測試集進(jìn)行分類測試,最后輸入 任意被測圖像,檢測是否包含人體,如果包含人體則要檢測出人體的位置。其中 的兩幅被測圖像大小分別為274x311像素和331x344像素,掃描窗口均為128x64 像素,縮放因子取
。掃描圖像時,使用濃密掃描,X方向平 移8個像素,Y方向平移16個像素。首先針對每個縮放尺度,掃描整幅圖像一次, 然后從中提取所有掃描窗口上的特征值,進(jìn)行分類識別,最后將分為人體的窗口 組合成檢測結(jié)果,并在原被測圖像上表示出來。其中窗口組合采用的是主窗口合 并的方法。硬件平臺為Intel Core2Duo CPU E6550@2.33GHZ、 2GB RAM。軟 件平臺為MATLAB7.2。
2. 仿真結(jié)果及分析
圖3給出了本發(fā)明和傳統(tǒng)HOG聯(lián)合特征提取方法在樣本訓(xùn)練時的誤差衰減對
12比圖。其中C為訓(xùn)練輪數(shù),Error為訓(xùn)練誤差。從圖3中可以看出,采用Bandelet 聯(lián)合特征在訓(xùn)練時的誤差要始終小于使用HOG特征訓(xùn)練時的誤差??梢姡褂?Bandelet聯(lián)合特征更利于進(jìn)行分類器訓(xùn)練,與特征維數(shù)相近的其它特征相比,對 應(yīng)分類器達(dá)到相同訓(xùn)練誤差所需的訓(xùn)練時間大大縮短。
表1給出了本發(fā)明和與傳統(tǒng)HOG特征提取方法在對樣本測試時的對比。
表l. 分類結(jié)果對比
訓(xùn)練輪數(shù)(C)與誤差(Error)Accuracy (測試正確率)FP (假陽率)Time (秒/次)
100CCErrorHOG0.13322000.093686.5850/o7.99%0.120
Bandelet0,12561640,093688.991%6.61%0.435
2000.082589,503%6.32%聯(lián)合特征0.09851080.093491.654%5.07%0.476
3630.022891.551%3.85%從表l中IOO輪的訓(xùn)練誤差就能看出,使用本發(fā)明的特征提取方法,更利于
進(jìn)行分類器訓(xùn)練。同時,對比相同訓(xùn)練誤差下不同分類器對測試集的分類結(jié)果可
以看出,本發(fā)明的特征提取方法相比HOG特征提取方法,在分類正確率上有了較 大的提高。表1中,最后一列為每個樣本特征提取的平均時間,從中可以看出, 由于幾何流搜索占用了大部分的時間,導(dǎo)致特征提取的速度相比HOG要慢一些, 但對靜態(tài)圖像的人體檢測影響不大。
圖4給出了本發(fā)明對某些人體圖像的最終檢測結(jié)果。其中,圖像4(a)為對掃 描窗口分類識別的結(jié)果,圖像4(b)為對圖像4(a)的掃描窗口進(jìn)行組合的最終檢測 結(jié)果,圖(c)為另一幅圖像的檢測結(jié)果。從圖中可以看出,使用本發(fā)明的Bandelet 聯(lián)合特征提取方法,能夠準(zhǔn)確的從被測人體圖像中檢測出人體。
實驗表明,使用HOG特征提取方法及本發(fā)明的Bandelet聯(lián)合特征提取方法, 均能快而準(zhǔn)確的從被測人體圖像中檢測出人體。但本發(fā)明的特征提取方法具有更 高的分類正確率,使其具有更高的人體檢測正確率,非常適合于靜態(tài)圖像的人體 檢測。
1權(quán)利要求
1. 一種基于第二代條帶波Bandelet變換的人體檢測方法,包括如下過程(1)以INRIA數(shù)據(jù)庫為基礎(chǔ),通過負(fù)樣本的自舉操作獲取大量的負(fù)樣本,并與數(shù)據(jù)庫中其它的正樣本一起構(gòu)成訓(xùn)練樣本集;(2)提取訓(xùn)練樣本集中所有訓(xùn)練樣本的Bandelet聯(lián)合特征組成一個樣本特征集,利用AdaBoost算法進(jìn)行分類訓(xùn)練,得到一個分類器;(3)輸入任意大小的被測圖像,計算其Bandelet系數(shù)矩陣;(4)根據(jù)所得的Bandelet系數(shù)矩陣,計算被測圖像中所有掃描窗口的Bandelet聯(lián)合特征,輸入到步驟(2)中所得的分類器中進(jìn)行分類;(5)根據(jù)分類器輸出的分類結(jié)果,利用主窗口合并法,對所有分為人體的掃描窗口進(jìn)行組合,形成最終的人體檢測結(jié)果。
2. 根據(jù)權(quán)利要求1所述的人體檢測方法,其中過程(l)按如下過程進(jìn)行 (2a)先從INRIA數(shù)據(jù)庫中任取一部分正樣本與負(fù)樣本,分別使用HOG特征及Bandelet聯(lián)合特征進(jìn)行特征提取,并使用AdaBoost算法進(jìn)行分類訓(xùn)練,得到兩個初始分類器;(2b)分別使用這兩個初始分類器,測試INRIA數(shù)據(jù)庫中的其余非人體圖像, 從錯分的掃描窗口圖像中隨機(jī)挑選一部分負(fù)樣本與當(dāng)前負(fù)樣本組成新的負(fù)樣本 集,并重復(fù)特征提取、訓(xùn)練分類器、測試非人體圖像及組成新的負(fù)樣本集這一過 程,直至收集到與INRIA數(shù)據(jù)庫中正樣本個數(shù)相同的最終負(fù)樣本;(2c)從所得的最終負(fù)樣本中去除重復(fù)的負(fù)樣本,得到最終的負(fù)樣本集;(2d)將最終的負(fù)樣本集加上INRIA數(shù)據(jù)庫中的正樣本集,得到最終的訓(xùn)練樣 本集,共有6246個樣本,并將其中的2416個正樣本與1877個負(fù)樣本作為訓(xùn)練 集,1132個正樣本與821個負(fù)樣本作為測試集,樣本的大小均為128X64像 素。
3. 根據(jù)權(quán)利要求l所述的人體檢測方法,其中過程(2)所述的提取訓(xùn)練樣本 集中所有訓(xùn)練樣本的Bandelet聯(lián)合特征組成一個樣本特征集,按如下過程進(jìn)行-(3a)對每個訓(xùn)練樣本做層數(shù)為l的二維離散正交小波變換; (3b)將二維離散正交小波變換后的樣本圖像進(jìn)行4X4像素的二進(jìn)剖分,并將 每個4 X 4像素的小塊作為 一個Bandelet塊;(3c)計算每個Bandelet塊在各方向上的投影誤差,并按最小Lagrange函數(shù)法,求取一個最優(yōu)的投影誤差排序索引;(3d)根據(jù)每個Bandelet塊的最優(yōu)排序索引,將其上的二維離散小波變換系數(shù)進(jìn)行重排序,得到對應(yīng)的一維信號;(3e)將每個一維信號作一維小波變換,并將對應(yīng)的一維小波變換系數(shù),按Mallet法則重新組合為二維形式,作為對應(yīng)Bandelet塊的Bandelet系數(shù),由此得到一個Bandelet系數(shù)矩陣;(3f)計算每個Bandelet塊中Bandelet系數(shù)的能量、熵、均值及最大值這幾類統(tǒng)計值,并按對應(yīng)Bandelet塊的位置構(gòu)成一個統(tǒng)計值矩陣,將Bandelet系數(shù)矩陣及統(tǒng)計值矩陣一起作為該訓(xùn)練樣本最終的Banddet聯(lián)合特征矩陣;(3g)將所有訓(xùn)練樣本的Bandelet聯(lián)合特征矩陣,構(gòu)成一個訓(xùn)練樣本特征集。
4.根據(jù)權(quán)利要求l所述的人體檢測方法,其中過程(3)所述的輸入任意大小的被測圖像,計算其Bandelet系數(shù)矩陣,按如下過程進(jìn)行(4a)輸入任意大小的被測圖像,先將其按一定比例縮放,然后按下式截去右邊小于8個像素與下邊小于16個像素的多余部分X=pC/8|X8 Y=|Y/16|X16其中,X為被測圖像在水平方向的像素值,Y為被測圖像在垂直方向的像素值,ll表示截尾取整;(4b)對截去處理過的被測圖像進(jìn)行二維離散正交小波變換,小波變換的層數(shù)為l;(4c)將二維離散正交小波變換后的被測圖像進(jìn)行4X4像素的二進(jìn)剖分,并將每個4 X 4像素的小塊作為 一個Bandelet塊;(4d)計算每個Bandelet塊在各方向上的投影誤差,并按最小Lagrange函數(shù)法,求取一個最優(yōu)的投影誤差排序索弓I;(4e)根據(jù)每個Bandelet塊的最優(yōu)排序索引,將其上的二維離散小波變換系數(shù)進(jìn)行重排序,得到對應(yīng)的一維信號;(4f)將每個一維信號作一維小波變換,并將對應(yīng)的一維小波變換系數(shù),按Mallet法則重新組合為二維形式,作為對應(yīng)Bandelet塊的Bandelet系數(shù),將所有Bandelet塊的Bandelet系數(shù)構(gòu)成該被測圖像的Bandelet系數(shù)矩陣。
5. 根據(jù)權(quán)利要求l所述的人體檢測方法,其中步驟(4)所述的根據(jù)所得的Bandelet系數(shù)矩陣,計算被測圖像中所有掃描窗口的Bandelet聯(lián)合特征,按如下過程進(jìn)行(5a)將被測圖像左上角的一個樣本大小的區(qū)域作為第一個掃描窗口,每向右平移8個像素或向下平移16個像素作為一個新的掃描窗口,得到一組掃描窗口;(5b)設(shè)裁剪后的被測圖像大小為XxY,某掃描窗口在被測圖像中的位置為(x, y),則取Bandelet系數(shù)矩陣中(x/2, y/2) 、 (x/2+X/2, y/2) 、 (x/2, y/2+Y/2)禾卩(x/2+_X/2,y/2+Y/2)四個位置上大小為l/4樣本的區(qū)域上的值,作為該掃描窗口上的Bandelet系數(shù);(5c)計算每個掃描窗口上Bandelet系數(shù)的能量、熵、均值及最大值這幾類統(tǒng)計值,并將這些統(tǒng)計值與Bandelet系數(shù)一起作為對應(yīng)掃描窗口的Bandelet聯(lián)合特征。
6. 根據(jù)權(quán)利要求l所述的人體檢測方法,其中步驟(5)按如下過程進(jìn)行(6a)根據(jù)分類器輸出的掃描窗口判斷被測圖像中是否包含人體,若分類器輸出的掃描窗口沒有人體窗口,則被測圖像中不包含人體,否則,從所有的人體窗口中,找出其分類器分?jǐn)?shù)最高的作為主窗口;(6b)對主窗口與其他人體窗口進(jìn)行組合判定,當(dāng)其他人體窗口處于主窗口周圍且重疊小于l/2時,判為不組合,否則進(jìn)行組合;(6c)將主窗口與所有需要組合的人體窗口的邊界均值作為一個檢測結(jié)果;(6d)刪除主窗口及所有參與組合的人體窗口 ;(6e)若還有剩余的人體窗口,則再找出其中分類器分?jǐn)?shù)最高的作為主窗口,并重復(fù)6b-6d的操作;(6Q在被測圖像上標(biāo)出所有檢測結(jié)果,作為該被測圖像最終的人體檢測結(jié)果。
全文摘要
本發(fā)明提出了一種基于第二代條帶波變換的人體檢測方法。其過程為通過負(fù)樣本的自舉操作獲取大量的負(fù)樣本,并與數(shù)據(jù)庫中其它的正樣本一起構(gòu)成訓(xùn)練樣本集;利用Bandelet變換,計算所有訓(xùn)練樣本的Bandelet聯(lián)合特征組成一個訓(xùn)練樣本特征集;利用AdaBoost算法,對樣本特征集進(jìn)行分類訓(xùn)練,得到一個分類器;輸入任意大小的被測圖像,計算其Bandelet系數(shù)矩陣;根據(jù)該系數(shù)矩陣,計算被測圖像中所有掃描窗口的Bandelet聯(lián)合特征;將所有掃描窗口的Bandelet聯(lián)合特征輸入之前所得的分類器進(jìn)行分類;根據(jù)分類結(jié)果,利用主窗口合并法,對所有分為人體的掃描窗口進(jìn)行組合,形成最終的人體檢測結(jié)果。本發(fā)明具有檢測正確率高的優(yōu)點,可用于對圖像中的人體及其它復(fù)雜目標(biāo)的分類與檢測。
文檔編號G06K9/00GK101520839SQ20091002172
公開日2009年9月2日 申請日期2009年3月30日 優(yōu)先權(quán)日2009年3月30日
發(fā)明者星 伍, 岳立川, 李陽陽, 楊淑媛, 焦李成, 爽 王, 紅 韓 申請人:西安電子科技大學(xué)