亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法

文檔序號(hào):10656016閱讀:219來源:國知局
一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法
【專利摘要】本發(fā)明涉及一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,包括以下步驟:1)分別獲取待辨識(shí)行人圖像和對比圖像中像素點(diǎn)對應(yīng)的多方向雙顏色通道條形結(jié)構(gòu)特征集Bθ;2)采用顏色差分獲取該像素點(diǎn)的多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集Wθ;3)采用滑動(dòng)窗口分別獲取不同方向上的直方圖描述符Hθ;4)根據(jù)堪培拉距離計(jì)算基于直方圖描述符Hθ的待辨識(shí)行人圖像和對比圖像的距離集Ds;5)選擇距離集Ds中最優(yōu)三元組距離對、ELF描述符和HOG描述符作為特征碼,并獲取待辨識(shí)行人圖像和對比圖像之間的最終距離;6)根據(jù)最近相鄰理論,對距離進(jìn)行排序,最終獲取待辨識(shí)行人圖像和對比圖像的匹配率與現(xiàn)有技術(shù)相比,本發(fā)明具有快速準(zhǔn)確、魯棒性好等優(yōu)點(diǎn)。
【專利說明】
-種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法
技術(shù)領(lǐng)域
[0001] 本發(fā)明設(shè)及監(jiān)控視頻智能分析領(lǐng)域,尤其是設(shè)及一種基于多方向多通道條形結(jié)構(gòu) 的行人再辨識(shí)方法。
【背景技術(shù)】
[0002] 行人再辨識(shí)是指在一個(gè)多攝像機(jī)組成的系統(tǒng)中,針對不同攝像機(jī)視角下的行人進(jìn) 行匹配的問題。它對于行人身份、行為等不同方面的分析提供了關(guān)鍵性幫助,并發(fā)展成為智 能視頻監(jiān)控領(lǐng)域的關(guān)鍵組成部分。
[0003] 行人再辨識(shí)領(lǐng)域中主要的方法可W分為W下兩類:1)基于外觀的行人再辨識(shí)方 法;2)基于度量學(xué)習(xí)的方法。低層次特征,例如:顏色(顏色空間、直方圖,主顏色等)與紋理 (LBP,Gabor,共生矩陣等)已經(jīng)被廣泛應(yīng)用于基于外觀的特征表示方法中。其中,多數(shù)方法 主要集中于尋找魯棒性更好、更可靠的行人特征來描述行人,進(jìn)行再辨識(shí),例如:基于對稱 性的累積特征描述符,協(xié)方差描述符,基于水平條紋的劃分描述符,金字塔匹配描述符,圖 形匹配,顯著性匹配,深度學(xué)習(xí)模型等等。運(yùn)些低層次特征的優(yōu)點(diǎn)是計(jì)算時(shí)相對簡單,缺點(diǎn) 是不具備較好的語義表達(dá)能力,運(yùn)是行人再辨識(shí)仍然仍存在識(shí)別性能不佳,可靠性、穩(wěn)定性 較差等問題。
[0004] 在特征表示方法之后,如何度量不同行人圖片的距離也是行人再辨識(shí)領(lǐng)域的關(guān)鍵 問題之一?,F(xiàn)有的距離度量模型主要分為非學(xué)習(xí)方法和學(xué)習(xí)方法兩類。其中多數(shù)方法選擇 了簡單的非學(xué)習(xí)度量方法,例如:一階距離、二階距離、己氏距離等。然而,由于提取出的行 人特征的冗余性、魯棒性等問題的影響,辨識(shí)結(jié)果并不理想。而基于學(xué)習(xí)的度量方法,通常 學(xué)習(xí)不同攝像機(jī)下相同行人與不同行人外觀特征的鑒別信息等,最優(yōu)化樣本之間的差異性 和相似性,因此,辨識(shí)效果往往相對較好。運(yùn)種方法主要包括RankSVM,相對距離比較,基于 核方法的度量學(xué)習(xí),馬氏距離學(xué)習(xí),深度度量學(xué)習(xí) W及度量集成等等??傮w來看,運(yùn)些方法 將行人再辨識(shí)的過程分為了兩步:特征表示和距離度量,運(yùn)種方法把特征表示和度量割裂 開來,而且實(shí)際上距離度量效果和特征表示有緊密的聯(lián)系,不可完全切割。
[0005] 專利CN104992142A提出了一種基于深度學(xué)習(xí)和屬性學(xué)習(xí)相結(jié)合的行人識(shí)別方法, 能夠從更高語義層描述行人特征,然而,訓(xùn)練模型過于復(fù)雜,并且受限于行人屬性的選擇。 進(jìn)一步,由于光照變化、姿態(tài)、視角、遮擋、圖像分辨率等各方面因素的影響,運(yùn)使得在監(jiān)控 視頻智能分析中行人再辨識(shí)性能依然不佳。

【發(fā)明內(nèi)容】

[0006] 本發(fā)明的目的就是為了克服上述現(xiàn)有技術(shù)存在的缺陷而提供一種基于多方向多 通道條形結(jié)構(gòu)的行人再辨識(shí)方法。
[0007] 本發(fā)明的目的可W通過W下技術(shù)方案來實(shí)現(xiàn):
[000引一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,包括W下步驟:
[0009] 1)分別獲取待辨識(shí)行人圖像和對比圖像中像素點(diǎn)對應(yīng)的多方向雙顏色通道條形 結(jié)構(gòu)特征集Be;
[0010] 2)根據(jù)多方向雙顏色通道條形結(jié)構(gòu)特征集Be采用顏色差分獲取該像素點(diǎn)的多方 向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集We;
[0011] 3)根據(jù)多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集機(jī),并且采用滑動(dòng)窗口分別獲 取不同方向上的直方圖描述符曲;
[0012] 4)根據(jù)堪培拉距離計(jì)算基于直方圖描述符He的待辨識(shí)行人圖像和對比圖像的距 離集Ds;
[0013] 5)選擇距離集Ds中最優(yōu)S元組距離對、ELF描述符和HOG描述符作為特征碼,并獲 取待辨識(shí)行人圖像和對比圖像之間的最終距離;
[0014] 6)根據(jù)最近相鄰理論,對距離進(jìn)行排序,最終獲取待辨識(shí)行人圖像和對比圖像的 匹配率。
[0015] 所述的步驟1)具體包括W下步驟:
[0016] 11)將圖像從RGB顏色空間變換成Lab顏色空間,并計(jì)算圖像中像素點(diǎn)A在不同方向 上不同顏色通道上的局部二值編碼BSVc, e:
[0017]
[001 引
[0019] 其中,媳WW為像素點(diǎn)A在顏色通道C上的像素值,扭為第i個(gè)W像素點(diǎn)A為中屯、的近 鄰像素點(diǎn)的像素值,n為像素點(diǎn)A的鄰近像素點(diǎn)的數(shù)量,C為Lab顏色空間的顏色通道,且CG 1,2,3,目為方向,且目 G{0°,45°,90° ,135°};
[0020] 12)根據(jù)的局部二值編碼BSVc, e獲取多方向雙顏色通道條形結(jié)構(gòu)特征集Be:
[0021] Be = {BSV' 0,1,BSV' 0,2,BSV' 0,3}
[0022] BSV'0,i = BSVi,0X4+BSV2,0
[0023] BSV%,2 = BSVi,eX4+BSV3,0
[0024] BSV'0,3 = BSV2,eX4+BSV3,0
[002引其中,85¥1,0、85¥2,0、85¥3,0分別為不同方向上的顏色通道1、2、3對應(yīng)的局部二值編 碼。
[0026] 所述的步驟2)中,多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集機(jī)的計(jì)算式為:
[0027] We = {WBSV' 1' 2' e,WBSV' 1' 3' e,WBSV' 2'3' e}
[002引
[0029]
[0030]
[0031]
[0032]
[0033] 其中,i、j為Lab顏色空間不同的顏色通道,。,為像素點(diǎn)在顏色通道i上的像素 值,gi為第k個(gè)W像素點(diǎn)A為中屯、的近鄰像素點(diǎn)的像素值,n為像素點(diǎn)A的鄰近像素點(diǎn)的數(shù)量, 0為方向,且0G{〇°,45°,90°,135°},義為圖像矩陣的行,以為圖像的高度,7為圖像矩陣的 列,心為圖像的寬度。
[0034] 所述的步驟3)中,不同方向上的直方圖描述符曲的計(jì)算式為:
[0035]
[0036] 其中,We(P)為像素點(diǎn)P對應(yīng)的多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集,Be(P) 為像素點(diǎn)P對應(yīng)的多方向雙顏色通道條形結(jié)構(gòu)特征集,R為滑動(dòng)窗口區(qū)域,為,e為方向,且0 G{0。,45。,90。,135。}。
[0037] 所述的步驟4)中,距離集Ds的計(jì)算式為:
[00;3 引
[0039]
[0040]
[0041] 其中,T和Q分別為待辨識(shí)行人圖像和對比圖像的特征向量,De(T,Q)為兩種圖像在 不同方向上的堪培拉距離,M為特征向量T和Q的維數(shù)為特征鑒別權(quán)重因子,0為方向,且0 G {0°,45°,90° ,135°} ,Ti和化分別為特征向量T和Q的第i個(gè)特征取值,iit、斬分別為調(diào)和系 統(tǒng)。
[0042] 所述的步驟5)中,待辨識(shí)行人圖像和對比圖像之間的最終距離d化1,)為:
[0043]
[0044]
[0045]
[0046] 其中,Di瓜分別為待辨識(shí)行人圖像和對比圖像的特征碼,,為待辨識(shí)行人圖 像和對比圖像的直方圖描述符,乂W,,乂分別為待辨識(shí)行人圖像和對比圖像的冊G描述符, ?4;,乂&分別為待辨識(shí)行人圖像和對比圖像的ELF描述符。
[0047] 與現(xiàn)有技術(shù)相比,本發(fā)明具有W下優(yōu)點(diǎn):
[0048] 一、受人類顯著視覺注意啟發(fā),提取行人外觀中豐富的條形結(jié)構(gòu)特征,本發(fā)明采用 多方向雙顏色通道條形結(jié)構(gòu)特征集及其構(gòu)造描述符方法,運(yùn)些結(jié)構(gòu)對于光照、旋轉(zhuǎn)、平動(dòng)等 因素變化有著較好的魯棒性。
[0049] 二、本發(fā)明中的多方向雙顏色通道條形結(jié)構(gòu)特征集及其構(gòu)造描述符方法,通過結(jié) 合二元相互作用機(jī)理來降低局部二值編碼特征維數(shù)過高問題,并利用顏色差分權(quán)重來彌補(bǔ) 顏色倍息的損失;
[0050] =、采用交疊滑動(dòng)窗口來提取條形結(jié)構(gòu)加權(quán)顏色直方圖統(tǒng)計(jì)特征,得到四個(gè)方向 的特征直方圖,提升局部變化適應(yīng)性;
[0051] 四、基于四個(gè)方向特征之間的相似性,針對同一圖像對的四組距離,進(jìn)行2-元距離 對或者3元距離對的構(gòu)造,然后選出最優(yōu)的距離對來進(jìn)行最終的距離集成,它將特征表示和 度量學(xué)習(xí)兩個(gè)過程綜合考慮,取得了更加優(yōu)越的辨識(shí)效果。
【附圖說明】
[0052]圖1為本發(fā)明方法的系統(tǒng)流程圖。
[0化3]圖2為本發(fā)明方法中0。、45。、90。、135。4個(gè)方向的條形結(jié)構(gòu)。
[0054] 圖3為本發(fā)明算法交疊策略獲取條形結(jié)構(gòu)加權(quán)顏色直方圖示意圖。
[0055] 圖4為本發(fā)明算法和其他算法在i-LIDS MCTS行人再辨識(shí)公開數(shù)據(jù)集上的CMC、SD/ R曲線性能比較,其中,圖(4a)為測試集為30人的CMC曲線,圖(4b)為測試集為30人的SD/R曲 線,圖(4c)為測試集為50人的CMC曲線,圖(4d)為測試集為50人的SD/R曲線。
[0056] 圖5為本發(fā)明算法和其他算法在CAVIAR4REID行人再辨識(shí)公開數(shù)據(jù)集上的CMC、SD/ R曲線性能比較,其中,圖(5a)為測試集為36人的CMC曲線,圖(5b)為測試集為36人的SD/R曲 線,圖(5c)為測試集為50人的CMC曲線,圖(5d)為測試集為50人的SD/R曲線。
[0057] 圖6為本發(fā)明算法和其他算法在WA畑行人再辨識(shí)公開數(shù)據(jù)集上的CMC、SD/R曲線性 能比較,其中,圖(6a)為測試集為60人視角1-2的CMC曲線,圖(6b)為測試集為60人視角1-2 的SD/R曲線,圖(6c)為測試集為60人視角1-3的CMC曲線,圖(6d)為測試集為60人視角1-3的 SD/R曲線,圖(6e)為測試集為60人視角2-3的CMC曲線,圖(6f)為測試集為60人視角2-3的 SD/R曲線。
【具體實(shí)施方式】
[0058] 下面結(jié)合附圖和具體實(shí)施例對本發(fā)明進(jìn)行詳細(xì)說明。
[0059] 實(shí)施例:
[0060] 為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點(diǎn)更加清楚明白,W下結(jié)合實(shí)施例,具體如圖 1所示算法流程圖,對本發(fā)明進(jìn)行進(jìn)一步詳細(xì)說明。應(yīng)當(dāng)理解,此處所描述的具體實(shí)施例僅 僅用W解釋本發(fā)明,但并不限定本發(fā)明。
[0061] 步驟一:雙通道條形結(jié)構(gòu)特征表示,具體描述如下:行人外觀中存在較多的條形結(jié) 構(gòu),而運(yùn)些0°、45°、90°、135°的條形結(jié)構(gòu),如圖2所示,在人類的視覺系統(tǒng)中有著較為明顯的 顯著性,它能夠較好地描述相鄰點(diǎn)間的空間相關(guān)性。為了融入更多的信息,本發(fā)明選擇了更 適合人類視覺系統(tǒng)的Lab顏色空間。為了對彩色圖像下的運(yùn)種條形結(jié)構(gòu)進(jìn)行描述,本發(fā)明采 用局部二值編碼描述符,并結(jié)合二元相互作用機(jī)理,在更適合人類視覺系統(tǒng)的Lab顏色空間 下,提取彩色圖像的多方向雙通道條形結(jié)構(gòu)。具體實(shí)施如下:
[0062] (1)本發(fā)明把像素 A在不同方向上、不同顏色通道上的局部二值編碼表示為BSVc,e (A),其定義如下:
[0063] …
[0064]
[0065] 其中A是彩色圖像上的一個(gè)點(diǎn),提是點(diǎn)A在通道C上的像素值,n是中屯、點(diǎn)A的鄰 居點(diǎn)的數(shù)量,挺是第i個(gè)近鄰的像素值,C是L,a,b的顏色通道,0則表示方向(0°、45°、90°、 135。)。
[0066] (2)基于二元相互作用機(jī)理,我們?nèi)我膺x擇L相*b*的兩個(gè)顏色通道來獲取不同方 向上的雙通道條形結(jié)構(gòu)。即:令BSVe ={BSVc, 0 },C G 1,2,3,得到3對雙通道條形結(jié)構(gòu)Be = {BSV' 0,1,BSV' 0,2,BSV' 0,3},其中BSV' 0,1 = BSVi, 0 X 4+BSV2, e,BSV' 0,2 = BSVi, 0 X 4+BSV3, e, BSVV3 = BSV2,eX4+BSV3,e。對于不同的方向,我們可W得到雙通道條形結(jié)構(gòu)特征集合,將其 表示為B = Be,目 G{0°,45°,90° ,135°}。
[0067] 步驟二:顏色差分權(quán)重,具體描述如下:由于二值編碼方法只考慮0和1,損失了大 量的顏色信息,因此本發(fā)明方法通過顏色差分來獲取BSVe,0(A)的顏色差分權(quán)重值WBSVse(A) 來捕獲相應(yīng)的顏色信息,具體定義如下:
[006引
(3)
[0069] 針對多方向雙通道條形結(jié)構(gòu),本發(fā)明定義權(quán)重WSS巧如下:
[0070]
(4)
[0071] 其中,i和j分別表示不同的顏色通道。
[0072] 另外,考慮到行人圖像中屯、點(diǎn)的特征更為明顯,因此,我們賦予每個(gè)像素 p(x,y)不 同的權(quán)重《(x,y): W對
(5)
[0074] 其中Jix=Lx/2,Ox = Lx/4,Jiy =心/2,Oy =心/4。X表示圖像矩陣的行,Lx表示圖像的高 度,y表示圖像矩陣的列,心表示圖像的寬度。進(jìn)而,得到最終的權(quán)重WBSV^ i, j, e:
[0075] WBSV;'i々=WBSV^' X田 (6)
[0076] 針對多方向雙通道條形結(jié)構(gòu)特征集Be = {BSVVi,BSVV2,BSVV3},計(jì)算加權(quán)顏色 差分權(quán)重重新定義為We = {WBSV 1,2, e,WBSV' 1,3, e,WBSV' 2,3, e}。
[0077] 步驟多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分直方圖,具體描述如下:在上述步驟 中,可W獲得四個(gè)方向(0°、45°、90°、135°)上的雙通道局部二值編碼。接下來,本發(fā)明方法 采用統(tǒng)計(jì)直方圖的方法來提取最終的結(jié)構(gòu)特征。為了確保特征的局部不變性,本發(fā)明采用 利用一個(gè)nXn的滑動(dòng)窗口,并Wm(m<n)為步長,將雙通道局部二進(jìn)制編碼的顏色差分權(quán)重 作為直方圖統(tǒng)計(jì)權(quán)重,取代傳統(tǒng)的頻次1,采用交疊的策略提取多方向雙通道條形結(jié)構(gòu)加權(quán) 顏色差分直方圖。
[007引對于P= (x,y) ,Be(P)為其多方向雙通道條形結(jié)構(gòu)特征值,其相應(yīng)的顏色權(quán)重定義 為We(P),不同方向上的直方圖計(jì)算方式為:
[0079]
巧)
[0080] 其中R是上述滑動(dòng)窗口區(qū)域,0則表示不同條形結(jié)構(gòu)特征的方向。為了更好刻畫對 光照、陰影等變化的不變性,我們考慮了較大的空間重疊區(qū)域化,e塊,其包含2X2個(gè)單元,并 進(jìn)行塊內(nèi)特征歸一化,具體如圖2所示。對于四個(gè)不同的方向,我們可W獲取四個(gè)直方圖描 述符,用直方圖H的集合表示如下:
[0081 ]
(8)
[0082]
(9)
[0083] H=曲,目G{0°,45°,90° ,135°} (10)
[0084] 步驟四:特征鑒別權(quán)重因子,具體描述如下:為了進(jìn)一步分析特征的鑒別信息,我 們設(shè)計(jì)了鑒別權(quán)重因子對統(tǒng)計(jì)出的直方圖特征進(jìn)行分析來描述特征的重要性,鑒別特征的 權(quán)重計(jì)算如下所示:
[0085]
[0086]
[0087] 其中,D和S分別表示相似樣本對和不同樣本對,然后由訓(xùn)練樣本得到特征Wf的權(quán) 重。
[0088] 步驟五:基于最優(yōu)多元距離組的度量學(xué)習(xí)策略,具體描述如下:經(jīng)過上述過程,得 到了四個(gè)方向的條形結(jié)構(gòu)加權(quán)顏色直方圖描述符H =曲,目G {0°,45°,90° ,135°},運(yùn)些結(jié)構(gòu) 特征在不同方向上存在一定程度的相似性,運(yùn)也使得特征向量計(jì)算出的距離存在較小的差 異,也就是所謂的相對距離非常小?;诖祟愄卣鞯南嗨铺匦?,本發(fā)明提出了一種新的基于 特征的相對距離比較的聯(lián)合距離度量方法。
[0089] 首先,本發(fā)明利用堪培拉距離(Canberra distance),結(jié)合前面所獲得的特征的權(quán) 重來度量兩個(gè)特征向量間的相似性,如下所示:
[0090] (12)
[0091] 征向量的維數(shù)。
[0092] 然后,本發(fā)明使用堪培拉距離,計(jì)算基于條形結(jié)構(gòu)加權(quán)顏色直方圖特征集H=曲,白 G{0°,45°,90° ,135°}的距離集Ds,定義如下:
[0093] Ds(T,Q) = {D0(T,Q)},0G{O° ,45° ,90°,135°} (13)
[0094] 其中,T和Q分別表示兩個(gè)不同樣本,De表示兩個(gè)樣本在方向0上的距離,針對不同 方向上的距離,進(jìn)行歸一化處理。計(jì)算出4個(gè)不同方向上的樣本之間距離后,不同于W往的 簡單加權(quán)集成的距離集成方式,本發(fā)明考慮兩個(gè)樣本在不同方向上的距離構(gòu)成的樣本對, 利用樣本對之間的相似性,即相對距離,來對距離進(jìn)行鑒別分析,選出最優(yōu)的相似距離對, 來對最終距離進(jìn)行表示。
[00巧]對于樣本T和Q,計(jì)算最優(yōu)二元組距離對(?,化,)如下:
[009W (14)
[0097] 巧曰下: 晴] (15)
[0099]
[0100] 對于最優(yōu)二元組距離對,本發(fā)明定義最終的距離1^,:;
[0101]
(16)
[0102] 對于最優(yōu)S元組距離對(?;?;?),本發(fā)明定義最終的距離辟4 ;
[0105] 最終,本發(fā)明選擇最優(yōu)=元組距離對來進(jìn)行樣本之間的距離度量。為了獲得更好 的結(jié)果,本發(fā)明將描述符M抓與ELF和HOG描述符相結(jié)合來實(shí)現(xiàn)距離度量。定義兩個(gè)距離特征 石馬 ^ g,../坤;),〇2(/。,典))'最終的距罔表不為:
[0106]
(18;
[0107]本發(fā)明具體實(shí)現(xiàn)步驟為:
[010引圖1是本發(fā)明MML抓算法實(shí)現(xiàn)流程圖,【具體實(shí)施方式】如下:
[0109] 1、將彩色圖像從RGB顏色空間變換成Lab顏色空間;
[0110] 2、獲取不同方向上的單通道條形編碼BSVce(A);
[0111] 3、獲取不同方向上的單通道條形結(jié)構(gòu)顏色差分權(quán)重WBSVc,e;
[0112] 4、根據(jù)二元相互作用機(jī)理獲取不同方向上使的雙通道條形結(jié)構(gòu)編碼Be = BSV^a, BSV'0'2,BSV'0'3;
[0113] 5、獲取不同方向上雙通道條形結(jié)構(gòu)對應(yīng)的顏色差分權(quán)重職島巧皆^:;
[0114] 6、由WBSV^ 重新定義不同方向上的雙通道條形結(jié)構(gòu)的顏色差分權(quán)重;
[0115] 7、采用交疊策略和滑動(dòng)窗口提取多方向上的條形結(jié)構(gòu)顏色差分加權(quán)直方圖描述 符;
[0116] 8、將特征集分成訓(xùn)練集和測試集,其中測試集包括(probe集和galle巧集);
[0117] 9、通過訓(xùn)練集提取出的特征值來訓(xùn)練特征權(quán)重Wf;
[0118] 10、計(jì)算測試集中的probe集和gallery集中樣本之間的最優(yōu)S元組距離對.?? J
[0119] 11、綜合其他度量距離,并計(jì)算最終的集成后的度量距離:d(Dg,Dp);
[0120] 12、基于最近相鄰理論,獲取匹配率。
[0121] 顯然,上述實(shí)例僅僅是為清楚地說明所作的舉例,而并非對實(shí)施方式的限定。對于 所屬領(lǐng)域的普通技術(shù)人員來說,在上述說明的基礎(chǔ)上還可W做出其它不同形式的變化或變 動(dòng)。運(yùn)里無需也無法對所有的實(shí)施方式予W窮舉。而由此所引伸出的顯而易見的變化或變 動(dòng)仍處于本發(fā)明創(chuàng)造的保護(hù)范圍之中。
[0122] 表1-表3為本發(fā)明算法與其他算法的性能比較。
[0123] 表1本發(fā)明算法同其它算法在i-LIDS MCTS行人再辨識(shí)公開數(shù)據(jù)集上性能比較
【主權(quán)項(xiàng)】
1. 一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,其特征在于,包括以下步驟: 1) 分別獲取待辨識(shí)行人圖像和對比圖像中像素點(diǎn)對應(yīng)的多方向雙顏色通道條形結(jié)構(gòu) 特征集Βθ; 2) 根據(jù)多方向雙顏色通道條形結(jié)構(gòu)特征集Be采用顏色差分獲取該像素點(diǎn)的多方向雙通 道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集We; 3) 根據(jù)多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集We,并且采用滑動(dòng)窗口分別獲取不 同方向上的直方圖描述符He; 4) 根據(jù)堪培拉距離計(jì)算基于直方圖描述符He的待辨識(shí)行人圖像和對比圖像的距離集 Ds; 5) 選擇距離集Ds中最優(yōu)三元組距離對、ELF描述符和HOG描述符作為特征碼,并獲取待辨 識(shí)行人圖像和對比圖像之間的最終距離; 6) 根據(jù)最近相鄰理論,對距離進(jìn)行排序,最終獲取待辨識(shí)行人圖像和對比圖像的匹配 率。2. 根據(jù)權(quán)利要求1所述的一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,其特征 在于,所述的步驟1)具體包括以下步驟: 11) 將圖像從RGB顏色空間變換成Lab顏色空間,并計(jì)算圖像中像素點(diǎn)A在不同方向上不 同顏色通道上的局部二值編碼BSVc,θ:其中,匕",?.為像素點(diǎn)A在顏色通道c上的像素值,g;為第i個(gè)以像素點(diǎn)A為中心的近鄰像 素點(diǎn)的像素值,η為像素點(diǎn)A的鄰近像素點(diǎn)的數(shù)量,c為Lab顏色空間的顏色通道,且c G 1,2, 3,θ為方向,且θε{〇°,45°,90° ,135°}; 12) 根據(jù)的局部二值編碼BSVm獲取多方向雙顏色通道條形結(jié)構(gòu)特征集Be: θ,ι,^ β,2,β,3} BSV70jI = BSVij0 X 4+BSV2)0 BSV70j2 = BSVij0 X 4+BSV3)0 BSV/0,3 = BSV2)0X4+BSV3)0 其中,BSVudSVMdSVw*別為不同方向上的顏色通道1、2、3對應(yīng)的局部二值編碼。3. 根據(jù)權(quán)利要求1所述的一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,其特征 在于,所述的步驟2)中,多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集We的計(jì)算式為:其中,i、j為Lab顏色空間不同的顏色通道,§丨_,為像素點(diǎn)在顏色通道i上的像素值,gi 為第k個(gè)以像素點(diǎn)A為中心的近鄰像素點(diǎn)的像素值,η為像素點(diǎn)A的鄰近像素點(diǎn)的數(shù)量,Θ為方 向,且θε{〇° ,45° ,90°,135°},χ為圖像矩陣的行,Lx為圖像的高度,y為圖像矩陣的列,Ly為 圖像的寬度。4. 根據(jù)權(quán)利要求1所述的一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,其特征 在于,所述的步驟3)中,不同方向上的直方圖描述符詠的計(jì)算式為:其中,We(P)為像素點(diǎn)P對應(yīng)的多方向雙通道條形結(jié)構(gòu)加權(quán)顏色差分權(quán)重集,Be(P)為像 素點(diǎn)P對應(yīng)的多方向雙顏色通道條形結(jié)構(gòu)特征集,R為滑動(dòng)窗口區(qū)域,為,Θ為方向,且θε {0°,45°,90° ,135°}。5. 根據(jù)權(quán)利要求1所述的一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,其特征 在于,所述的步驟4)中,距離集隊(duì)的計(jì)算式為:其中,T和Q分別為待辨識(shí)行人圖像和對比圖像的特征向量,De(T,Q)為兩種圖像在不同 方向上的堪培拉距離,M為特征向量T和Q的維數(shù),Wf為特征鑒別權(quán)重因子,Θ為方向,且Θ e {0°,45°,90°,135°} ,Ti和Qi分別為特征向量T和Q的第i個(gè)特征取值,別為調(diào)和系統(tǒng)。6. 根據(jù)權(quán)利要求5所述的一種基于多方向多通道條形結(jié)構(gòu)的行人再辨識(shí)方法,其特征 在于,所述的步驟5)中,待辨識(shí)行人圖像和對比圖像之間的最終距離(!(D 1,D2)為:其中,D1 ,D2分別為待辨識(shí)行人圖像和對比圖像的特征碼,為待辨識(shí)行人圖像和 對比圖像的直方圖描述符,分別為待辨識(shí)行人圖像和對比圖像的HOG描述符, 乂//,,/<分別為待辨識(shí)行人圖像和對比圖像的ELF描述符。
【文檔編號(hào)】G06K9/00GK106022226SQ201610309021
【公開日】2016年10月12日
【申請日】2016年5月11日
【發(fā)明人】趙才榮, 王學(xué)寬, 苗奪謙, 章宗彥
【申請人】同濟(jì)大學(xué)
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會(huì)獲得點(diǎn)贊!
1