亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于支持樣本間接式的行人再識(shí)別方法與流程

文檔序號(hào):11678116閱讀:207來(lái)源:國(guó)知局
一種基于支持樣本間接式的行人再識(shí)別方法與流程

本發(fā)明屬于智能視頻監(jiān)控技術(shù)領(lǐng)域,具體涉及一種基于支持樣本間接式的行人再識(shí)別方法。



背景技術(shù):

行人再識(shí)別是在非重疊區(qū)域的監(jiān)控多攝像頭下對(duì)行人進(jìn)行匹配,即檢索某個(gè)攝像頭下的行人目標(biāo)是否出現(xiàn)在其他的攝像頭下。行人再識(shí)別在社會(huì)公共安全領(lǐng)域有著重要的應(yīng)用,然而不同監(jiān)控?cái)z像頭之間差異,導(dǎo)致了視角、光照和尺度變化,使得行人再識(shí)別中存在很大的挑戰(zhàn)。如何建立一種高效準(zhǔn)確針的再識(shí)別方法,研究人員進(jìn)行了相關(guān)的研究。目前行人再識(shí)別的研究主要集中在特征表示法和距離測(cè)度的學(xué)習(xí),近幾年來(lái)深度學(xué)習(xí)也開(kāi)始應(yīng)用于行人再識(shí)別當(dāng)中。

然而由于視角、光照和尺度變化等問(wèn)題,上述方法都沒(méi)有很好的解決行人再識(shí)別。使得行人再識(shí)別的準(zhǔn)確率不是非常的高。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明是為了克服現(xiàn)有技術(shù)的不足之處,提供一種基于支持樣本間接式的行人再識(shí)別方法,以期能有效的克服行人再識(shí)別中光照、視角和尺度等問(wèn)題,獲得較好再識(shí)別性能,從而有效提高行人再識(shí)別率,增強(qiáng)行人再識(shí)別算法的魯棒性。

本發(fā)明為了解決技術(shù)問(wèn)題采用如下技術(shù)方案:

本發(fā)明一種支持樣本間接式的行人再識(shí)別方法的特點(diǎn)是按如下步驟進(jìn)行:

步驟1、利用拍攝區(qū)域無(wú)交集的兩個(gè)攝像頭camera_p和camera_q分別獲取行人訓(xùn)練圖像集,記為行人訓(xùn)練圖像集p={p1,p2,…,pi,…,pn}和行人匹配圖像集q={q1,q2,…,qi,…,qn};且第i幅訓(xùn)練圖像pi中的行人與第i幅匹配圖像qi中的行人為同一個(gè)人;1≤i≤n;

步驟2、特征提取

將所述第i幅訓(xùn)練圖像pi劃分為u×v個(gè)小塊;并提取所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊的顏色直方圖特征和sift特征后進(jìn)行級(jí)聯(lián),得到所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊的顏色sift特征,記為從而得到u×v個(gè)小塊的顏色sift特征作為所述第i幅訓(xùn)練圖像pi的密集顏色sift特征;

同理可得,第i幅匹配圖像qi的密集顏色sift特征;

步驟3、支持樣本的選取

步驟3.1、從所述行人訓(xùn)練圖像集p中選取任意第j幅訓(xùn)練圖像pj,i≠j;

利用歐式距離計(jì)算所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊顏色sift特征與所述行為訓(xùn)練圖像集p中任意第k幅訓(xùn)練圖像pk中搜索域?yàn)閠的所有小塊的顏色sift特征的相似性得分,并選擇所述搜索域t中所有小塊的相似性得分最大值作為所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊與第k訓(xùn)練圖像pk的得分,從而得到所述第i幅訓(xùn)練圖像pi中u×v個(gè)小塊與第k幅訓(xùn)練圖像pk的總得分進(jìn)而得到所述第i幅訓(xùn)練圖像pi中u×v個(gè)小塊與n-2幅訓(xùn)練圖像的總得分所述搜索域t的范圍為u1≤m≤u2,1≤n≤v;k≠i;k≠j;同理可得所述第j幅訓(xùn)練圖像pj中u×v個(gè)小塊與n-2幅訓(xùn)練圖像的總得分

同理可得所述第i幅匹配圖像qi中u×v個(gè)小塊與n-2幅匹配圖像的總得分以及第j幅匹配圖像qj中u×v個(gè)小塊與n-2幅匹配圖像的總得分

步驟3.2、計(jì)算所述第i幅訓(xùn)練圖像pi的總得分與第j幅訓(xùn)練圖像pj的總得分的相關(guān)系數(shù)以及第i幅匹配圖像qi的總得分與第j幅匹配圖像qj的總得分的相關(guān)系數(shù)并利用式(1)獲得相關(guān)系數(shù)乘積

則表示所述第i幅訓(xùn)練圖像pi與第j幅訓(xùn)練圖像pj相似,且第i幅匹配圖像qi與第j幅匹配圖像qj相似,并刪除所述第i幅訓(xùn)練圖像pi與第i幅匹配圖像qi或者刪除第j幅訓(xùn)練圖像pj與第j幅匹配圖像qj;若則表示所述第i幅訓(xùn)練圖像pi與第j幅訓(xùn)練圖像pj不相似,且第i幅匹配圖像qi與第j幅匹配圖像qj不相似,并均保留;

步驟3.3、重復(fù)步驟3.1-步驟3.2,對(duì)所述行人訓(xùn)練圖像集p和行人匹配圖像集q進(jìn)行處理,從而得到訓(xùn)練支持樣本集p′和匹配支持樣本集q′;

步驟4、行人再識(shí)別

步驟4.1、利用所述兩個(gè)攝像頭camera_p和camera_q分別獲取一幅行人測(cè)試圖像pt和qt

步驟4.2、根據(jù)步驟3.1,計(jì)算行人測(cè)試圖像pt與訓(xùn)練支持樣本集p′中所有訓(xùn)練支持樣本的總得分,并選取得分最高的訓(xùn)練支持樣本p′max作為行人測(cè)試圖像pt在訓(xùn)練支持樣本集p′中的代表圖像;同理,計(jì)算行人測(cè)試圖像qt在匹配支持樣本集q′中的代表圖像q′max;

步驟4.3、判斷訓(xùn)練支持樣本集p′中的代表圖像p′max的序號(hào)與匹配支持樣本集q′中的代表圖像q′max的序號(hào)是否相同,若相同,表示行人測(cè)試圖像pt和qt為同一個(gè)人,否則,表示行人測(cè)試圖像pt和qt不為同一個(gè)人。

與已有的技術(shù)相比,本發(fā)明有益效果體現(xiàn)在:

1、本發(fā)明采用了間接式的行人再識(shí)別的方法。不同攝像頭由于位置、配置和采光度的不同,就造成不同攝像頭拍攝到行人之間存在視角、光照和尺度變化等問(wèn)題。已有的技術(shù)都是直接通過(guò)對(duì)不同攝像頭下的行人進(jìn)行直接匹配。上述問(wèn)題的存在,使得這種直接匹配的方法無(wú)法有效的提高準(zhǔn)確率。而間接式的行人再識(shí)別方法,首先通過(guò)聚類的方法分別提取不同攝像頭下的支持樣本,當(dāng)要對(duì)來(lái)自不同攝像頭的行人進(jìn)行匹配時(shí),在距離測(cè)度的基礎(chǔ)上利用支持樣本分別判別出其所在攝像頭下的行人類別,通過(guò)類別的對(duì)比判斷是否為同一行人。該方法避免了不同攝像頭下行人圖片直接匹配,有效解決了不同攝像頭帶來(lái)的視角、光照和尺度問(wèn)題。

2、本發(fā)明采用了密集顏色特征和密集sift特征相結(jié)合的方式。顏色特征可以有效的利用了行人外貌信息。行人再識(shí)別中外貌是一張很有用的信息,可以幫助人們快速對(duì)行人進(jìn)行識(shí)別。sift特征可以作為顏色直方圖特征的互補(bǔ)特征傳統(tǒng)的sift方法可以檢測(cè)到圖片中的興趣點(diǎn),該算法檢測(cè)到的興趣點(diǎn)不僅具有空間穩(wěn)定性,而且有尺度不變性和旋轉(zhuǎn)不變性。

3、本發(fā)明采用了支持樣本的選取。通過(guò)對(duì)不同攝像頭下的行人樣本庫(kù)學(xué)習(xí),得到每個(gè)樣本庫(kù)中的支持樣本。由于視角、光照和尺度變化等問(wèn)題,使得同一個(gè)性人差別很大,而有時(shí)不同的行人會(huì)呈現(xiàn)出相似性。支持樣本就是有效的解決了這種干擾,減少了行人樣本庫(kù)中的冗余性,提高了行人再識(shí)別的準(zhǔn)確率。

附圖說(shuō)明

圖1為本發(fā)明的行人再識(shí)別流程圖;

圖2為本發(fā)明的顏色直方圖特征示意圖;

圖3為本發(fā)明的sift特征提取示意圖;

圖4為本發(fā)明的dcolorsift特征提取示意圖。

具體實(shí)施方式

本實(shí)施例中,如圖1所示,一種支持樣本間接式的行人再識(shí)別方法包括以下過(guò)程:首先對(duì)采集的不同攝像頭視頻進(jìn)行預(yù)處理,獲得需要的樣本圖像。通過(guò)聚類的方法學(xué)習(xí)得到攝像頭樣本的支持樣本。在支持樣本的基礎(chǔ)上通過(guò)間接式行人匹配的方法,可以對(duì)不同攝像頭下的行人進(jìn)行匹配。具體地說(shuō),是按如下步驟進(jìn)行:

步驟1、利用拍攝區(qū)域無(wú)交集的兩個(gè)攝像頭camera_p和camera_q分別獲取行人訓(xùn)練圖像集,記為行人訓(xùn)練圖像集p={p1,p2,…,pi,…,pn}和行人匹配圖像集q={q1,q2,…,qi,…,qn};且第i幅訓(xùn)練圖像pi中的行人與第i幅匹配圖像qi中的行人為同一個(gè)人;1≤i≤n;

步驟2、特征提取

將所述第i幅訓(xùn)練圖像pi劃分為u×v個(gè)小塊;并提取所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊的顏色直方圖特征和sift特征后進(jìn)行級(jí)聯(lián),得到所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊的顏色sift特征,記為從而得到u×v個(gè)小塊的顏色sift特征作為所述第i幅訓(xùn)練圖像pi的密集顏色sift特征;

同理可得,第i幅匹配圖像qi的密集顏色sift特征;

將每一個(gè)行人圖片分割成u×v個(gè)小塊,對(duì)于每一小塊分別提取其lab顏色直方圖。為了能夠與sift特征相結(jié)合,所有的直方圖都要進(jìn)行l(wèi)2標(biāo)準(zhǔn)化。獲得密集顏色直方圖特征如圖2所示。

顏色模型(lab)基于人對(duì)顏色的感覺(jué)。lab中的數(shù)值描述正常實(shí)例的人能夠看到的所有的顏色。lab色彩模型是由明度(l)和有關(guān)色彩的a,b三個(gè)要素組成。l表示明度,a表示從洋紅色到綠色的范圍。b表示黃色到藍(lán)色的范圍。顏色直方圖在許多圖像檢索系統(tǒng)中被廣泛采用的顏色特征。它描述的是不同色彩在整幅圖像中所占的比例。

sift,即尺度不變特征變換,是用于圖像處理領(lǐng)域的一種描述。這種描述具有尺度不變性,可在圖像中檢測(cè)出關(guān)鍵點(diǎn),是一種局部特征描述子。sift特征是基于物體上的一些局部外觀的興趣點(diǎn)而與影像的大小和旋轉(zhuǎn)無(wú)關(guān)。對(duì)于光線、噪聲、微視角改變的容忍度也很高。

對(duì)每一個(gè)行人圖片分割成的一系列局部小塊分別提取sift特征,得到的特征為128維。同樣sift特征也要進(jìn)行l(wèi)2標(biāo)準(zhǔn)化。如圖3所示。注意小塊的大小為10*10像素,l,a,b顏色直方圖分別設(shè)置為32維。對(duì)于sift特征,l,a,b通道都要進(jìn)行提取,最后得到的sift特征大小為128*3維。最終,我們得到的每一小塊的特征大小為32*3+128*3=480。如圖4所示。

步驟3、支持樣本的選取

步驟3.1、從所述行人訓(xùn)練圖像集p中選取任意第j幅訓(xùn)練圖像pj,i≠j;

利用歐式距離計(jì)算所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊顏色sift特征與所述行為訓(xùn)練圖像集p中任意第k幅訓(xùn)練圖像pk中搜索域?yàn)閠的所有小塊的顏色sift特征的相似性得分,并選擇所述搜索域t中所有小塊的相似性得分最大值作為所述第i幅訓(xùn)練圖像pi中第m×n個(gè)小塊與第k訓(xùn)練圖像pk的得分,從而得到所述第i幅訓(xùn)練圖像pi中u×v個(gè)小塊與第k幅訓(xùn)練圖像pk的總得分進(jìn)而得到所述第i幅訓(xùn)練圖像pi中u×v個(gè)小塊與n-2幅訓(xùn)練圖像的總得分所述搜索域t的范圍為u1≤m≤u2,1≤n≤v;k≠i;k≠j;同理可得所述第j幅訓(xùn)練圖像pj中u×v個(gè)小塊與n-2幅訓(xùn)練圖像的總得分

同理可得所述第i幅匹配圖像qi中u×v個(gè)小塊與n-2幅匹配圖像的總得分以及第j幅匹配圖像qj中u×v個(gè)小塊與n-2幅匹配圖像的總得分

歐式距離是一個(gè)通常采用的距離定義,指在m維空間中兩個(gè)點(diǎn)之間的真實(shí)距離。我們用歐式距離計(jì)算圖片特征之間的距離,來(lái)表示圖片之間的相似性,根據(jù)相似性的得分結(jié)果,判斷是否為同一個(gè)行人。我們利用高斯函數(shù)將距離值轉(zhuǎn)換成相似性的得分:

步驟3.2、計(jì)算所述第i幅訓(xùn)練圖像pi的總得分與第j幅訓(xùn)練圖像pj的總得分的相關(guān)系數(shù)以及第i幅匹配圖像qi的總得分與第j幅匹配圖像qj的總得分的相關(guān)系數(shù)并利用式(1)獲得相關(guān)系數(shù)乘積

則表示所述第i幅訓(xùn)練圖像pi與第j幅訓(xùn)練圖像pj相似,且第i幅匹配圖像qi與第j幅匹配圖像qj相似,并刪除所述第i幅訓(xùn)練圖像pi與第i幅匹配圖像qi或者刪除第j幅訓(xùn)練圖像pj與第j幅匹配圖像qj;若則表示所述第i幅訓(xùn)練圖像pi與第j幅訓(xùn)練圖像pj不相似,且第i幅匹配圖像qi與第j幅匹配圖像qj不相似,并均保留;

權(quán)值δ直接影響支持樣本的選取結(jié)果,經(jīng)過(guò)實(shí)驗(yàn)證明的取值范圍為0.3~0.5最為合適;

步驟3.3、重復(fù)步驟3.1-步驟3.2,對(duì)所述行人訓(xùn)練圖像集p和行人匹配圖像集q進(jìn)行處理,從而得到訓(xùn)練支持樣本集p′和匹配支持樣本集q′;

步驟4、行人再識(shí)別

步驟4.1、利用所述兩個(gè)攝像頭camera_p和camera_q分別獲取一幅行人測(cè)試圖像pt和qt

步驟4.2、根據(jù)步驟3.1,計(jì)算行人測(cè)試圖像pt與訓(xùn)練支持樣本集p′中所有訓(xùn)練支持樣本的總得分,并選取得分最高的訓(xùn)練支持樣本p′max作為行人測(cè)試圖像pt在訓(xùn)練支持樣本集p′中的代表圖像;同理,計(jì)算行人測(cè)試圖像qt在匹配支持樣本集q′中的代表圖像q′max;

步驟4.3、判斷訓(xùn)練支持樣本集p′中的代表圖像p′max的序號(hào)與匹配支持樣本集q′中的代表圖像q′max的序號(hào)是否相同,若相同,表示行人測(cè)試圖像pt和qt為同一個(gè)人,否則,表示行人測(cè)試圖像pt和qt不為同一個(gè)人。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1