亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于深度學(xué)習(xí)的行人重識別方法和裝置與流程

文檔序號:12468119閱讀:383來源:國知局
一種基于深度學(xué)習(xí)的行人重識別方法和裝置與流程

本發(fā)明涉及模式識別技術(shù)領(lǐng)域,具體而言,涉及一種基于深度學(xué)習(xí)的行人重識別方法和裝置。



背景技術(shù):

行人重識別,即是指在照射區(qū)域無重疊的多攝像頭畫面下自動匹配同一行人對象的技術(shù),用以快速準(zhǔn)確地發(fā)現(xiàn)行人對象在多攝像頭下的活動畫面和軌跡。雖然行人重識別技術(shù)在視頻控制、智能交通、多媒體檢索等領(lǐng)域有著廣泛的應(yīng)用前景,但是由于行人重識別中的圖片來源于不同的攝像頭,而不同攝像頭所處的角度、光照等環(huán)境的影響,同一個(gè)行人的不同圖片中,外貌特征會有一定程度的變化;相反,由于行人姿勢及攝像頭角度的變化,在不同攝像頭中,不同行人的外貌特征可能比同一個(gè)人的外貌特征更相似,因此,行人重識別依舊存在著巨大的應(yīng)用挑戰(zhàn)。

為了解決上述問題,相關(guān)技術(shù)提出了一種行人重識別的方法,該方法首先將來自于兩個(gè)不同的攝像頭的一對行人圖像輸入深度模型的網(wǎng)絡(luò)結(jié)構(gòu),然后通過上述網(wǎng)絡(luò)結(jié)構(gòu)對上述一對圖片進(jìn)行特征提取和相似性比較,最終得到的是同一個(gè)人或者是不同人的似然概率。

發(fā)明人在研究中發(fā)現(xiàn),現(xiàn)有技術(shù)中的行人重識別的方法基于成對的行人圖像才能夠通過深度模型進(jìn)行提取特征和行人識別,由于上述成對的行人圖像不能解耦合,導(dǎo)致方法的靈活度較差。



技術(shù)實(shí)現(xiàn)要素:

有鑒于此,本發(fā)明的目的在于提供一種基于深度學(xué)習(xí)的行人重識別方法和裝置,采用深度學(xué)習(xí)技術(shù)自動學(xué)習(xí)出單張行人圖像的隱含特征,克服了傳統(tǒng)的行人重識別的方法采用成對行人圖像的耦合問題,靈活度較好。

第一方面,本發(fā)明實(shí)施例提供了一種基于深度學(xué)習(xí)的行人重識別方法,所述方法包括:

分別從第一視頻流和第二視頻流中獲取目標(biāo)行人圖像和參考行人圖像,所述第一視頻流和所述第二視頻流為不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的視頻;

利用預(yù)先訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)模型,提取所述目標(biāo)行人圖像的圖像特征作為第一圖像特征,以及提取所述參考行人圖像的圖像特征作為第二圖像特征;

計(jì)算所述第一圖像特征與所述第二圖像特征的特征相似度;

若所述特征相似度符合預(yù)設(shè)要求,則確定所述目標(biāo)行人圖像中的目標(biāo)行人和所述參考行人圖像中的參考行人為同一個(gè)行人。

結(jié)合第一方面,本發(fā)明實(shí)施例提供了第一方面的第一種可能的實(shí)施方式,其中,所述分別從第一視頻流和第二視頻流中獲取目標(biāo)行人圖像和參考行人圖像,包括:

對所述第一視頻流進(jìn)行行人檢測,得到對應(yīng)的目標(biāo)行人圖像;對所述第二視頻流進(jìn)行行人檢測,得到對應(yīng)的參考行人圖像。

結(jié)合第一方面或第一方面的第一種可能的實(shí)施方式,本發(fā)明實(shí)施例提供了第一方面的第二種可能的實(shí)施方式,其中,所述深度學(xué)習(xí)網(wǎng)絡(luò)模型通過以下步驟獲得:

基于標(biāo)簽標(biāo)記的監(jiān)督學(xué)習(xí)方法,建立包含行人重識別范圍內(nèi)行人圖像的標(biāo)記圖片;其中,同一行人的不同角度的行人圖像使用同一個(gè)標(biāo)簽標(biāo)記;

利用深度卷積神經(jīng)網(wǎng)絡(luò)對所述標(biāo)記圖片進(jìn)行深度學(xué)習(xí),得到對應(yīng)于所述標(biāo)記圖片的所述行人圖像的特征信息;

利用隨機(jī)梯度下降方法對所述特征信息進(jìn)行訓(xùn)練,得到對應(yīng)于所述行人圖像的深度學(xué)習(xí)網(wǎng)絡(luò)模型。

結(jié)合第一方面,本發(fā)明實(shí)施例提供了第一方面的第三種可能的實(shí)施方式,其中,所述確定所述目標(biāo)行人圖像中的目標(biāo)行人和所述參考行人圖像中的參考行人為同一個(gè)行人,包括:

查找所述特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像;

將特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像所對應(yīng)的參考行人確認(rèn)為所述目標(biāo)行人圖像中的目標(biāo)行人。

結(jié)合第一方面,本發(fā)明實(shí)施例提供了第一方面的第四種可能的實(shí)施方式,其中,所述確定所述目標(biāo)行人圖像中的目標(biāo)行人和所述參考行人圖像中的參考行人為同一個(gè)行人,包括:

按照所述特征相似度由高至低的排序順序?qū)λ鰠⒖夹腥藞D像進(jìn)行排名,以生成相似度排名;

在所述相似度排名中查找排名超過預(yù)定名次的參考行人圖像;

將排名超過預(yù)定名次的參考行人圖像所對應(yīng)的參考行人確認(rèn)為所述目標(biāo)行人圖像中的目標(biāo)行人。

第二方面,本發(fā)明實(shí)施例還提供了一種基于深度學(xué)習(xí)的行人重識別裝置,所述裝置包括:

獲取模塊,用于分別從第一視頻流和第二視頻流中獲取目標(biāo)行人圖像和參考行人圖像,所述第一視頻流和所述第二視頻流為不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的視頻;

提取模塊,用于利用預(yù)先訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)模型,提取所述目標(biāo)行人圖像的圖像特征作為第一圖像特征,以及提取所述參考行人圖像的圖像特征作為第二圖像特征;

計(jì)算模塊,用于計(jì)算所述第一圖像特征與所述第二圖像特征的特征相似度;

確定模塊,用于在所述特征相似度符合預(yù)設(shè)要求時(shí),確定所述目標(biāo)行人圖像中的目標(biāo)行人和所述參考行人圖像中的參考行人為同一個(gè)行人。

結(jié)合第二方面,本發(fā)明實(shí)施例提供了第二方面的第一種可能的實(shí)施方式,其中,所述獲取模塊包括:

第一獲取單元,用于對所述第一視頻流進(jìn)行行人檢測,得到對應(yīng)的目標(biāo)行人圖像;

第二獲取單元,用于對所述第二視頻流進(jìn)行行人檢測,得到對應(yīng)的參考行人圖像。

結(jié)合第二方面或第二方面的第一種可能的實(shí)施方式,本發(fā)明實(shí)施例提供了第二方面的第二種可能的實(shí)施方式,其中,還包括生成模塊;所述生成模塊包括:

建立單元,用于基于標(biāo)簽標(biāo)記的監(jiān)督學(xué)習(xí)方法,建立包含行人重識別范圍內(nèi)行人圖像的標(biāo)記圖片;其中,同一行人的不同角度的行人圖像使用同一個(gè)標(biāo)簽標(biāo)記;

學(xué)習(xí)單元,用于利用深度卷積神經(jīng)網(wǎng)絡(luò)對所述標(biāo)記圖片進(jìn)行深度學(xué)習(xí),得到對應(yīng)于所述標(biāo)記圖片的所述行人圖像的特征信息;

生成單元,用于利用隨機(jī)梯度下降方法對所述特征信息進(jìn)行訓(xùn)練,得到對應(yīng)于所述行人圖像的深度學(xué)習(xí)網(wǎng)絡(luò)模型。

結(jié)合第二方面,本發(fā)明實(shí)施例提供了第二方面的第三種可能的實(shí)施方式,其中,所述確定模塊包括:

第一查找單元,用于查找所述特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像;

第一確認(rèn)單元,用于將特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像所對應(yīng)的參考行人確認(rèn)為所述目標(biāo)行人圖像中的目標(biāo)行人。

結(jié)合第二方面,本發(fā)明實(shí)施例提供了第二方面的第四種可能的實(shí)施方式,其中,所述確定模塊還包括:

排序單元,用于按照所述特征相似度由高至低的排序順序?qū)λ鰠⒖夹腥藞D像進(jìn)行排名,以生成相似度排名;

第二查找單元,用于在所述相似度排名中查找排名超過預(yù)定名次的參考行人圖像;

第二確認(rèn)單元,用于將排名超過預(yù)定名次的參考行人圖像所對應(yīng)的參考行人確認(rèn)為所述目標(biāo)行人圖像中的目標(biāo)行人。

本發(fā)明實(shí)施例提供的基于深度學(xué)習(xí)的行人重識別方法和裝置,與現(xiàn)有技術(shù)中的行人重識別的方法由于基于成對的行人圖像才能夠通過深度模型進(jìn)行提取特征和行人識別,導(dǎo)致靈活度較差相比,其首先通過不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的第一視頻流中獲取目標(biāo)行人圖像,以及從第二視頻流中獲取參考行人圖像,接著利用深度學(xué)習(xí)網(wǎng)絡(luò)模型分別從上述目標(biāo)行人圖像和參考行人圖像中提取對應(yīng)的第一圖像特征和第二圖像特征,然后計(jì)算第一圖像特征和第二圖像特征的特征相似度,并在特征相似度符合預(yù)設(shè)要求時(shí),確定目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人為同一個(gè)行人,其采用深度學(xué)習(xí)技術(shù)分別學(xué)習(xí)出上述目標(biāo)行人圖像和參考行人圖像的隱含特征,克服了傳統(tǒng)的行人重識別的方法采用成對行人圖像存在的耦合問題,靈活度較好。

為使本發(fā)明的上述目的、特征和優(yōu)點(diǎn)能更明顯易懂,下文特舉較佳實(shí)施例,并配合所附附圖,作詳細(xì)說明如下。

附圖說明

為了更清楚地說明本發(fā)明實(shí)施例的技術(shù)方案,下面將對實(shí)施例中所需要使用的附圖作簡單地介紹,應(yīng)當(dāng)理解,以下附圖僅示出了本發(fā)明的某些實(shí)施例,因此不應(yīng)被看作是對范圍的限定,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他相關(guān)的附圖。

圖1示出了本發(fā)明實(shí)施例所提供的一種基于深度學(xué)習(xí)的行人重識別方法的流程圖;

圖2示出了本發(fā)明實(shí)施例所提供的另一種基于深度學(xué)習(xí)的行人重識別方法的流程圖;

圖3示出了本發(fā)明實(shí)施例所提供的另一種基于深度學(xué)習(xí)的行人重識別方法的流程圖;

圖4示出了本發(fā)明實(shí)施例所提供的另一種基于深度學(xué)習(xí)的行人重識別方法的流程圖;

圖5示出了本發(fā)明實(shí)施例所提供的一種基于深度學(xué)習(xí)的行人重識別裝置的結(jié)構(gòu)示意圖;

圖6示出了本發(fā)明實(shí)施例所提供的一種基于深度學(xué)習(xí)的行人重識別裝置中生成模塊的結(jié)構(gòu)示意圖;

圖7示出了本發(fā)明實(shí)施例所提供的一種基于深度學(xué)習(xí)的行人重識別裝置中確定模塊的結(jié)構(gòu)示意圖。

主要元件符號說明:

11、獲取模塊;22、提取模塊;33、計(jì)算模塊;44、確定模塊;55、生成模塊;441、第一查找單元;442、第一確認(rèn)單元;443、排序單元;444、第二查找單元;445、第二確認(rèn)單元;551、建立單元;552、學(xué)習(xí)單元;553、生成單元。

具體實(shí)施方式

為使本發(fā)明實(shí)施例的目的、技術(shù)方案和優(yōu)點(diǎn)更加清楚,下面將結(jié)合本發(fā)明實(shí)施例中附圖,對本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例。通常在此處附圖中描述和示出的本發(fā)明實(shí)施例的組件可以以各種不同的配置來布置和設(shè)計(jì)。因此,以下對在附圖中提供的本發(fā)明的實(shí)施例的詳細(xì)描述并非旨在限制要求保護(hù)的本發(fā)明的范圍,而是僅僅表示本發(fā)明的選定實(shí)施例。基于本發(fā)明的實(shí)施例,本領(lǐng)域技術(shù)人員在沒有做出創(chuàng)造性勞動的前提下所獲得的所有其他實(shí)施例,都屬于本發(fā)明保護(hù)的范圍。

考慮到傳統(tǒng)的行人重識別的方法基于成對的行人圖像才能夠通過深度模型進(jìn)行提取特征和行人識別,由于上述成對的行人圖像不能解耦合,導(dǎo)致方法的靈活度較差?;诖?,本發(fā)明實(shí)施例提供了一種基于深度學(xué)習(xí)的行人重識別方法和裝置,其采用深度學(xué)習(xí)技術(shù)自動學(xué)習(xí)出單張行人圖像的隱含特征,克服了傳統(tǒng)的行人重識別的方法采用成對行人圖像的耦合問題,靈活度較好。

參見圖1所示的本發(fā)明實(shí)施例提供的基于深度學(xué)習(xí)的行人重識別方法的流程圖,所述方法具體包括如下步驟:

S101、分別從第一視頻流和第二視頻流中獲取目標(biāo)行人圖像和參考行人圖像,第一視頻流和第二視頻流為不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的視頻;

具體的,考慮到本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別方法的具體應(yīng)用場景,本發(fā)明實(shí)施例中需要對目標(biāo)行人圖像和參考行人圖像進(jìn)行獲取。上述目標(biāo)行人圖像和參考行人圖像分別從不同角度的兩個(gè)攝像頭攝取到的第一視頻流和第二視頻流中進(jìn)行獲取??紤]到本發(fā)明實(shí)施例所提出的行人重(再)識別方法主要是應(yīng)用在視頻監(jiān)控系統(tǒng)中,該視頻監(jiān)控系統(tǒng)設(shè)置有若干個(gè)攝像頭。若一個(gè)行人沿著軌跡從左到右先后經(jīng)過了拐角處的兩個(gè)攝像頭。這兩個(gè)攝像頭拍攝的范圍沒有交叉的部分,即經(jīng)過一個(gè)攝像頭后,中間有一段時(shí)間沒有被任何攝像頭拍攝到,然后再經(jīng)過第二個(gè)攝像頭,對于上述兩個(gè)攝像頭而言,利用現(xiàn)有的行人檢測器對攝像頭實(shí)時(shí)攝取的第一視頻流和第二視頻流進(jìn)行行人檢測,得到對應(yīng)的目標(biāo)行人圖像和參考行人圖像。

其中,本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別方法能夠通過背景差法、幀間差分法、光流法或基于統(tǒng)計(jì)學(xué)習(xí)的人體檢測方法進(jìn)行相應(yīng)的行人檢測。

另外,本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別方法可以應(yīng)用于圖像檢索中。對于圖像檢索系統(tǒng)而言,目標(biāo)行人圖像為用戶輸入的查詢圖像,參考行人圖像為圖像庫內(nèi)的所有圖像。

通過上述S101的操作獲取到目標(biāo)行人圖像和參考行人圖像后,通過如下S102的操作來對目標(biāo)行人圖像和參考行人圖像進(jìn)行特征提取。

S102、利用預(yù)先訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)模型,提取目標(biāo)行人圖像的圖像特征作為第一圖像特征,以及提取參考行人圖像的圖像特征作為第二圖像特征;

具體的,隨著大數(shù)據(jù)時(shí)代的到來,只有比較復(fù)雜的模型,或者說表達(dá)能力強(qiáng)的模型,才能充分發(fā)掘海量數(shù)據(jù)中蘊(yùn)藏的豐富信息,所以,本發(fā)明實(shí)施例中的深度學(xué)習(xí)網(wǎng)絡(luò)模型采用的是更強(qiáng)大的深度模型,以使得我們能夠從大數(shù)據(jù)挖掘出更多有價(jià)值的信息和知識,且該深度學(xué)習(xí)網(wǎng)絡(luò)模型學(xué)習(xí)的目標(biāo)從驗(yàn)證兩個(gè)人是否同一個(gè)人,變更為分類識別找出是N個(gè)人中的哪一個(gè),后者目標(biāo)更難,更難的目標(biāo)能使模型學(xué)習(xí)的更好,進(jìn)而可以提取更有效的特征。通過預(yù)先訓(xùn)練獲取的上述深度學(xué)習(xí)網(wǎng)絡(luò)模型分別對目標(biāo)行人圖像和參考行人圖像進(jìn)行特征提取得到對應(yīng)的第一圖像特征和第二圖像特征。

其中,本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別方法對于上述目標(biāo)行人圖像和參考行人圖像能夠分別使用訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,即該深度學(xué)習(xí)網(wǎng)絡(luò)模型對每張行人圖像是獨(dú)立的,從而可以很好的應(yīng)用于實(shí)時(shí)信息結(jié)構(gòu)化的提取特征。則,對于上述不同的攝像頭的視頻能夠獨(dú)立的進(jìn)行實(shí)時(shí)信息結(jié)構(gòu)化,即在抓拍到單張的行人圖像時(shí),就可以實(shí)時(shí)基于深度學(xué)習(xí)網(wǎng)絡(luò)模型進(jìn)行特征提取,而不會依賴于成對出現(xiàn)的圖像,從而極大的提高了后續(xù)識別的靈活度,又由于可以預(yù)先基于模型進(jìn)行特征提取并將提取好的特征進(jìn)行預(yù)先存儲,從而進(jìn)一步提高了識別的效率。

S103、計(jì)算第一圖像特征與第二圖像特征的特征相似度;

具體的,本發(fā)明實(shí)施例所提供的行人重識別方法對基于深度學(xué)習(xí)網(wǎng)絡(luò)模型分別提取到的第一圖像特征和第二圖像特征進(jìn)行相似度的計(jì)算,本發(fā)明實(shí)施例優(yōu)選的采用余弦距離公式計(jì)算特征相似度。

S104、若特征相似度符合預(yù)設(shè)要求,則確定目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人為同一個(gè)行人。

具體的,在得到上述特征相似度的前提下,本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別方法將對該特征相似度進(jìn)行分析處理,從參考行人圖像中尋找特征相似度符合要求的參考行人圖像,并將找到的參考行人圖像中的參考行人與對應(yīng)的目標(biāo)行人圖像中的目標(biāo)行人進(jìn)行同一個(gè)行人的確定。

本發(fā)明實(shí)施例提供的基于深度學(xué)習(xí)的行人重識別方法,與現(xiàn)有技術(shù)中的行人重識別的方法由于基于成對的行人圖像才能夠通過深度模型進(jìn)行提取特征和行人識別,導(dǎo)致靈活度較差相比,其首先通過不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的第一視頻流中獲取目標(biāo)行人圖像,以及從第二視頻流中獲取參考行人圖像,接著利用深度學(xué)習(xí)網(wǎng)絡(luò)模型分別從上述目標(biāo)行人圖像和參考行人圖像中提取對應(yīng)的第一圖像特征和第二圖像特征,然后計(jì)算第一圖像特征和第二圖像特征的特征相似度,并在特征相似度符合預(yù)設(shè)要求時(shí),確定目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人為同一個(gè)行人,其采用深度學(xué)習(xí)技術(shù)分別學(xué)習(xí)出上述目標(biāo)行人圖像和參考行人圖像的隱含特征,克服了傳統(tǒng)的行人重識別的方法采用成對行人圖像存在的耦合問題,靈活度較好。

為了更好的獲取上述目標(biāo)行人圖像和參考行人圖像,上述S101的獲取過程具體通過如下步驟實(shí)現(xiàn):

對第一視頻流進(jìn)行行人檢測,得到對應(yīng)的目標(biāo)行人圖像;對第二視頻流進(jìn)行行人檢測,得到對應(yīng)的參考行人圖像。

具體的,對于兩個(gè)不同的攝像頭而言,利用現(xiàn)有的背景差法、幀間差分法、光流法或基于統(tǒng)計(jì)學(xué)習(xí)的人體檢測方法對攝像頭實(shí)時(shí)視頻流對應(yīng)的第一視頻流和第二視頻流進(jìn)行行人檢測,得到對應(yīng)的目標(biāo)行人圖像和參考行人圖像。

在對目標(biāo)行人圖像和參考行人圖像進(jìn)行特征信息提取時(shí),首先需要獲取預(yù)先訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)模型以實(shí)現(xiàn)對上述目標(biāo)行人圖像和參考行人圖像的特征訓(xùn)練,參見圖2,上述深度學(xué)習(xí)網(wǎng)絡(luò)模型的獲取過程具體包括:

S201、基于標(biāo)簽標(biāo)記的監(jiān)督學(xué)習(xí)方法,建立包含行人重識別范圍內(nèi)行人圖像的標(biāo)記圖片;其中,同一行人的不同角度的行人圖像使用同一個(gè)標(biāo)簽標(biāo)記;

S202、利用深度卷積神經(jīng)網(wǎng)絡(luò)對標(biāo)記圖片進(jìn)行深度學(xué)習(xí),得到對應(yīng)于標(biāo)記圖片的行人圖像的特征信息;

S203、利用隨機(jī)梯度下降方法對特征信息進(jìn)行訓(xùn)練,得到對應(yīng)于行人圖像的深度學(xué)習(xí)網(wǎng)絡(luò)模型。

具體的,本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別方法首先基于標(biāo)簽標(biāo)記的監(jiān)督學(xué)習(xí)方法,建立包含行人重識別范圍內(nèi)行人圖像的標(biāo)記圖片,其中,同一行人的不同角度的行人圖像使用同一個(gè)標(biāo)簽標(biāo)記;再者利用深度卷積神經(jīng)網(wǎng)絡(luò)對標(biāo)記圖片進(jìn)行深度學(xué)習(xí),得到對應(yīng)于標(biāo)記圖片的行人圖像的特征信息;最后利用通用的隨機(jī)梯度下降算法進(jìn)行特征信息的訓(xùn)練,直至收斂或達(dá)到預(yù)先設(shè)定的最大訓(xùn)練迭代次數(shù)時(shí),得到對應(yīng)的深度學(xué)習(xí)網(wǎng)絡(luò)模型。

其中,本發(fā)明實(shí)施例中的深度學(xué)習(xí)網(wǎng)絡(luò)模型優(yōu)選的采用全新的模型結(jié)構(gòu),包括通用的卷積層、池化層、全連接層,且具體包括依次相連的三層卷積層、一層池化層、三層卷積層、一層池化層、三層卷積層、一層池化層、二層全連接層和十一層激活函數(shù)層,即卷積層共計(jì)九層、池化層共計(jì)三層、全連接層共計(jì)二層和激活函數(shù)層共計(jì)十一層,且定義損失函數(shù)為總體訓(xùn)練樣本的分類損失。

為了實(shí)現(xiàn)目標(biāo)行人圖像和參考行人圖像中行人的再識別,上述行人識別過程,具體通過如下步驟實(shí)現(xiàn),參見圖3所示的流程圖,所述方法還包括:

S301、查找特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像;

S302、將特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像所對應(yīng)的參考行人確認(rèn)為目標(biāo)行人圖像中的目標(biāo)行人。

具體的,在計(jì)算得到目標(biāo)行人圖像和參考行人圖像的圖像特征相似度后,首先從參考行人圖像中查找高于預(yù)設(shè)相似度閾值的特征相似度所對應(yīng)的參考行人圖像,然后將查找得到的參考行人圖像對應(yīng)的參考行人確認(rèn)為目標(biāo)行人圖像中的目標(biāo)行人。

另外,本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別方法還可以對特征相似度進(jìn)行排名,根據(jù)排名結(jié)果進(jìn)行上述目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人是否為同一個(gè)人的判斷,參見圖4所示的流程圖,所述方法還包括:

S401、按照特征相似度由高至低的排序順序?qū)⒖夹腥藞D像進(jìn)行排名,以生成相似度排名;

S402、在相似度排名中查找排名超過預(yù)定名次的參考行人圖像;

S403、將排名超過預(yù)定名次的參考行人圖像所對應(yīng)的參考行人確認(rèn)為目標(biāo)行人圖像中的目標(biāo)行人。

具體的,根據(jù)上述計(jì)算的特征相似度由高至低的排序順序(即是目標(biāo)行人圖像與參考行人圖像的相似程度)對參考行人圖像進(jìn)行排名,以生成相似度排名,然后在相似度排名中查找排名超過預(yù)定名次的參考行人圖像,把排名超過預(yù)定名次的參考行人圖像所對應(yīng)的參考行人確認(rèn)為目標(biāo)行人圖像中的目標(biāo)行人,以保證能夠根據(jù)相似度排名進(jìn)行行人的再識別,識別的準(zhǔn)確率較高。

本發(fā)明實(shí)施例提供的基于深度學(xué)習(xí)的行人重識別方法,與現(xiàn)有技術(shù)中的行人重識別的方法由于基于成對的行人圖像才能夠通過深度模型進(jìn)行提取特征和行人識別,導(dǎo)致靈活度較差相比,其首先通過不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的第一視頻流中獲取目標(biāo)行人圖像,以及從第二視頻流中獲取參考行人圖像,接著利用深度學(xué)習(xí)網(wǎng)絡(luò)模型分別從上述目標(biāo)行人圖像和參考行人圖像中提取對應(yīng)的第一圖像特征和第二圖像特征,然后計(jì)算第一圖像特征和第二圖像特征的特征相似度,并在特征相似度符合預(yù)設(shè)要求時(shí),確定目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人為同一個(gè)行人,其采用深度學(xué)習(xí)技術(shù)分別學(xué)習(xí)出上述目標(biāo)行人圖像和參考行人圖像的隱含特征,克服了傳統(tǒng)的行人重識別的方法采用成對行人圖像存在的耦合問題,靈活度較好。

本發(fā)明實(shí)施例還提供了一種基于深度學(xué)習(xí)的行人重識別裝置,所述裝置用于執(zhí)行上述基于深度學(xué)習(xí)的行人重識別方法,參見圖5,所述裝置包括:

獲取模塊11,用于分別從第一視頻流和第二視頻流中獲取目標(biāo)行人圖像和參考行人圖像,第一視頻流和第二視頻流為不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的視頻;

提取模塊22,用于利用預(yù)先訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)模型,提取目標(biāo)行人圖像的圖像特征作為第一圖像特征,以及提取參考行人圖像的圖像特征作為第二圖像特征;

計(jì)算模塊33,用于計(jì)算第一圖像特征與第二圖像特征的特征相似度;

確定模塊44,用于在特征相似度符合預(yù)設(shè)要求時(shí),確定目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人為同一個(gè)行人。

為了更好的獲取上述目標(biāo)行人圖像和參考行人圖像,上述獲取模塊11包括第一獲取單元和第二獲取單元;其中:

第一獲取單元,用于對第一視頻流進(jìn)行行人檢測,得到對應(yīng)的目標(biāo)行人圖像;

第二獲取單元,用于對第二視頻流進(jìn)行行人檢測,得到對應(yīng)的參考行人圖像。

在對目標(biāo)行人圖像和參考行人圖像進(jìn)行特征信息提取時(shí),首先需要獲取預(yù)先訓(xùn)練好的深度學(xué)習(xí)網(wǎng)絡(luò)模型以實(shí)現(xiàn)對上述目標(biāo)行人圖像和參考行人圖像的特征訓(xùn)練,參見圖6,因此,本發(fā)明實(shí)施例提供的基于深度學(xué)習(xí)的行人重識別裝置還包括生成深度學(xué)習(xí)網(wǎng)絡(luò)模型的生成模塊55,該生成模塊55包括:建立單元551、學(xué)習(xí)單元552和生成單元553,其中:

建立單元551,用于基于標(biāo)簽標(biāo)記的監(jiān)督學(xué)習(xí)方法,建立包含行人重識別范圍內(nèi)行人圖像的標(biāo)記圖片;其中,同一行人的不同角度的行人圖像使用同一個(gè)標(biāo)簽標(biāo)記;

學(xué)習(xí)單元552,用于利用深度卷積神經(jīng)網(wǎng)絡(luò)對標(biāo)記圖片進(jìn)行深度學(xué)習(xí),得到對應(yīng)于標(biāo)記圖片的行人圖像的特征信息;

生成單元553,用于利用隨機(jī)梯度下降方法對特征信息進(jìn)行訓(xùn)練,得到對應(yīng)于行人圖像的深度學(xué)習(xí)網(wǎng)絡(luò)模型。

為了實(shí)現(xiàn)目標(biāo)行人圖像和參考行人圖像中行人的再識別,參見圖7,上述確定模塊44包括第一查找單元441和第一確認(rèn)單元442;其中:

第一查找單元441,用于查找特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像;

第一確認(rèn)單元442,用于將特征相似度高于預(yù)設(shè)相似度閾值的參考行人圖像所對應(yīng)的參考行人確認(rèn)為目標(biāo)行人圖像中的目標(biāo)行人。

另外,本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別裝置還可以對特征相似度進(jìn)行排名,根據(jù)排名結(jié)果進(jìn)行上述目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人是否為同一個(gè)人的判斷,參見圖7,上述確定模塊44還包括:

排序單元443,用于按照特征相似度由高至低的排序順序?qū)⒖夹腥藞D像進(jìn)行排名,以生成相似度排名;

第二查找單元444,用于在相似度排名中查找排名超過預(yù)定名次的參考行人圖像;

第二確認(rèn)單元445,用于將排名超過預(yù)定名次的參考行人圖像所對應(yīng)的參考行人確認(rèn)為目標(biāo)行人圖像中的目標(biāo)行人。

本發(fā)明實(shí)施例提供的基于深度學(xué)習(xí)的行人重識別裝置,與現(xiàn)有技術(shù)中的行人重識別由于基于成對的行人圖像才能夠通過深度模型進(jìn)行提取特征和行人識別,導(dǎo)致靈活度較差相比,其首先通過不同角度的攝像頭在預(yù)設(shè)區(qū)域內(nèi)攝取的第一視頻流中獲取目標(biāo)行人圖像,以及從第二視頻流中獲取參考行人圖像,接著利用深度學(xué)習(xí)網(wǎng)絡(luò)模型分別從上述目標(biāo)行人圖像和參考行人圖像中提取對應(yīng)的第一圖像特征和第二圖像特征,然后計(jì)算第一圖像特征和第二圖像特征的特征相似度,并在特征相似度符合預(yù)設(shè)要求時(shí),確定目標(biāo)行人圖像中的目標(biāo)行人和參考行人圖像中的參考行人為同一個(gè)行人,其采用深度學(xué)習(xí)技術(shù)分別學(xué)習(xí)出上述目標(biāo)行人圖像和參考行人圖像的隱含特征,克服了傳統(tǒng)的行人重識別采用成對行人圖像存在的耦合問題,靈活度較好。

本發(fā)明實(shí)施例所提供的進(jìn)行基于深度學(xué)習(xí)的行人重識別方法的計(jì)算機(jī)程序產(chǎn)品,包括存儲了程序代碼的計(jì)算機(jī)可讀存儲介質(zhì),所述程序代碼包括的指令可用于執(zhí)行前面方法實(shí)施例中所述的方法,具體實(shí)現(xiàn)可參見方法實(shí)施例,在此不再贅述。

本發(fā)明實(shí)施例所提供的基于深度學(xué)習(xí)的行人重識別的裝置可以為設(shè)備上的特定硬件或者安裝于設(shè)備上的軟件或固件等。本發(fā)明實(shí)施例所提供的裝置,其實(shí)現(xiàn)原理及產(chǎn)生的技術(shù)效果和前述方法實(shí)施例相同,為簡要描述,裝置實(shí)施例部分未提及之處,可參考前述方法實(shí)施例中相應(yīng)內(nèi)容。所屬領(lǐng)域的技術(shù)人員可以清楚地了解到,為描述的方便和簡潔,前述描述的系統(tǒng)、裝置和單元的具體工作過程,均可以參考上述方法實(shí)施例中的對應(yīng)過程,在此不再贅述。

在本發(fā)明所提供的實(shí)施例中,應(yīng)該理解到,所揭露裝置和方法,可以通過其它的方式實(shí)現(xiàn)。以上所描述的裝置實(shí)施例僅僅是示意性的,例如,所述單元的劃分,僅僅為一種邏輯功能劃分,實(shí)際實(shí)現(xiàn)時(shí)可以有另外的劃分方式,又例如,多個(gè)單元或組件可以結(jié)合或者可以集成到另一個(gè)系統(tǒng),或一些特征可以忽略,或不執(zhí)行。另一點(diǎn),所顯示或討論的相互之間的耦合或直接耦合或通信連接可以是通過一些通信接口,裝置或單元的間接耦合或通信連接,可以是電性,機(jī)械或其它的形式。

所述作為分離部件說明的單元可以是或者也可以不是物理上分開的,作為單元顯示的部件可以是或者也可以不是物理單元,即可以位于一個(gè)地方,或者也可以分布到多個(gè)網(wǎng)絡(luò)單元上??梢愿鶕?jù)實(shí)際的需要選擇其中的部分或者全部單元來實(shí)現(xiàn)本實(shí)施例方案的目的。

另外,在本發(fā)明提供的實(shí)施例中的各功能單元可以集成在一個(gè)處理單元中,也可以是各個(gè)單元單獨(dú)物理存在,也可以兩個(gè)或兩個(gè)以上單元集成在一個(gè)單元中。

所述功能如果以軟件功能單元的形式實(shí)現(xiàn)并作為獨(dú)立的產(chǎn)品銷售或使用時(shí),可以存儲在一個(gè)計(jì)算機(jī)可讀取存儲介質(zhì)中?;谶@樣的理解,本發(fā)明的技術(shù)方案本質(zhì)上或者說對現(xiàn)有技術(shù)做出貢獻(xiàn)的部分或者該技術(shù)方案的部分可以以軟件產(chǎn)品的形式體現(xiàn)出來,該計(jì)算機(jī)軟件產(chǎn)品存儲在一個(gè)存儲介質(zhì)中,包括若干指令用以使得一臺計(jì)算機(jī)設(shè)備(可以是個(gè)人計(jì)算機(jī),服務(wù)器,或者網(wǎng)絡(luò)設(shè)備等)執(zhí)行本發(fā)明各個(gè)實(shí)施例所述方法的全部或部分步驟。而前述的存儲介質(zhì)包括:U盤、移動硬盤、只讀存儲器(ROM,Read-Only Memory)、隨機(jī)存取存儲器(RAM,Random Access Memory)、磁碟或者光盤等各種可以存儲程序代碼的介質(zhì)。

應(yīng)注意到:相似的標(biāo)號和字母在下面的附圖中表示類似項(xiàng),因此,一旦某一項(xiàng)在一個(gè)附圖中被定義,則在隨后的附圖中不需要對其進(jìn)行進(jìn)一步定義和解釋,此外,術(shù)語“第一”、“第二”、“第三”等僅用于區(qū)分描述,而不能理解為指示或暗示相對重要性。

最后應(yīng)說明的是:以上所述實(shí)施例,僅為本發(fā)明的具體實(shí)施方式,用以說明本發(fā)明的技術(shù)方案,而非對其限制,本發(fā)明的保護(hù)范圍并不局限于此,盡管參照前述實(shí)施例對本發(fā)明進(jìn)行了詳細(xì)的說明,本領(lǐng)域的普通技術(shù)人員應(yīng)當(dāng)理解:任何熟悉本技術(shù)領(lǐng)域的技術(shù)人員在本發(fā)明揭露的技術(shù)范圍內(nèi),其依然可以對前述實(shí)施例所記載的技術(shù)方案進(jìn)行修改或可輕易想到變化,或者對其中部分技術(shù)特征進(jìn)行等同替換;而這些修改、變化或者替換,并不使相應(yīng)技術(shù)方案的本質(zhì)脫離本發(fā)明實(shí)施例技術(shù)方案的精神和范圍。都應(yīng)涵蓋在本發(fā)明的保護(hù)范圍之內(nèi)。因此,本發(fā)明的保護(hù)范圍應(yīng)所述以權(quán)利要求的保護(hù)范圍為準(zhǔn)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點(diǎn)贊!
1