技術(shù)總結(jié)
本發(fā)明公開(kāi)了一種基于深度學(xué)習(xí)的行人精細(xì)化識(shí)別方法及裝置,該方法包括:構(gòu)建行人圖像數(shù)據(jù)庫(kù),利用行人圖像數(shù)據(jù)庫(kù)制作包含行人特征的訓(xùn)練數(shù)據(jù)集,將訓(xùn)練數(shù)據(jù)集輸入到SSD網(wǎng)絡(luò)進(jìn)行訓(xùn)練;根據(jù)訓(xùn)練結(jié)果構(gòu)建行人精細(xì)化圖像數(shù)據(jù)庫(kù),制作包含行人各個(gè)部位特征的訓(xùn)練數(shù)據(jù)集,將訓(xùn)練數(shù)據(jù)集輸入到卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行訓(xùn)練;利用訓(xùn)練好的SSD網(wǎng)絡(luò)提取來(lái)自流媒體服務(wù)器的實(shí)時(shí)視頻流中的行人特征,根據(jù)提取到的行人特征,利用訓(xùn)練好的卷積神經(jīng)網(wǎng)絡(luò)提取行人各個(gè)部位的特征;將提取到的行人各個(gè)部位的特征與行人精細(xì)化圖像數(shù)據(jù)庫(kù)的每個(gè)行人相應(yīng)部位的特征進(jìn)行匹配,將匹配結(jié)果進(jìn)行組合得到行人精細(xì)化識(shí)別結(jié)果。本發(fā)明有效地提高了行人精細(xì)化識(shí)別的準(zhǔn)確率。
技術(shù)研發(fā)人員:張衛(wèi)山;王志超;徐亮;趙德海;李忠偉;盧清華;宮文娟;宮法明
受保護(hù)的技術(shù)使用者:中國(guó)石油大學(xué)(華東)
文檔號(hào)碼:201710050765
技術(shù)研發(fā)日:2017.01.23
技術(shù)公布日:2017.06.13