技術(shù)特征:
技術(shù)總結(jié)
本發(fā)明公開(kāi)了一種基于深度學(xué)習(xí)的人類行為分析方法。本發(fā)明包括兩個(gè)階段:標(biāo)注訓(xùn)練階段和應(yīng)用階段;所述標(biāo)注階段包括如下步驟:S1:對(duì)多個(gè)監(jiān)控場(chǎng)景視頻數(shù)據(jù)進(jìn)行相關(guān)人物的標(biāo)注,并訓(xùn)練人物檢測(cè)網(wǎng)絡(luò);S2:進(jìn)行人物行為序列提取;S3:對(duì)提取的人物的行為序列進(jìn)行標(biāo)注,并訓(xùn)練行為識(shí)別網(wǎng)絡(luò),得到行為識(shí)別模型;所述應(yīng)用階段包括針對(duì)實(shí)際監(jiān)控場(chǎng)景的視頻,使用與標(biāo)注訓(xùn)練階段相同的人物行為序列提取方法,將提取出來(lái)的行為視頻序列及其對(duì)應(yīng)的光流矢量圖像化序列作為行為識(shí)別卷積神經(jīng)網(wǎng)絡(luò)的輸入,通過(guò)行為識(shí)別模型進(jìn)行行為分類。本發(fā)明可以自動(dòng)對(duì)視頻場(chǎng)景中的人類行為進(jìn)行分析,無(wú)需人工干預(yù),能夠較好地對(duì)人類行為進(jìn)行分析。
技術(shù)研發(fā)人員:姚莉;儲(chǔ)彬彬
受保護(hù)的技術(shù)使用者:東南大學(xué)
技術(shù)研發(fā)日:2017.05.23
技術(shù)公布日:2017.10.17