技術(shù)編號:12670793
提示:您尚未登錄,請點(diǎn) 登 陸 后下載,如果您還沒有賬戶請點(diǎn) 注 冊 ,登陸完成后,請刷新本頁查看技術(shù)詳細(xì)信息。本發(fā)明涉及行人精細(xì)化識(shí)別領(lǐng)域,具體涉及一種基于深度學(xué)習(xí)的行人精細(xì)化識(shí)別方法及裝置。背景技術(shù)深度學(xué)習(xí)是目前機(jī)器學(xué)習(xí)發(fā)展的最高度,卷積神經(jīng)網(wǎng)絡(luò)作為深度學(xué)習(xí)的一種方法,在物體識(shí)別、圖像處理等領(lǐng)域有著較好的效果。對于特征提取,卷積神經(jīng)網(wǎng)絡(luò)有著可以自動(dòng)學(xué)習(xí)圖像特征的優(yōu)勢,減少了人工干預(yù),提取出高質(zhì)量的特征,從而為提高圖像匹配的準(zhǔn)確率打下了堅(jiān)實(shí)的基礎(chǔ)。由于深度學(xué)習(xí)的方法可能消耗大量的GPU(GraphicsProcessingUnit,圖形處理器)資源,計(jì)算量過大可能達(dá)不到實(shí)際應(yīng)用場景中實(shí)時(shí)的效果,為了解決...
注意:該技術(shù)已申請專利,請尊重研發(fā)人員的辛勤研發(fā)付出,在未取得專利權(quán)人授權(quán)前,僅供技術(shù)研究參考不得用于商業(yè)用途。
該專利適合技術(shù)人員進(jìn)行技術(shù)研發(fā)參考以及查看自身技術(shù)是否侵權(quán),增加技術(shù)思路,做技術(shù)知識(shí)儲(chǔ)備,不適合論文引用。
請注意,此類技術(shù)沒有源代碼,用于學(xué)習(xí)研究技術(shù)思路。