亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種具有文本日志的雙攝像頭視頻監(jiān)控方法及系統(tǒng)與流程

文檔序號:12554270閱讀:361來源:國知局
一種具有文本日志的雙攝像頭視頻監(jiān)控方法及系統(tǒng)與流程

本發(fā)明涉及監(jiān)控領(lǐng)域,特別是涉及一種具有文本日志的雙攝像頭視頻監(jiān)控方法及系統(tǒng)。



背景技術(shù):

傳統(tǒng)視頻監(jiān)控系統(tǒng)利用單攝像頭僅記錄視頻信息,不能立即識別監(jiān)控畫面中出現(xiàn)的物體和物體所在位置,只能靠人工實時監(jiān)測或者事后調(diào)閱監(jiān)控錄像的手段進行監(jiān)控現(xiàn)場實時預(yù)警或者事后分析,并且傳統(tǒng)的視頻監(jiān)控系統(tǒng)每天都會產(chǎn)生大量的視頻信息,需要大量的人員坐在視頻前認(rèn)真仔細(xì)地盯著視頻,需要投入大量人力;隨著監(jiān)控攝像頭數(shù)量的急劇增加,這種人工實時監(jiān)測與事后調(diào)閱監(jiān)控錄像方式所需的人工工作同步增加;同時面對成千上萬的攝像頭所采集的視頻,現(xiàn)行的監(jiān)控技術(shù)智能化程度低,缺乏對監(jiān)控區(qū)域內(nèi)危險信息的智能預(yù)警。另外,由于監(jiān)控錄像占用大量的存儲空間,為減少錄像存儲所帶來的開銷,一般僅保存指定期限內(nèi)的監(jiān)控錄像,其余錄像將被最新錄像所覆蓋,使得曾經(jīng)記錄的大量監(jiān)控信息丟失。



技術(shù)實現(xiàn)要素:

本發(fā)明的目的是提供一種具有文本日志的雙攝像頭視頻監(jiān)控方法及系統(tǒng),能夠在監(jiān)測區(qū)域內(nèi)快速識別物體,并生成有關(guān)物體信息存儲空間小的文本日志,能夠根據(jù)輸入的關(guān)鍵字調(diào)出相應(yīng)的視頻圖像,并且有效解決了不能實時報警以及大量數(shù)據(jù)丟失的問題。

為實現(xiàn)上述目的,本發(fā)明提供了如下方案:

一種具有文本日志的雙攝像頭視頻監(jiān)控方法,具體包括:

構(gòu)建深度學(xué)習(xí)框架;

利用所述深度學(xué)習(xí)框架識別第一物體的類別信息;

根據(jù)所述類別信息在視頻監(jiān)控區(qū)內(nèi)的時間以及第一物體的視點距離形成文本日志;所述第一物體的視點距離表示所述第一物體到左攝像頭和右攝像頭中心點的距離;

將所述文本日志保存在所述控制器內(nèi)。

可選的,所述構(gòu)建深度學(xué)習(xí)框架之前,還包括:

獲取攝像頭采集的視頻圖像;所述攝像頭分為左攝像頭和右攝像頭,獲取其中一個攝像頭所采集的視頻圖像即可;

建立動態(tài)背景圖庫;

利用所述視頻圖像與所述動態(tài)背景圖庫做差分處理,得到差分結(jié)果;

判斷所述差分結(jié)果是否超過預(yù)設(shè)閾值,得到第一判斷結(jié)果;

若所述第一判斷結(jié)果為所述差分結(jié)果超過所述預(yù)設(shè)閾值,則將超出所述預(yù)設(shè)閾值的部分作為第一前景圖像,其余部分作為第一背景圖像更新到所述動態(tài)背景圖庫中。

可選的,所述利用所述視頻圖像與所述動態(tài)背景圖庫做差分處理,得到差分結(jié)果之前,還包括:

獲取左攝像頭采集的第一視頻圖像;

獲取右攝像頭采集的第二視頻圖像;所述左攝像頭和所述右攝像頭的光軸平行;

將所述第一視頻圖像分離成第一前景圖像和第一背景圖像;

將所述第二視頻圖像分離成第二前景圖像和第二背景圖像;

利用所述第一前景圖像和所述第二前景圖像共同視點之間的視差建立三維點云模型;

根據(jù)所述三維點云模型計算出所述共同視點到所述左攝像頭和所述右攝像頭中心點之間的第一物體的視點距離;

判斷所述第一物體的視點距離是否在預(yù)設(shè)范圍內(nèi),得到第二判斷結(jié)果;

若所述第二判斷結(jié)果表示為所述視點距離在預(yù)設(shè)范圍內(nèi),則向報警器發(fā)送一個報警信息,使得所述報警器報警。

可選的,所述根據(jù)所述三維點云模型計算出所述共同視點到所述左攝像頭和所述右攝像頭中心點之間的第一物體的視點距離之后,還包括:

獲取第二物體的視點距離;

根據(jù)所述第一物體的視點距離和所述第二物體的視點距離利用三角測量法計算出所述第一物體和所述第二物體之間的物體距離;

判斷所述物體距離是否在預(yù)設(shè)距離內(nèi),得到第三判斷結(jié)果;

若所述第三判斷結(jié)果表示為所述物體距離在所述預(yù)設(shè)距離內(nèi),則向控制器報警。

一種具有文本日志的雙攝像頭視頻監(jiān)控系統(tǒng),包括:

深度學(xué)習(xí)框架構(gòu)建模塊,用于構(gòu)建深度學(xué)習(xí)框架;

識別模塊,用于利用所述深度學(xué)習(xí)框架識別第一物體的類別信息。

文本日志生成模塊,用于根據(jù)所述類別信息在視頻監(jiān)控區(qū)內(nèi)的時間以及第一物體的視點距離形成文本日志;所述第一物體的視點距離表示所述第一物體到左攝像頭和右攝像頭中心點的距離;

文本日志保存模塊,用于將所述文本日志保存在所述控制器內(nèi)。

可選的,還包括:所述視頻圖像獲取模塊,用于在所述構(gòu)建深度學(xué)習(xí)框架之前,獲取攝像頭采集的視頻圖像;所述攝像頭分為左攝像頭和右攝像頭,獲取其中一個攝像頭所采集的視頻圖像即可;

動態(tài)背景圖庫建立模塊,用于建立動態(tài)背景圖庫;

差分處理模塊,用于利用所述視頻圖像與所述動態(tài)背景圖庫做差分處理,得到差分結(jié)果;

第一判斷模塊,用于判斷所述差分結(jié)果是否超過預(yù)設(shè)閾值,得到第一判斷結(jié)果;

動態(tài)背景圖庫更新模塊,用于若所述第一判斷結(jié)果為所述差分結(jié)果超過所述預(yù)設(shè)閾值,則將超出所述預(yù)設(shè)閾值的部分作為第一前景圖像,其余部分作為第一背景圖像更新到所述動態(tài)背景圖庫中。

可選的,還包括:第一視頻獲取模塊,用于利用所述視頻圖像與所述動態(tài)背景圖庫做差分處理,得到差分結(jié)果之前獲取左攝像頭采集的第一視頻圖像;

第二視頻獲取模塊,用于獲取右攝像頭采集的第二視頻圖像;所述左攝像頭和所述右攝像頭的光軸平行;

第一分離模塊,用于將所述第一視頻圖像分離成第一前景圖像和第一背景圖像;

第二分離模塊,用于將所述第二視頻圖像分離成第二前景圖像和第二背景圖像;

三維點云模型建立模塊,用于利用所述第一前景圖像和所述第二前景圖像共同視點之間的視差建立三維點云模型;

第一物體的視點距離計算模塊,用于根據(jù)所述三維點云模型計算出所述共同視點到所述左攝像頭和所述右攝像頭中心點之間的第一物體的視點距離;

第二判斷模塊,用于判斷所述第一物體的視點距離是否在預(yù)設(shè)范圍內(nèi),得到第二判斷結(jié)果;

第一報警模塊,用于若所述第二判斷結(jié)果表示為所述視點距離在預(yù)設(shè)范圍內(nèi),則向報警器發(fā)送一個報警信息,使得所述報警器報警。

可選的,還包括:第二物體的視點距離獲取模塊,用于所述第一物體的視點距離計算模塊根據(jù)所述三維點云模型計算出所述共同視點到所述左攝像頭和所述右攝像頭中心點之間的第一物體的視點距離之后,獲取第二物體的視點距離;

物體距離模塊,用于根據(jù)所述第一物體的視點距離和所述第二物體的視點距離利用三角測量法計算出所述第一物體和所述第二物體之間的物體距離;

第三判斷模塊,用于判斷所述物體距離是否在預(yù)設(shè)距離內(nèi),得到第二判斷結(jié)果;

第三報警模塊,用于若所述第二判斷結(jié)果表示為所述物體距離在所述預(yù)設(shè)距離內(nèi),則向控制器報警。

一種具有文本日志的雙攝像頭視頻監(jiān)控裝置,其特征在于,包括:左攝像頭、右攝像頭、開發(fā)板、單片機、后臺服務(wù)器、報警器;

所述左攝像頭和所述右攝像頭的光軸平行于同一水平面上;

所述開發(fā)板與所述左攝像頭有線連接;

所述開發(fā)板與所述右攝像頭有線連接;所述開發(fā)板用于對所述左攝像頭和所述右攝像頭采集的圖像進行預(yù)處理;

所述開發(fā)板與所述單片機有線連接;

所述開發(fā)板與所述后臺服務(wù)器通過無線網(wǎng)絡(luò)連接;

所述單片機與所述報警器電連接。

根據(jù)本發(fā)明提供的具體實施例,本發(fā)明公開了以下技術(shù)效果:能夠根據(jù)生成的文本日志進行視頻圖像的跳轉(zhuǎn)與監(jiān)控,不需要大量人員坐在視頻前分析視頻,也能夠?qū)ΡO(jiān)控區(qū)域進行實時監(jiān)測,大大減少了人力資源的浪費,同時提高了檢索效率。

附圖說明

為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動性的前提下,還可以根據(jù)這些附圖計算出其他的附圖。

圖1為本發(fā)明實施例具有文本日志的雙攝像頭視頻監(jiān)控方法流程圖;

圖2為本發(fā)明實施例具有文本日志的雙攝像頭視頻監(jiān)控方法裝置的結(jié)構(gòu)圖。

具體實施方式

下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所計算出的所有其他實施例,都屬于本發(fā)明保護的范圍。

本發(fā)明的目的是提供一種具有文本日志的雙攝像頭視頻監(jiān)控方法及系統(tǒng),無需大量人員在屏幕前進行監(jiān)測就能夠?qū)崟r報警,并生成日志文本,占用空間小,不會出現(xiàn)存儲視頻占存儲空間過大,導(dǎo)致覆蓋原來視頻的問題,方便實時調(diào)用查看。

為使本發(fā)明的上述目的、特征和優(yōu)點能夠更加明顯易懂,下面結(jié)合附圖和具體實施方式對本發(fā)明作進一步詳細(xì)的說明。

圖1為本發(fā)明實施例具有文本日志的雙攝像頭視頻監(jiān)控方法流程圖,如圖1所示,一種具有文本日志的雙攝像頭視頻監(jiān)控方法,包括:

步驟101:構(gòu)建深度學(xué)習(xí)框架;

步驟102:利用所述深度學(xué)習(xí)框架識別第一物體的類別信息;

步驟103:根據(jù)所述類別信息在視頻監(jiān)控區(qū)內(nèi)的時間以及第一物體的視點距離形成文本日志;所述第一物體的視點距離表示所述第一物體到左攝像頭和右攝像頭中心點的距離;其中,所生成的文本日志包含有攝像頭編號、精確到秒的錄像時間、物體名稱、與攝像頭的距離等文本日志信息,作為監(jiān)控錄像的標(biāo)注信息;

步驟104:將所述文本日志保存在所述控制器內(nèi)。

本發(fā)明利用文本格式的日志,在對監(jiān)控錄像進行檢索時跳過無關(guān)部分,重點查看相關(guān)部分,提高檢索效率,能夠輔助實現(xiàn)特定物體跟蹤;例如:輸入小汽車,經(jīng)過對文本日志的搜索即可在短時間內(nèi)定位到出現(xiàn)有小汽車的相關(guān)視頻圖像。并且利用文本格式日志占用存儲空間少的特點,通過對文本格式日志的長期保存,實現(xiàn)對監(jiān)控區(qū)域所發(fā)生事件的回朔。

在實際應(yīng)用中,所述將所述第一視頻圖像分離成第一前景圖像和第一背景圖像,具體包括:

建立動態(tài)背景圖庫;

利用所述第一視頻圖像與所述動態(tài)背景圖庫做差分處理,得到差分結(jié)果;

判斷所述差分結(jié)果是否超過所述預(yù)設(shè)閾值,若是,則將超出所述預(yù)設(shè)閾值的部分作為第一前景圖像,其余部分作為第一背景圖像更新到所述動態(tài)背景圖庫中。

本發(fā)明利用左右攝像頭中任意一個所采集視頻的幀間圖像差異,分離出圖像中前景與背景,提高畫面中物體的識別率。

在實際應(yīng)用中,所述利用所述視頻圖像與所述動態(tài)背景圖庫做差分處理,得到差分結(jié)果之前,還包括:

獲取左攝像頭采集的第一視頻圖像;

獲取右攝像頭采集的第二視頻圖像;所述左攝像頭和所述右攝像頭的光軸平行;

將所述第一視頻圖像分離成第一前景圖像和第一背景圖像;

將所述第二視頻圖像分離成第二前景圖像和第二背景圖像;

利用所述第一前景圖像和所述第二前景圖像共同視點之間的視差建立三維點云模型;

根據(jù)所述三維點云模型計算出所述共同視點到所述左攝像頭和所述右攝像頭中心點之間的第一物體的視點距離;

判斷所述第一物體的視點距離是否在預(yù)設(shè)范圍內(nèi),得到第二判斷結(jié)果;

若所述第二判斷結(jié)果表示為所述視點距離在預(yù)設(shè)范圍內(nèi),則向報警器發(fā)送一個報警信息,使得所述報警器報警。

采用本發(fā)明的具有文本日志的雙攝像頭視頻監(jiān)控方法能夠?qū)ΡO(jiān)控區(qū)域進行實時監(jiān)控,從而節(jié)省了大量的人力資源。

在實際應(yīng)用中,所述根據(jù)所述三維點云模型計算出所述共同視點到所述左攝像頭和所述右攝像頭中心點之間的第一物體的視點距離之后,還包括:

獲取第二物體的視點距離;

根據(jù)所述第一物體的視點距離和所述第二物體的視點距離利用三角測量法計算出所述第一物體和所述第二物體之間的物體距離;

判斷所述物體距離是否在預(yù)設(shè)距離內(nèi),若是,則向控制器報警。

當(dāng)監(jiān)控畫面中的物體(例如:車與車、車與人等)之間發(fā)生碰撞時,進行實時報警。

本發(fā)明將視覺測距、目標(biāo)跟蹤、深度學(xué)習(xí)、物體識別、文本日志標(biāo)注和快速檢索等技術(shù)在視頻監(jiān)控領(lǐng)域綜合應(yīng)用,通過目標(biāo)動態(tài)跟蹤,確定目標(biāo)所在圖像的像素坐標(biāo),結(jié)合視覺測距生成的三維點云,鎖定目標(biāo)物體,并確定其三維坐標(biāo),并和深度學(xué)習(xí)相結(jié)合識別出畫面中的物體類型和特征,并生成文本日志。當(dāng)目標(biāo)物體進入警戒區(qū)域,超出預(yù)先設(shè)定的閾值時,系統(tǒng)便可發(fā)出警報,達(dá)到實時預(yù)警的目的;捕捉到的目標(biāo)物體的位置信息為后臺工作人員的實際操控提供依據(jù);同時監(jiān)控系統(tǒng)會自動地根據(jù)視頻中出現(xiàn)的物體進行識別,并將識別后的信息記錄到文本日志中,為以后的信息檢索提供便利,并能根據(jù)物體間的距離識別出畫面中物體間的碰撞等情況。

圖2為本發(fā)明實施例具有文本日志的雙攝像頭視頻監(jiān)控方法裝置的結(jié)構(gòu)圖,如圖2所示,一種具有文本日志的雙攝像頭視頻監(jiān)控方法裝置,包括:左攝像頭201、右攝像頭202、開發(fā)板203、單片機204、后臺服務(wù)器205、報警器206;所述左攝像頭201和所述右攝像頭202的光軸平行于同一水平面上;所述開發(fā)板203與所述左攝像頭201有線連接;所述開發(fā)板203與所述右攝像頭202有線連接;所述開發(fā)板203用于對所述左攝像頭201和所述右攝像頭202采集的圖像進行預(yù)處理;所述開發(fā)板203與所述單片機204有線連接;所述開發(fā)板203與所述后臺服務(wù)器205通過無線網(wǎng)絡(luò)連接;所述單片機204與所述報警器206電連接。本發(fā)明通過數(shù)據(jù)線接口的左右攝像頭采集雙目視頻信息,經(jīng)視頻處理開發(fā)板203對視頻圖像進行處理,計算目標(biāo)物體位置和幾何大小信息,并將初次處理后的圖片信息傳輸給后臺服務(wù)器205,后臺服務(wù)器205根據(jù)接收到的圖片信息進行再次分析,提取圖片中的信息,進行目標(biāo)物體識別,并將識別后的物體信息保存為文本日志文件。本系統(tǒng)能為自動預(yù)警以及后臺工作人員采取相應(yīng)措施提供依據(jù)。

通過左右攝像頭采集雙目圖像信息,動態(tài)設(shè)置相似度閾值以便準(zhǔn)確提取目標(biāo)物體,獲取目標(biāo)物體像素坐標(biāo),結(jié)合已生成的三維點云,計算出目標(biāo)物體位置和幾何大小信息,為人機交互和智能預(yù)警提供依據(jù);并且能快捷智能的識別視頻中的物體,生成視頻文本日志文件。具體包括如下幾個過程:

目標(biāo)物體提取。動態(tài)建立背景圖庫并實時更新,對不同的動態(tài)背景賦予不同的閾值,建立背景模型;將當(dāng)前圖像和背景圖庫中圖像作差分,當(dāng)差分結(jié)果超過設(shè)定的閾值時,即可確定當(dāng)前圖像和背景圖像的差分結(jié)果超過閾值部分為前景,其余部分則為背景。圖像的背景部分需要更新到背景圖庫中。

雙目測距。雙目測距主要包含:消除圖像畸變與攝像頭矯正、圖像匹配、重投影等三個步驟。其中,消除圖像畸變與攝像頭矯正就是獲取并校準(zhǔn)攝像頭的內(nèi)參數(shù),為重投影做好準(zhǔn)備;圖像匹配就是尋找左右攝像頭在同一時刻不同視場所獲取的圖像的相同特征;重投影就是將左右圖像差分結(jié)果通過三角測量法轉(zhuǎn)化成距離,輸出視角圖像的三維點云。

物體識別。構(gòu)建深度學(xué)習(xí)框架,利用ImageNet開源圖像庫,訓(xùn)練物體識別模型。利用訓(xùn)練好的模型識別前景圖像中的物體,給出圖像中物體的類別信息。所述類別信息表示人、小轎車、公交車、摩托車、自行車、狗、花、樹等1000種生活中常見的物體。

生成文本日志文件。根據(jù)物體識別出的物體類別,物體出現(xiàn)在視頻監(jiān)控區(qū)內(nèi)的時間,攝像頭的編號,根據(jù)步驟2雙目測距得到的距離信息,形成文本日志,并保存在文件中。

檢索文本日志文件、回看監(jiān)控錄像。根據(jù)生成的文本日志文件,可檢索指定的場景,回看對應(yīng)的監(jiān)控錄像信息。

將上述內(nèi)容通過具體的應(yīng)用場景進一步說明本發(fā)明的效果:

場景1:視頻監(jiān)控安防領(lǐng)域?qū)崟r預(yù)警。傳統(tǒng)的監(jiān)控方式需要工作人員長時間查看監(jiān)控視頻以達(dá)到實時監(jiān)控的目的,需要大量的人力資源,智能化水平較低。本發(fā)明動態(tài)建立背景模型并實時更新,通過圖像差分運算提取前景圖像,利用雙目測距與物體識別技術(shù),動態(tài)跟蹤并定位目標(biāo)物體,實現(xiàn)實時預(yù)警。本發(fā)明將傳統(tǒng)視頻監(jiān)控中的大量人力資源從實際工作中解脫出來,提高監(jiān)控系統(tǒng)的智能化水平。

場景2:視覺測距。常見的測距方法有激光測距、紅外測距、超聲波測距、雷達(dá)測距等,本發(fā)明所采用的視覺測距與這幾種測距方法相比,測量時不需向被測物體發(fā)出任何信號,原理簡單、成本低,可在復(fù)雜環(huán)境下測得目標(biāo)物體位置。同時,若通過鼠標(biāo)選定空間中的特征點,利用勾股定理、正余弦定理等便可計算出特征點間距離及相對位置關(guān)系,進一步計算出目標(biāo)物體的幾何大小信息。

場景3:物體邊緣檢測。常見的圖像邊緣檢測算法,往往通過分析圖像灰度變化的一階或二階導(dǎo)數(shù)獲取物體的輪廓信息,該類型邊緣檢測算法,不能對復(fù)雜場景中目標(biāo)物體輪廓信息進行有效提取。本發(fā)明依據(jù)視覺測量生成三維點云的深度信息,通過繪圖函數(shù),可繪出不同深度物體的輪廓,實現(xiàn)在多個前景物體中準(zhǔn)確提取指定目標(biāo)物體輪廓。該方法可用于機器人的自主智能操作及視覺導(dǎo)航等領(lǐng)域。

場景4:物體識別。傳統(tǒng)的視頻監(jiān)控系統(tǒng)只是簡單地采集視頻信息,并未對視頻信息的內(nèi)容進行分析。為了能更好的分析視頻中的信息,本發(fā)明采用了深度學(xué)習(xí)的方法,將采集到的視頻按照每秒1-5幀的頻率提取視頻中的幀,然后將采集到的圖片輸入深度學(xué)習(xí)模型進行識別,得出畫面中物體類別,提高監(jiān)控系統(tǒng)智能性。

場景5:行為與狀態(tài)識別。在場景4的基礎(chǔ)上,能夠?qū)崿F(xiàn)物體在該場景的行為與狀態(tài)檢測,例如,物體與物體間發(fā)生碰撞、短時間內(nèi)大量的物體聚集等行為與狀態(tài)。

場景6:生成文本日志文件。目前大多數(shù)視頻監(jiān)控系統(tǒng)只是起到對監(jiān)控場景的視頻采集與記錄作用。如果需要查找視頻中的某些線索,不得不對大量的視頻錄像進行人工識別,費時費力。另外,由于監(jiān)控錄像占用大量的存儲空間,為減少錄像存儲所帶來的開銷,一般僅保存指定期限內(nèi)的監(jiān)控錄像,其余錄像被最新錄像所覆蓋,使得曾經(jīng)所記錄的大量監(jiān)控信息丟失,而文本日志文件占用存儲空間少,可長期保存。本發(fā)明所提出的給視頻錄像生成文本日志的方法既有助于根據(jù)需求進行查找、搜索和定位,又能通過文本日志文件對監(jiān)控區(qū)域曾經(jīng)發(fā)生的事件進行長期保存。

綜上,本發(fā)明模擬人眼處理景物的方式,部分代替人腦對自然界的事物進行理解和認(rèn)識,基于雙目測距原理生成視角區(qū)域的三維點云;基于動態(tài)更新的背景圖庫模型,通過圖像差分運算,獲取目標(biāo)物體圖像像素坐標(biāo);結(jié)合視角區(qū)域的三維點云信息和目標(biāo)物體圖像像素坐標(biāo),實現(xiàn)目標(biāo)物體的定位;通過深度學(xué)習(xí)識別視頻圖像中的物體等其他信息,并將識別后的物體和其他信息以文本日志方式進行記錄,方便快速檢索視頻內(nèi)容,提升監(jiān)控系統(tǒng)的智能化。

本發(fā)明提供一種具有文本日志的雙攝像頭視頻監(jiān)控方法及系統(tǒng),還公開了一種具有文本日志的雙攝像頭視頻監(jiān)控方法裝置,能夠彌補傳統(tǒng)視頻監(jiān)控不能自動識別畫面中物體、不能提供目標(biāo)物體精確位置、不能對出現(xiàn)在視頻中的危險情況進行自動判斷和報警、不能快速查詢與定位特定場景、不能長期保存監(jiān)控信息等缺陷,改善其依賴大量人力資源的現(xiàn)狀,提高視頻監(jiān)控系統(tǒng)的智能化水平,因此,本發(fā)明與現(xiàn)有的視頻監(jiān)控相比,具有以下優(yōu)點:(1)通過建立的動態(tài)背景庫模型,經(jīng)圖像處理,可動態(tài)鎖定進入監(jiān)控區(qū)域的目標(biāo)物體,為安防領(lǐng)域的實時預(yù)警提供支持。(2)采用雙目測距原理,結(jié)合目標(biāo)物體的前景提取,可準(zhǔn)確獲取目標(biāo)物體的位置信息,彌補傳統(tǒng)視頻監(jiān)控不能提供目標(biāo)物體精確位置的不足,提高視頻監(jiān)控的智能性。(3)利用深度學(xué)習(xí)進行物體識別,以文本日志方式自動記錄視頻中出現(xiàn)的物體信息,并能夠識別畫面中發(fā)生的情況,例如物體間發(fā)生碰撞等。(4)以日志文件的形式提供簡單高效的存儲方式,既加快視頻識別和檢索的速度,又能通過日志文件的長期保存保留監(jiān)控場景曾經(jīng)發(fā)生過的事件線索,提高系統(tǒng)的自動化和智能化水平。

本說明書中各個實施例采用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似部分互相參見即可。對于實施例公開的系統(tǒng)而言,由于其與實施例公開的方法相對應(yīng),所以描述的比較簡單,相關(guān)之處參見方法部分說明即可。

本文中應(yīng)用了具體個例對本發(fā)明的原理及實施方式進行了闡述,以上實施例的說明只是用于幫助理解本發(fā)明的方法及其核心思想;同時,對于本領(lǐng)域的一般技術(shù)人員,依據(jù)本發(fā)明的思想,在具體實施方式及應(yīng)用范圍上均會有改變之處。綜上所述,本說明書內(nèi)容不應(yīng)理解為對本發(fā)明的限制。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1