本發(fā)明涉及圖像處理、視頻監(jiān)控以及安防,特別涉及安全帶佩戴識別的方法及裝置。
背景技術(shù):
每年有超過120萬人死于機動車事故,相當比例的交通事故中,當駕駛員佩戴安全帶時,造成的人員傷亡明顯減輕。目前,世界上大多數(shù)國家都通過法律強制要求駕駛位及副駕駛位的人在行駛中使用安全帶。通過監(jiān)控相機進行安全帶檢測成為了智能交通領(lǐng)域內(nèi)的新課題。對于那些輕視交通法規(guī)和安全意識淡薄的人,安全帶檢測可以起到提醒和警告作用,在保證安全駕駛的同時提高人們遵守交通法規(guī)的意識。
現(xiàn)有的安全帶檢測方法一般都是基于直線檢測的,首先進行車窗區(qū)域檢測或者在車牌檢測后擴充出車窗區(qū)域,然后使用邊緣檢測、直線檢測、分類器等在車窗區(qū)域內(nèi)檢測安全帶。然而,邊緣檢測和直線檢測對圖像拍攝角度和光照情況、駕駛員衣物顏色、配飾等十分敏感,因此該方法魯棒性較差。近年來,由于深度學習在訓練過程中能夠自動提取圖像中的有效特征,因此在圖像分類、圖像識別等領(lǐng)域中成為研究熱點。
公開號為CN105488453A的中國發(fā)明專利申請公開了一種基于圖像處理的駕駛員未系安全帶檢測識別的方法,該方法通過車牌定位模塊初步確定機動車輛在圖片中的位置,依據(jù)車牌位置預估駕駛員的大致區(qū)域,在此圖像區(qū)域中利用駕駛員檢測模塊精確定位駕駛員的位置,然后結(jié)合圖像清晰度分析模塊算法過濾掉駕駛員區(qū)域不清晰的圖片,針對駕駛員區(qū)域清晰的圖片采用深度卷積網(wǎng)絡算法分析駕駛員是否系安全帶,自動完成駕駛員未系安全帶的檢測識別。
然而,上述安全帶佩戴檢測方法只針對駕駛位,而沒有檢測副駕駛位,而與駕駛位不同,副駕駛位需要先判斷是否有乘客。
綜上所述,目前迫切需要提出一種能同時識別駕駛位和副駕駛位是否正常佩戴安全帶的方法及裝置。
技術(shù)實現(xiàn)要素:
有鑒于此,本發(fā)明的主要目的在于實現(xiàn)同時識別出駕駛位和副駕駛位的安全帶佩戴情況,且識別準確率高。
為達到上述目的,按照本發(fā)明的第一個方面,提供了一種安全帶佩戴識別方法,該方法包括:
第一步驟,選取標簽的正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,采用深度卷積神經(jīng)網(wǎng)絡進行訓練,獲取訓練好的安全帶佩戴識別模型;
第二步驟,通過車牌定位算法獲取場景圖像中的車牌區(qū)域;
第三步驟,根據(jù)車牌區(qū)域獲取前車窗區(qū)域;
第四步驟,根據(jù)前車窗區(qū)域提取駕駛位區(qū)域和副駕駛位區(qū)域;
第五步驟,采用人臉檢測算法檢測副駕駛位區(qū)域,若副駕駛位區(qū)域存在人臉,則轉(zhuǎn)入第六步驟,否則直接轉(zhuǎn)入第七步驟;
第六步驟,利用訓練好的安全帶佩戴識別模型對副駕駛位區(qū)域進行識別,若識別出副駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對副駕駛位區(qū)域進行標注;
第七步驟,利用訓練好的安全帶佩戴識別模型對駕駛位區(qū)域進行識別,若識別出駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對駕駛位區(qū)域進行標注;以及
第八步驟,輸出標注異常佩戴安全帶或者未佩戴安全帶的區(qū)域。
所述第一步驟進一步包括:
樣本選取步驟,分別選取SINum1個正常佩戴安全帶的駕駛位和副駕駛位圖像、SINum2個異常佩戴安全帶的駕駛位和副駕駛位圖像、SINum3個未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,并將樣本圖像縮放為寬度為Width、高度為Height,若樣本圖像為彩色圖像,對樣本圖像進行灰度化處理,獲取灰度的樣本圖像;
初步樣本訓練步驟,利用深度卷積神經(jīng)網(wǎng)絡對灰度的樣本圖像進行訓練,獲取初步訓練好的模型;
二次訓練步驟,選取TINum個由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成的測試圖像,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像,利用初步訓練好的模型對灰度的測試圖像進行反復訓練,直至模型收斂,將收斂的模型作為安全帶佩戴識別模型輸出。
所述二次訓練步驟進一步包括:
測試圖像選取步驟,選取TINum個測試圖像,測試圖像由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像;
訓練特征提取步驟,根據(jù)初步訓練好的模型提取灰度的測試圖像的特征;
訓練分類判定步驟,計算灰度的測試圖像的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,選取Simik值最大的安全帶佩戴類別作為候選安全帶佩戴類別,k表示第k個類別,k={1,2,3};
反復訓練步驟,計算判定結(jié)果與真實結(jié)果的誤差,利用反向傳播算法來訓練模型,重復訓練特征提取步驟和訓練分類判定步驟,直至該模型收斂,將收斂的模型作為安全帶佩戴識別模型并輸出。
所述深度卷積神經(jīng)網(wǎng)絡包括:
輸入層,輸入Width*Height的圖像;
第一層卷積層,輸出Th_CK1個卷積核,卷積核的大小為CKSi1*CKSi1、步長為1;
第一層采樣層,采用池化算法輸出大小為KSi*KSi、步長為KSi的采樣核;
第二層卷積層,輸出Th_CK2個卷積核,卷積核的大小為CKSi2*CKSi2、步長為1;
第二層采樣層,采用池化算法輸出大小為KSi*KSi、步長為KSi的采樣核;
第一層全連接層,采用激活函數(shù),輸出Th_Neur個神經(jīng)元;
第二層全連接層,輸出3個神經(jīng)元,即3個安全帶佩戴類別。
所述第三步驟進一步包括:
候選前車窗區(qū)域獲取步驟,根據(jù)車牌區(qū)域獲取車牌區(qū)域的左邊邊界x=pl、右邊邊界x=pr、上邊邊界y=pt、下邊邊界y=pb,設置候選前車窗區(qū)域的左邊邊界為右邊邊界為上邊邊界為下邊邊界為并將設置的候選前車窗區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為候選前車窗區(qū)域,Wp為車牌區(qū)域的寬度,W為采集圖像的寬度,λ3<λ2;
豎直邊緣獲取步驟,將候選前車窗區(qū)域進行灰度化處理,獲取灰度的候選區(qū)域,采用濾波器,獲取灰度的候選區(qū)域的豎直邊緣圖像;
二值圖像獲取步驟,采用閾值Th_F對數(shù)值邊緣圖像進行分割,獲取二值圖像;
直線檢測步驟,采用Hough變換直線檢測算法對二值圖像進行處理,獲取檢測的直線序列y=kix+bi,i=1,2,…,N1,N1為直線的數(shù)量;
直線篩選步驟,若arctan|ki|≤Th_θ,則保留該直線,否則刪除該直線,由此得到剩余的直線序列y=kjx+bj,j=1,2,…,N2,N2為剩余直線的數(shù)量;
上下邊界獲取步驟,掃描每條直線y=kjx+bj,j=1,2,…,N2,獲取直線y=kjx+bj的第一個像素點(xj1,yj1)和最后一個像素點(xj2,yj2),在y方向上按將直線進行分段,獲取對應的x方向上的長度,并將其放入LineHist數(shù)組中,采用聚類算法對LineHist數(shù)組進行聚類,將獲取的聚類值最大的兩條直線分別作為上邊界和下邊界;
左右邊界獲取步驟,分別掃描上邊界、下邊界,將上邊界的第一個像素點和下邊界的第一個像素點構(gòu)成的直線作為左邊界,將上邊界的最后一個像素點和下邊界的最后一個像素點構(gòu)成的直線作為右邊界;
前車窗區(qū)域提取步驟,將上邊界、左邊界、右邊界、下邊界圍成的矩形區(qū)域標記為前車窗區(qū)域。
所述第四步驟進一步包括:
副駕駛位區(qū)域獲取步驟,根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置副駕駛位區(qū)域的左邊邊界為x=fwl+λ7*(fwr-fwl),右邊邊界為上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的副駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為副駕駛位區(qū)域;
駕駛位區(qū)域獲取步驟,根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置駕駛位區(qū)域的左邊邊界為右邊邊界為x=fwr-λ7*(fwr-fwl),上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為駕駛位區(qū)域。
所述第六步驟進一步包括:
副駕駛位區(qū)域預處理步驟,將副駕駛位區(qū)域縮放為寬度為Width、高度為Height,若副駕駛位區(qū)域為彩色圖像,則對副駕駛位區(qū)域進行灰度化處理,獲取灰度化的副駕駛位區(qū)域;
副駕駛位區(qū)域特征提取步驟,利用安全帶佩戴識別模型提取灰度化的副駕駛位區(qū)域的特征;
副駕駛位安全帶佩戴類別判定步驟,計算副駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將副駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將副駕駛位區(qū)域標記為未佩戴安全帶。
所述第七步驟進一步包括:
駕駛位區(qū)域預處理步驟,將駕駛位區(qū)域縮放為寬度為Width、高度為Height,若駕駛位區(qū)域為彩色圖像,則對駕駛位區(qū)域進行灰度化處理,獲取灰度化的駕駛位區(qū)域;
駕駛位區(qū)域特征提取步驟,利用安全帶佩戴識別模型提取灰度化的駕駛位區(qū)域的特征;
駕駛位安全帶佩戴類別判定步驟,計算駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將駕駛位區(qū)域標記為未佩戴安全帶。
按照本發(fā)明的另一個方面,提供了一種安全帶佩戴識別裝置,該裝置包括:
安全帶佩戴識別模型訓練模塊(1),用于選取標簽的正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,采用深度卷積神經(jīng)網(wǎng)絡進行訓練,獲取訓練好的安全帶佩戴識別模型;
車牌區(qū)域獲取模塊(2),用于通過車牌定位算法獲取場景圖像中的車牌區(qū)域;
前車窗區(qū)域獲取模塊(3),用于根據(jù)車牌區(qū)域獲取前車窗區(qū)域;
駕駛位和副駕駛位區(qū)域提取模塊(4),用于根據(jù)前車窗區(qū)域提取駕駛位區(qū)域和副駕駛位區(qū)域;
副駕駛位人臉檢測模塊(5),用于采用人臉檢測算法檢測副駕駛位區(qū)域,若副駕駛位區(qū)域存在人臉,則轉(zhuǎn)入副駕駛位安全帶佩戴識別模塊(6),否則直接轉(zhuǎn)入駕駛位安全帶佩戴識別模塊(7);
副駕駛位安全帶佩戴識別模塊(6),用于利用訓練好的安全帶佩戴識別模型對副駕駛位區(qū)域進行識別,若識別出副駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對副駕駛位區(qū)域進行標注;
駕駛位安全帶佩戴識別模塊(7),用于利用訓練好的安全帶佩戴識別模型對駕駛位區(qū)域進行識別,若識別出駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對駕駛位區(qū)域進行標注;以及
標注區(qū)域輸出模塊(8),用于輸出標注異常佩戴安全帶或者未佩戴安全帶的區(qū)域。
所述安全帶佩戴識別模型訓練模塊(1)進一步包括:
樣本選取模塊(11),用于分別選取SINum1個正常佩戴安全帶的駕駛位和副駕駛位圖像、SINum2個異常佩戴安全帶的駕駛位和副駕駛位圖像、SINum3個未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,并將樣本圖像縮放為寬度為Width、高度為Height,若樣本圖像為彩色圖像,對樣本圖像進行灰度化處理,獲取灰度的樣本圖像;
初步樣本訓練模塊(12),用于利用深度卷積神經(jīng)網(wǎng)絡對灰度的樣本圖像進行訓練,獲取初步訓練好的模型;
二次訓練模塊(13),用于選取TINum個由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成的測試圖像,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像,利用初步訓練好的模型對灰度的測試圖像進行反復訓練,直至模型收斂,將收斂的模型作為安全帶佩戴識別模型輸出。
所述二次訓練模塊(13)進一步包括:
測試圖像選取模塊(131),用于選取TINum個測試圖像,測試圖像由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像;
訓練特征提取模塊(132),用于根據(jù)初步訓練好的模型提取灰度的測試圖像的特征;
訓練分類判定模塊(133),用于計算灰度的測試圖像的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,選取Simik值最大的安全帶佩戴類別作為候選安全帶佩戴類別,k表示第k個類別,k={1,2,3};
反復訓練模塊(134),用于計算判定結(jié)果與真實結(jié)果的誤差,利用反向傳播算法來訓練模型,重復訓練特征提取模塊(132)和訓練分類判定模塊(133),直至該模型收斂,將收斂的模型作為安全帶佩戴識別模型并輸出。
所述前車窗區(qū)域獲取模塊(3)進一步包括:
候選前車窗區(qū)域獲取模塊(31),用于根據(jù)車牌區(qū)域獲取車牌區(qū)域的左邊邊界x=pl、右邊邊界x=pr、上邊邊界y=pt、下邊邊界y=pb,設置候選前車窗區(qū)域的左邊邊界為右邊邊界為上邊邊界為下邊邊界為并將設置的候選前車窗區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為候選前車窗區(qū)域,Wp為車牌區(qū)域的寬度,W為采集圖像的寬度,λ3<λ2;
豎直邊緣獲取模塊(32),用于將候選前車窗區(qū)域進行灰度化處理,獲取灰度的候選區(qū)域,采用濾波器,獲取灰度的候選區(qū)域的豎直邊緣圖像;
二值圖像獲取模塊(33),用于采用閾值Th_F對數(shù)值邊緣圖像進行分割,獲取二值圖像;
直線檢測模塊(34),用于采用Hough變換直線檢測算法對二值圖像進行處理,獲取檢測的直線序列y=kix+bi,i=1,2,…,N1,N1為直線的數(shù)量;
直線篩選模塊(35),用于若arctan|ki|≤Th_θ,則保留該直線,否則刪除該直線,由此得到剩余的直線序列y=kjx+bj,j=1,2,…,N2,N2為剩余直線的數(shù)量;
上下邊界獲取模塊(36),用于掃描每條直線y=kjx+bj,j=1,2,…,N2,獲取直線y=kjx+bj的第一個像素點(xj1,yj1)和最后一個像素點(xj2,yj2),在y方向上按將直線進行分段,獲取對應的x方向上的長度,并將其放入LineHist數(shù)組中,采用聚類算法對LineHist數(shù)組進行聚類,將獲取的聚類值最大的兩條直線分別作為上邊界和下邊界;
左右邊界獲取模塊(37),用于分別掃描上邊界、下邊界,將上邊界的第一個像素點和下邊界的第一個像素點構(gòu)成的直線作為左邊界,將上邊界的最后一個像素點和下邊界的最后一個像素點構(gòu)成的直線作為右邊界;
前車窗區(qū)域提取模塊(38),用于將上邊界、左邊界、右邊界、下邊界圍成的矩形區(qū)域標記為前車窗區(qū)域。
所述駕駛位和副駕駛位區(qū)域提取模塊(4)進一步包括:
副駕駛位區(qū)域獲取模塊(41),用于根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置副駕駛位區(qū)域的左邊邊界為x=fwl+λ7*(fwr-fwl),右邊邊界為上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的副駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為副駕駛位區(qū)域;
駕駛位區(qū)域獲取模塊(42),用于根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置駕駛位區(qū)域的左邊邊界為右邊邊界為x=fwr-λ7*(fwr-fwl),上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為駕駛位區(qū)域。
所述副駕駛位安全帶佩戴識別模塊(6)進一步包括:
副駕駛位區(qū)域預處理模塊(61),用于將副駕駛位區(qū)域縮放為寬度為Width、高度為Height,若副駕駛位區(qū)域為彩色圖像,則對副駕駛位區(qū)域進行灰度化處理,獲取灰度化的副駕駛位區(qū)域;
副駕駛位區(qū)域特征提取模塊(62),用于利用安全帶佩戴識別模型提取灰度化的副駕駛位區(qū)域的特征;
副駕駛位安全帶佩戴類別判定模塊(63),用于計算副駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將副駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將副駕駛位區(qū)域標記為未佩戴安全帶。
所述駕駛位安全帶佩戴識別模塊(7)進一步包括:
駕駛位區(qū)域預處理模塊(71),用于將駕駛位區(qū)域縮放為寬度為Width、高度為Height,若駕駛位區(qū)域為彩色圖像,則對駕駛位區(qū)域進行灰度化處理,獲取灰度化的駕駛位區(qū)域;
駕駛位區(qū)域特征提取模塊(72),用于利用安全帶佩戴識別模型提取灰度化的駕駛位區(qū)域的特征;
駕駛位安全帶佩戴類別判定模塊(73),用于計算駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將駕駛位區(qū)域標記為未佩戴安全帶。
與現(xiàn)有的安全帶佩戴識別技術(shù)相比,本發(fā)明的一種安全帶佩戴識別方法及裝置采用深度卷積神經(jīng)網(wǎng)絡進行訓練和識別,能夠同時識別出駕駛位與副駕駛位的安全帶佩戴情況,且識別準確率高。
附圖說明
圖1示出了按照本發(fā)明的一種安全帶佩戴識別方法的流程圖。
圖2示出了按照本發(fā)明的一種安全帶佩戴識別裝置的框架圖。
具體實施方式
為使貴審查員能進一步了解本發(fā)明的結(jié)構(gòu)、特征及其他目的,現(xiàn)結(jié)合所附較佳實施例詳細說明如下,所說明的較佳實施例僅用于說明本發(fā)明的技術(shù)方案,并非限定本發(fā)明。
圖1給出了按照本發(fā)明的一種安全帶佩戴識別方法的流程圖。如圖1所示,按照本發(fā)明的一種安全帶佩戴識別方法包括:
第一步驟S1,選取標簽的正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,采用深度卷積神經(jīng)網(wǎng)絡進行訓練,獲取訓練好的安全帶佩戴識別模型;
第二步驟S2,通過車牌定位算法獲取場景圖像中的車牌區(qū)域;
第三步驟S3,根據(jù)車牌區(qū)域獲取前車窗區(qū)域;
第四步驟S4,根據(jù)前車窗區(qū)域提取駕駛位區(qū)域和副駕駛位區(qū)域;
第五步驟S5,采用人臉檢測算法檢測副駕駛位區(qū)域,若副駕駛位區(qū)域存在人臉,則轉(zhuǎn)入第六步驟S6,否則直接轉(zhuǎn)入第七步驟S7;
第六步驟S6,利用訓練好的安全帶佩戴識別模型對副駕駛位區(qū)域進行識別,若識別出副駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對副駕駛位區(qū)域進行標注;
第七步驟S7,利用訓練好的安全帶佩戴識別模型對駕駛位區(qū)域進行識別,若識別出駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對駕駛位區(qū)域進行標注;以及
第八步驟S8,輸出標注異常佩戴安全帶或者未佩戴安全帶的區(qū)域。
所述第一步驟S1進一步包括:
樣本選取步驟S11,分別選取SINum1個正常佩戴安全帶的駕駛位和副駕駛位圖像、SINum2個異常佩戴安全帶的駕駛位和副駕駛位圖像、SINum3個未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,并將樣本圖像縮放為寬度為Width、高度為Height,若樣本圖像為彩色圖像,對樣本圖像進行灰度化處理,獲取灰度的樣本圖像;
初步樣本訓練步驟S12,利用深度卷積神經(jīng)網(wǎng)絡對灰度的樣本圖像進行訓練,獲取初步訓練好的模型;
二次訓練步驟S13,選取TINum個由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成的測試圖像,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像,利用初步訓練好的模型對灰度的測試圖像進行反復訓練,直至模型收斂,將收斂的模型作為安全帶佩戴識別模型輸出。
所述二次訓練步驟S13進一步包括:
測試圖像選取步驟S131,選取TINum個測試圖像,測試圖像由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像;
訓練特征提取步驟S132,根據(jù)初步訓練好的模型提取灰度的測試圖像的特征;
訓練分類判定步驟S133,計算灰度的測試圖像的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,選取Simik值最大的安全帶佩戴類別作為候選安全帶佩戴類別,k表示第k個類別,k={1,2,3};
反復訓練步驟S134,計算判定結(jié)果與真實結(jié)果的誤差,利用反向傳播算法來訓練模型,重復訓練特征提取步驟S132和訓練分類判定步驟S133,直至該模型收斂,將收斂的模型作為安全帶佩戴識別模型并輸出。
所述異常佩戴安全帶是指沒有按照規(guī)定的標準佩戴安全帶。
所述SINuml≥1000,SINum2≥1000,SINum3≥1000,Width∈[64,192],Height∈[64,192],TINum≥1000。
優(yōu)選地,SINum1≥5000,SINum2≥5000,SINum3≥5000,Width選為128,Height選為128,TNum≥5000。
優(yōu)選地,所述深度卷積神經(jīng)網(wǎng)絡包括:
輸入層,輸入Width*Height的圖像;
第一層卷積層,輸出Th_CK1個卷積核,卷積核的大小為CKSi1*CKSi1、步長為1;
第一層采樣層,采用池化算法輸出大小為KSi*KSi、步長為KSi的采樣核;
第二層卷積層,輸出Th_CK2個卷積核,卷積核的大小為CKSi2*CKSi2、步長為1;
第二層采樣層,采用池化算法輸出大小為KSi*KSi、步長為KSi的采樣核;
第一層全連接層,采用激活函數(shù),輸出Th_Neur個神經(jīng)元;
第二層全連接層,輸出3個神經(jīng)元,即3個安全帶佩戴類別。
其中,Width和Height分別為輸入圖像的寬度和高度,Width∈[64,192],Height∈[64,192]。Th_CK1∈[6,20],CKSi1∈[3,7],KSi∈[2,4],Th_CK2∈[10,40],CKSi2∈[3,5],Th_Neur∈[80,10000]。
優(yōu)選地,Width選為128,Height選為128,Th_CK1選為16,CKSi1選為5,KSi選為2,Th_CK2選為32,CKSi2選為3,Th_Neur選為84。
所述第一層采樣層和第二層采樣層中的池化算法可以通過現(xiàn)有的池化算法實現(xiàn),例如最大池化法、平均池化法、隨機池化法。優(yōu)選地,在第一層采樣層和第二層采樣層中采用最大池化法。
所述第一層全連接層中激活函數(shù)為現(xiàn)有的激活函數(shù),例如ReLU、sigmoid函數(shù)、tanh函數(shù)。優(yōu)選地,在第一層全連接層中采用ReLU作為激活函數(shù)。ReLU全稱為Rectified Linear Units,中文譯為修正線性單元,可以參考文獻“Taming the ReLU with Parallel Dither in a Deep Neural Network.AJR Simpson.Computer Science,2015”。
所述第二步驟S2中的車牌定位算法可以通過現(xiàn)有的車牌定位或車牌檢測算法實現(xiàn)。例如,“李文舉,梁德群,張旗,樊鑫.基于邊緣顏色對的車牌定位新方法.《計算機學報》,2004,27(2):204-208”。所述場景圖像可以是通過現(xiàn)有的圖像傳感器采集某一路段的實際圖像。
所述第三步驟S3進一步包括:
候選前車窗區(qū)域獲取步驟S31,根據(jù)車牌區(qū)域獲取車牌區(qū)域的左邊邊界x=pl、右邊邊界x=pr、上邊邊界y=pt、下邊邊界y=pb,設置候選前車窗區(qū)域的左邊邊界為右邊邊界為上邊邊界為下邊邊界為并將設置的候選前車窗區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為候選前車窗區(qū)域,Wp為車牌區(qū)域的寬度,W為采集圖像的寬度,λ3<λ2;
豎直邊緣獲取步驟S32,將候選前車窗區(qū)域進行灰度化處理,獲取灰度的候選區(qū)域,采用濾波器,獲取灰度的候選區(qū)域的豎直邊緣圖像;
二值圖像獲取步驟S33,采用閾值Th_F對數(shù)值邊緣圖像進行分割,獲取二值圖像;
直線檢測步驟S34,采用Hough變換直線檢測算法對二值圖像進行處理,獲取檢測的直線序列y=kix+bi,i=1,2,…,N1,N1為直線的數(shù)量;
直線篩選步驟S35,若arctan|ki|≤Th_θ,則保留該直線,否則刪除該直線,由此得到剩余的直線序列y=kjx+bj,j=1,2,…,N2,N2為剩余直線的數(shù)量;
上下邊界獲取步驟S36,掃描每條直線y=kjx+bj,j=1,2,…,N2,獲取直線y=kjx+bj的第一個像素點(xj1,yj1)和最后一個像素點(xj2,yj2),在y方向上按將直線進行分段,獲取對應的x方向上的長度,并將其放入LineHist數(shù)組中,采用聚類算法對LineHist數(shù)組進行聚類,將獲取的聚類值最大的兩條直線分別作為上邊界和下邊界;
左右邊界獲取步驟S37,分別掃描上邊界、下邊界,將上邊界的第一個像素點和下邊界的第一個像素點構(gòu)成的直線作為左邊界,將上邊界的最后一個像素點和下邊界的最后一個像素點構(gòu)成的直線作為右邊界;
前車窗區(qū)域提取步驟S38,將上邊界、左邊界、右邊界、下邊界圍成的矩形區(qū)域標記為前車窗區(qū)域。
所述候選前車窗區(qū)域獲取步驟S31中λ1∈[1.2,1.8],λ2∈[4.2,4.8],λ3∈[0.3,0.8]。優(yōu)選地,λ1選為1.5,λ2選為4.5,λ3選為0.5。
所述二值圖像獲取步驟S33中Th_F∈[10,30]。優(yōu)選地,Th_F選為20。
所述直線檢測步驟S34中Hough變換直線檢測算法通過現(xiàn)有的技術(shù)實現(xiàn)。例如,“段汝嬌,趙偉,黃松嶺,陳建業(yè).一種基于改進Hough變換的直線快速檢測算法.《儀器儀表學報》,2010,31(12):2774-2780”。
所述直線篩選步驟S35中Th_θ∈[5°,15°]。優(yōu)選地。Th_θ選為10°。
所述上下邊界獲取步驟S36中Th_S為采樣間隔,Th_S∈[5,20]。優(yōu)選地,Th_S選為12。所述聚類算法通過現(xiàn)有的聚類算法實現(xiàn)。
所述第四步驟S4進一步包括:
副駕駛位區(qū)域獲取步驟S41,根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置副駕駛位區(qū)域的左邊邊界為x=fwl+λ7*(fwr-fwl),右邊邊界為上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的副駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為副駕駛位區(qū)域;
駕駛位區(qū)域獲取步驟S42,根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置駕駛位區(qū)域的左邊邊界為右邊邊界為x=fwr-λ7*(fwr-fwl),上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為駕駛位區(qū)域。
所述λ7∈[0.02,0.15],λ8∈[0.1,0.2]。優(yōu)選地,λ7選為0.08,λ8選0.15。
所述第五步驟S5中人臉檢測算法可以通過現(xiàn)有的人臉檢測算法實現(xiàn)。例如,“郭志波,華繼釗,嚴云洋,陳才扣,楊靜宇.基于雙閾值繼承型AdaBoost算法的人臉快速檢測.《數(shù)據(jù)采集與處理》,2008,23(3):306-310”。
所述第六步驟S6進一步包括:
副駕駛位區(qū)域預處理步驟S61,將副駕駛位區(qū)域縮放為寬度為Width、高度為Height,若副駕駛位區(qū)域為彩色圖像,則對副駕駛位區(qū)域進行灰度化處理,獲取灰度化的副駕駛位區(qū)域;
副駕駛位區(qū)域特征提取步驟S62,利用安全帶佩戴識別模型提取灰度化的副駕駛位區(qū)域的特征;
副駕駛位安全帶佩戴類別判定步驟S63,計算副駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將副駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將副駕駛位區(qū)域標記為未佩戴安全帶。
所述第七步驟S7進一步包括:
駕駛位區(qū)域預處理步驟S71,將駕駛位區(qū)域縮放為寬度為Width、高度為Height,若駕駛位區(qū)域為彩色圖像,則對駕駛位區(qū)域進行灰度化處理,獲取灰度化的駕駛位區(qū)域;
駕駛位區(qū)域特征提取步驟S72,利用安全帶佩戴識別模型提取灰度化的駕駛位區(qū)域的特征;
駕駛位安全帶佩戴類別判定步驟S73,計算駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將駕駛位區(qū)域標記為未佩戴安全帶。
所述第八步驟S8進一步為將標注的異常佩戴安全帶或者未佩戴安全帶的副駕駛位區(qū)域或者駕駛位區(qū)域輸出。
圖2給出了按照本發(fā)明的一種安全帶佩戴識別裝置的框架圖。如圖2所示,按照本發(fā)明的一種安全帶佩戴識別裝置包括:
安全帶佩戴識別模型訓練模塊1,用于選取標簽的正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,采用深度卷積神經(jīng)網(wǎng)絡進行訓練,獲取訓練好的安全帶佩戴識別模型;
車牌區(qū)域獲取模塊2,用于通過車牌定位算法獲取場景圖像中的車牌區(qū)域;
前車窗區(qū)域獲取模塊3,用于根據(jù)車牌區(qū)域獲取前車窗區(qū)域;
駕駛位和副駕駛位區(qū)域提取模塊4,用于根據(jù)前車窗區(qū)域提取駕駛位區(qū)域和副駕駛位區(qū)域;
副駕駛位人臉檢測模塊5,用于采用人臉檢測算法檢測副駕駛位區(qū)域,若副駕駛位區(qū)域存在人臉,則轉(zhuǎn)入副駕駛位安全帶佩戴識別模塊6,否則直接轉(zhuǎn)入駕駛位安全帶佩戴識別模塊7;
副駕駛位安全帶佩戴識別模塊6,用于利用訓練好的安全帶佩戴識別模型對副駕駛位區(qū)域進行識別,若識別出副駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對副駕駛位區(qū)域進行標注;
駕駛位安全帶佩戴識別模塊7,用于利用訓練好的安全帶佩戴識別模型對駕駛位區(qū)域進行識別,若識別出駕駛位區(qū)域異常佩戴安全帶或者未佩戴安全帶,則對駕駛位區(qū)域進行標注;以及
標注區(qū)域輸出模塊8,用于輸出標注異常佩戴安全帶或者未佩戴安全帶的區(qū)域。
所述安全帶佩戴識別模型訓練模塊1進一步包括:
樣本選取模塊11,用于分別選取SINum1個正常佩戴安全帶的駕駛位和副駕駛位圖像、SINum2個異常佩戴安全帶的駕駛位和副駕駛位圖像、SINum3個未佩戴安全帶的駕駛位和副駕駛位圖像作為樣本圖像,并將樣本圖像縮放為寬度為Width、高度為Height,若樣本圖像為彩色圖像,對樣本圖像進行灰度化處理,獲取灰度的樣本圖像;
初步樣本訓練模塊12,用于利用深度卷積神經(jīng)網(wǎng)絡對灰度的樣本圖像進行訓練,獲取初步訓練好的模型;
二次訓練模塊13,用于選取TINum個由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成的測試圖像,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像,利用初步訓練好的模型對灰度的測試圖像進行反復訓練,直至模型收斂,將收斂的模型作為安全帶佩戴識別模型輸出。
所述二次訓練模塊13進一步包括:
測試圖像選取模塊131,用于選取TINum個測試圖像,測試圖像由正常佩戴安全帶、異常佩戴安全帶、未佩戴安全帶的駕駛位和副駕駛位圖像組成,并將測試圖像縮放為寬度Width、高度為Height,若測試圖像為彩色圖像,對測試圖像進行灰度化處理,獲取灰度的測試圖像;
訓練特征提取模塊132,用于根據(jù)初步訓練好的模型提取灰度的測試圖像的特征;
訓練分類判定模塊133,用于計算灰度的測試圖像的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,選取Simik值最大的安全帶佩戴類別作為候選安全帶佩戴類別,k表示第k個類別,k={1,2,3};
反復訓練模塊134,用于計算判定結(jié)果與真實結(jié)果的誤差,利用反向傳播算法來訓練模型,重復訓練特征提取模塊132和訓練分類判定模塊133,直至該模型收斂,將收斂的模型作為安全帶佩戴識別模型并輸出。
所述異常佩戴安全帶是指沒有按照規(guī)定的標準佩戴安全帶。
所述SINum1≥1000,SINum2≥1000,SINum3≥1000,Width∈[64,192],Height∈[64,192],TINum≥1000。
優(yōu)選地,SINum1≥5000,SINum2≥5000,SINum3≥5000,Width選為128,Height選為128,TNum≥5000。
優(yōu)選地,所述深度卷積神經(jīng)網(wǎng)絡包括:
輸入層,輸入Width*Height的圖像;
第一層卷積層,輸出Th_CK1個卷積核,卷積核的大小為CKSi1*CKSi1、步長為1;
第一層采樣層,采用池化算法輸出大小為KSi*KSi、步長為KSi的采樣核;
第二層卷積層,輸出Th_CK2個卷積核,卷積核的大小為CKSi2*CKSi2、步長為1;
第二層采樣層,采用池化算法輸出大小為KSi*KSi、步長為KSi的采樣核;
第一層全連接層,采用激活函數(shù),輸出Th_Neur個神經(jīng)元;
第二層全連接層,輸出3個神經(jīng)元,即3個安全帶佩戴類別。
其中,Width和Height分別為輸入圖像的寬度和高度,Width∈[64,192],Height∈[64,192]。Th_CK1∈[6,20],CKSi1∈[3,7],KSi∈[2,4],Th_CK2∈[10,40],CKSi2∈[3,5],Th_Neur∈[80,10000]。
優(yōu)選地,Width選為128,Height選為128,Th_CK1選為16,CKSi1選為5,KSi選為2,Th_CK2選為32,CKSi2選為3,Th_Neur選為84。
所述第一層采樣層和第二層采樣層中的池化算法可以通過現(xiàn)有的池化算法實現(xiàn),例如最大池化法、平均池化法、隨機池化法。優(yōu)選地,在第一層采樣層和第二層采樣層中采用最大池化法。
所述第一層全連接層中激活函數(shù)為現(xiàn)有的激活函數(shù),例如ReLU、sigmoid函數(shù)、tanh函數(shù)。優(yōu)選地,在第一層全連接層中采用ReLU作為激活函數(shù)。ReLU全稱為Rectified Linear Units,中文譯為修正線性單元,可以參考文獻“Taming the ReLU with Parallel Dither in a Deep Neural Network.AJR Simpson.Computer Science,2015”。
所述車牌區(qū)域獲取模塊2中的車牌定位算法可以通過現(xiàn)有的車牌定位或車牌檢測算法實現(xiàn)。例如,“李文舉,梁德群,張旗,樊鑫.基于邊緣顏色對的車牌定位新方法.《計算機學報》,2004,27(2):204-208”。所述場景圖像可以是通過現(xiàn)有的圖像傳感器采集某一路段的實際圖像。
所述前車窗區(qū)域獲取模塊3進一步包括:
候選前車窗區(qū)域獲取模塊31,用于根據(jù)車牌區(qū)域獲取車牌區(qū)域的左邊邊界x=pl、右邊邊界x=pr、上邊邊界y=pt、下邊邊界y=pb,設置候選前車窗區(qū)域的左邊邊界為右邊邊界為上邊邊界為下邊邊界為并將設置的候選前車窗區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為候選前車窗區(qū)域,Wp為車牌區(qū)域的寬度,W為采集圖像的寬度,λ3<λ2;
豎直邊緣獲取模塊32,用于將候選前車窗區(qū)域進行灰度化處理,獲取灰度的候選區(qū)域,采用濾波器,獲取灰度的候選區(qū)域的豎直邊緣圖像;
二值圖像獲取模塊33,用于采用閾值Th_F對數(shù)值邊緣圖像進行分割,獲取二值圖像;
直線檢測模塊34,用于采用Hough變換直線檢測算法對二值圖像進行處理,獲取檢測的直線序列y=kix+bi,i=1,2,…,N1,N1為直線的數(shù)量;
直線篩選模塊35,用于若arctan|ki|≤Th_θ,則保留該直線,否則刪除該直線,由此得到剩余的直線序列y=kjx+bj,j=1,2,…,N2,N2為剩余直線的數(shù)量;
上下邊界獲取模塊36,用于掃描每條直線y=kjx+bj,j=1,2,…,N2,獲取直線y=kjx+bj的第一個像素點(xj1,yj1)和最后一個像素點(xj2,yj2),在y方向上按將直線進行分段,獲取對應的x方向上的長度,并將其放入LineHist數(shù)組中,采用聚類算法對LineHist數(shù)組進行聚類,將獲取的聚類值最大的兩條直線分別作為上邊界和下邊界;
左右邊界獲取模塊37,用于分別掃描上邊界、下邊界,將上邊界的第一個像素點和下邊界的第一個像素點構(gòu)成的直線作為左邊界,將上邊界的最后一個像素點和下邊界的最后一個像素點構(gòu)成的直線作為右邊界;
前車窗區(qū)域提取模塊38,用于將上邊界、左邊界、右邊界、下邊界圍成的矩形區(qū)域標記為前車窗區(qū)域。
所述候選前車窗區(qū)域獲取模塊31中λ1∈[1.2,1.8],λ2∈[4.2,4.8],λ3∈[0.3,0.8]。優(yōu)選地,λ1選為1.5,λ2選為4.5,λ3選為0.5。
所述二值圖像獲取模塊33中Th_F∈[10,30]。優(yōu)選地,Th_F選為20。
所述直線檢測模塊34中Hough變換直線檢測算法通過現(xiàn)有的技術(shù)實現(xiàn)。例如,“段汝嬌,趙偉,黃松嶺,陳建業(yè).一種基于改進Hough變換的直線快速檢測算法.《儀器儀表學報》,2010,31(12):2774-2780”。
所述直線篩選模塊35中Th_θ∈[5°,15°]。優(yōu)選地。Th_θ選為10°。
所述上下邊界獲取模塊36中Th_S為采樣間隔,Th_S∈[5,20]。優(yōu)選地,Th_S選為12。所述聚類算法通過現(xiàn)有的聚類算法實現(xiàn)。
所述駕駛位和副駕駛位區(qū)域提取模塊4進一步包括:
副駕駛位區(qū)域獲取模塊41,用于根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置副駕駛位區(qū)域的左邊邊界為x=fwl+λ7*(fwr-fwl),右邊邊界為上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的副駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為副駕駛位區(qū)域;
駕駛位區(qū)域獲取模塊42,用于根據(jù)前車窗區(qū)域的左邊邊界x=fwl、右邊邊界x=fwr、上邊邊界y=fwt、下邊邊界y=fwb,設置駕駛位區(qū)域的左邊邊界為右邊邊界為x=fwr-λ7*(fwr-fwl),上邊邊界為y=fwt,下邊邊界為y=fwb,并將設置的駕駛位區(qū)域的左邊邊界、右邊邊界、上邊邊界、下邊邊界所圍成的矩形區(qū)域標記為駕駛位區(qū)域。
所述λ7∈[0.02,0.15],λ8∈[0.1,0.2]。優(yōu)選地,λ7選為0.08,λ8選0.15。
所述副駕駛位人臉檢測模塊5中人臉檢測算法可以通過現(xiàn)有的人臉檢測算法實現(xiàn)。例如,“郭志波,華繼釗,嚴云洋,陳才扣,楊靜宇.基于雙閾值繼承型AdaBoost算法的人臉快速檢測.《數(shù)據(jù)采集與處理》,2008,23(3):306-310”。
所述副駕駛位安全帶佩戴識別模塊6進一步包括:
副駕駛位區(qū)域預處理模塊61,用于將副駕駛位區(qū)域縮放為寬度為Width、高度為Height,若副駕駛位區(qū)域為彩色圖像,則對副駕駛位區(qū)域進行灰度化處理,獲取灰度化的副駕駛位區(qū)域;
副駕駛位區(qū)域特征提取模塊62,用于利用安全帶佩戴識別模型提取灰度化的副駕駛位區(qū)域的特征;
副駕駛位安全帶佩戴類別判定模塊63,用于計算副駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將副駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將副駕駛位區(qū)域標記為未佩戴安全帶。
所述駕駛位安全帶佩戴識別模塊7進一步包括:
駕駛位區(qū)域預處理模塊71,用于將駕駛位區(qū)域縮放為寬度為Width、高度為Height,若駕駛位區(qū)域為彩色圖像,則對駕駛位區(qū)域進行灰度化處理,獲取灰度化的駕駛位區(qū)域;
駕駛位區(qū)域特征提取模塊72,用于利用安全帶佩戴識別模型提取灰度化的駕駛位區(qū)域的特征;
駕駛位安全帶佩戴類別判定模塊73,用于計算駕駛位區(qū)域的特征與正常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi1、與異常佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi2、以及與未佩戴安全帶的駕駛位和副駕駛位圖像的特征的相似度Simi3,比較Simi1、Simi2、Simi3三個值的大小,若Simi2值最大,則將駕駛位區(qū)域標記為異常佩戴安全帶,若Simi3值最大,則將駕駛位區(qū)域標記為未佩戴安全帶。
所述標注區(qū)域輸出模塊8進一步為用于將標注的異常佩戴安全帶或者未佩戴安全帶的副駕駛位區(qū)域或者駕駛位區(qū)域輸出。
與現(xiàn)有的安全帶佩戴識別技術(shù)相比,本發(fā)明的一種安全帶佩戴識別方法及裝置采用深度卷積神經(jīng)網(wǎng)絡進行訓練和識別,能夠同時識別出駕駛位與副駕駛位的安全帶佩戴情況,且識別準確率高。
以上所述,僅為本發(fā)明的較佳實施例而已,并非用于限定本發(fā)明的保護范圍,應當理解,本發(fā)明并不限于這里所描述的實現(xiàn)方案,這些實現(xiàn)方案描述的目的在于幫助本領(lǐng)域中的技術(shù)人員實踐本發(fā)明。任何本領(lǐng)域中的技術(shù)人員很容易在不脫離本發(fā)明精神和范圍的情況下進行進一步的改進和完善,因此本發(fā)明只受到本發(fā)明權(quán)利要求的內(nèi)容和范圍的限制,其意圖涵蓋所有包括在由所附權(quán)利要求所限定的本發(fā)明精神和范圍內(nèi)的備選方案和等同方案。