專利名稱:一種駕駛員行車(chē)中手持電話違規(guī)行為檢測(cè)方法
技術(shù)領(lǐng)域:
本發(fā)明涉及一種駕駛員行車(chē)中手持電話違規(guī)行為檢測(cè)方法,更具體的說(shuō),本發(fā)明是一種利用圖像處理和模式識(shí)別算法對(duì)駕駛員行車(chē)中手持電話的違規(guī)行為進(jìn)行實(shí)時(shí)檢測(cè)的方法,屬于機(jī)器視覺(jué)技術(shù)領(lǐng)域。
背景技術(shù):
在駕駛過(guò)程中,對(duì)路況的選擇和判斷使得駕駛?cè)俗⒁饬Ω叨燃?,若此時(shí)撥打接聽(tīng)手持電話,勢(shì)必會(huì)分散一部分注意力,降低對(duì)行駛環(huán)境的感知能力,相應(yīng)的就會(huì)減弱對(duì)路面情況的判斷,反映速度降低,極易引發(fā)交通事故。正常駕駛時(shí),駕駛?cè)穗p手操縱方向盤(pán),撥打接聽(tīng)手持電話時(shí),使用一只手操縱方向盤(pán),手動(dòng)擋車(chē)換擋時(shí),雙手暫時(shí)離開(kāi)方向盤(pán),若此時(shí)發(fā)生危急情況,駕駛?cè)藖?lái)不及打方向盤(pán),極易引發(fā)交通事故。在駕駛過(guò)程中,駕駛?cè)藫艽蚪勇?tīng)手持電話,通話的內(nèi)容可能會(huì)影響到駕駛?cè)说那榫w,造成安全隱患。哈佛大學(xué)風(fēng)險(xiǎn)分析中心2009年的研究報(bào)告指出,美國(guó)每年由于駕駛中使用手持電話直接或間接導(dǎo)致的交通事故占到了所有事故的6%,約63. 6萬(wàn)起,累計(jì)34. 2萬(wàn)人受傷、12000重傷、2600人死亡。英國(guó)一家交通研究所公布的測(cè)試結(jié)果顯示,開(kāi)車(chē)時(shí)使用手機(jī), 大腦的反應(yīng)速度比酒后駕車(chē)時(shí)慢30%,開(kāi)車(chē)打手機(jī)發(fā)生車(chē)禍的風(fēng)險(xiǎn)比正常駕駛時(shí)高4倍以上,有70%的致命事故是駕駛?cè)俗⒁饬Σ患性斐傻?。因此?duì)于駕駛過(guò)程中撥打接聽(tīng)手持電話行為,各國(guó)交通法作出了相應(yīng)的規(guī)定。日本交法規(guī)定,駕駛普通機(jī)動(dòng)車(chē)輛使用手機(jī)者, 罰款6000日元;駕駛大型機(jī)動(dòng)車(chē)輛使用手機(jī)者,罰款7000日元。新加坡交法規(guī)定,駕駛過(guò)程中使用電話,初犯者罰款1000新元,監(jiān)禁6個(gè)月;再犯者最高罰款2000新元,監(jiān)禁I年。 《中華人民共和國(guó)道路交通安全法實(shí)施條例》第六十二條第三項(xiàng)規(guī)定駕駛機(jī)動(dòng)車(chē)不得有撥打接聽(tīng)手持電話、觀看電視等妨礙安全駕駛的行為。目前國(guó)內(nèi)外對(duì)行車(chē)中手持電話的行為和危害研究較多。加拿大相關(guān)研究人員分析了駕駛?cè)藫艽蚴謾C(jī)時(shí)的反應(yīng)時(shí)間、車(chē)輛橫向位置、車(chē)頭間距以及車(chē)速等指標(biāo)的變化規(guī)律。瑞典及新西蘭等相關(guān)研究人員及機(jī)構(gòu)研究了駕駛?cè)嗽诓煌煌ōh(huán)境下,撥打接聽(tīng)手持電話、 免提通話以及不進(jìn)行通話3種狀態(tài)的駕駛行為表現(xiàn)。盡管?chē)?guó)內(nèi)外對(duì)于撥打接聽(tīng)手持電話對(duì)于駕駛行為的影響開(kāi)展了大量的研究,但目前尚未發(fā)現(xiàn)對(duì)駕駛員行車(chē)中手持電話違規(guī)行為檢測(cè)方法的研究和報(bào)導(dǎo)。
發(fā)明內(nèi)容
本發(fā)明的目的是提出一種對(duì)駕駛員行車(chē)中手持電話違規(guī)行為的檢測(cè)方法,對(duì)駕駛員在行車(chē)狀態(tài)中的撥打接聽(tīng)手持電話行為進(jìn)行檢測(cè)和預(yù)警,減少駕駛?cè)诵熊?chē)中撥打接聽(tīng)手持電話的行為,以防止因使用手機(jī)行為而造成的交通安全事故,提高行駛安全性。本發(fā)明提出駕駛員行車(chē)中手持電話違規(guī)行為的檢測(cè)方法,包括以下步驟(I)采集汽車(chē)駕駛員的頭部圖像,設(shè)定一個(gè)人臉區(qū)域隊(duì)列,利用人臉檢測(cè)算法從采集的每幀頭部圖像中檢測(cè)人臉,對(duì)檢測(cè)結(jié)果進(jìn)行判斷,若檢測(cè)到人臉,則根據(jù)檢測(cè)到的人臉定位出矩形人臉區(qū)域,用定位出的矩形人臉區(qū)域更新人臉區(qū)域隊(duì)列,用定位出的矩形人臉區(qū)域作為矩形特征人臉區(qū)域;若檢測(cè)不到人臉,則對(duì)人臉區(qū)域隊(duì)列進(jìn)行判斷,若人臉區(qū)域隊(duì)列空,則繼續(xù)檢測(cè)人臉,若人臉區(qū)域隊(duì)列不空,則以人臉區(qū)域隊(duì)列中的矩形人臉區(qū)域平均值作為矩形特征人臉區(qū)域;(2)以上述矩形特征人臉區(qū)域的左上角為原點(diǎn),根據(jù)矩形特征人臉區(qū)域的長(zhǎng)和寬的比例移動(dòng)原點(diǎn),定位出矩形左側(cè)耳部區(qū)域的左上頂點(diǎn),并根據(jù)矩形特征人臉區(qū)域的長(zhǎng)和寬定位出矩形左側(cè)耳部區(qū)域的大小;根據(jù)矩形左側(cè)耳部區(qū)域的左上頂點(diǎn)和大小,定位出矩形左側(cè)耳部區(qū)域;將矩形左側(cè)耳部區(qū)域按矩形特征人臉區(qū)域縱軸鏡像,定位出矩形右側(cè)耳部區(qū)域,對(duì)定位出的矩形耳部區(qū)域進(jìn)行圖像歸一化處理,得到大小一致的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像;(3)分別將圖像歸一化處理后的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像變換為灰度圖像,并對(duì)變換后的灰度圖像進(jìn)行梯度處理,得到灰度圖像各個(gè)像素的梯度分量,再通過(guò)極坐標(biāo)化,得到灰度圖像各個(gè)像素的梯度方向值,采用直方圖投影的方式,將梯度方向均分為n份,得到n個(gè)角度區(qū)間,分別將矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像的梯度方向值投影到n個(gè)角度區(qū)間中去,分別得到與矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像相應(yīng)的n個(gè)角度區(qū)間的頻數(shù),分別以n個(gè)角度區(qū)間的頻數(shù)作為檢測(cè)手持電話的左側(cè)耳部區(qū)域特征向量和右側(cè)耳部區(qū)域特征向量;(4)根據(jù)上述左側(cè)耳部區(qū)域特征向量和右側(cè)耳部區(qū)域特征向量,利用模式識(shí)別算法,分別對(duì)左手手持電話和右手手持電話進(jìn)行識(shí)別,得到當(dāng)前幀頭部圖像的的識(shí)別結(jié)果,設(shè)定一個(gè)左側(cè)手持電話識(shí)別結(jié)果隊(duì)列和一個(gè)右側(cè)手持電話識(shí)別結(jié)果隊(duì)列,用當(dāng)前幀頭部圖像的識(shí)別結(jié)果更新相應(yīng)左側(cè)手持電話識(shí)別結(jié)果隊(duì)列或右側(cè)手持電話識(shí)別結(jié)果隊(duì)列,并對(duì)更新后的隊(duì)列進(jìn)行邏輯判別,根據(jù)判別結(jié)果發(fā)出預(yù)警信號(hào),邏輯判別過(guò)程如下(4-1)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前秒內(nèi)的數(shù)據(jù)進(jìn)行判斷, 若在h秒內(nèi)大于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則發(fā)出預(yù)警信號(hào),若在A秒內(nèi)小于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則重新開(kāi)始判斷,其中h為設(shè)定的第一時(shí)間閾值,取值范圍為3 5,a為設(shè)定的第一概率閾值,取值范圍為65 85 ;(4-2)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t2秒內(nèi)的數(shù)據(jù)進(jìn)行判斷, 若在t2秒內(nèi)大于b%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則保持預(yù)警信號(hào),若在t2秒內(nèi)小于b%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行步驟(4-3),其中t2為設(shè)定的第二時(shí)間閾值,取值范圍為0. 5 3,b為設(shè)定的第二概率閾值,取值范圍為60 80 ;(4-3)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t3秒內(nèi)的數(shù)據(jù)進(jìn)行判斷, 若在&秒內(nèi)大于的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回步驟(4-2),若在&秒內(nèi)小于的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行步驟(4-4),其中t3為設(shè)定的第三時(shí)間閾值,取值范圍為0. 5 3,c為設(shè)定的第三概率閾值,取值范圍為55 75 ;(4-4)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t4秒內(nèi)的數(shù)據(jù)進(jìn)行判斷, 若在t4秒內(nèi)大于d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回步驟(4-2),若在t4秒內(nèi)小于d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則中斷預(yù)警信號(hào);其中t4為設(shè)定的第四時(shí)間閾值,取值范圍為I 4,d為設(shè)定的第四概率閾值,取值范圍為55 75。本發(fā)明提出的一種駕駛員行車(chē)中手持電話違規(guī)行為檢測(cè)方法,其優(yōu)點(diǎn)是,本發(fā)明方法是一種非接觸式檢測(cè)方法,不會(huì)對(duì)駕駛員的正常駕駛行為造成干擾;只需要在汽車(chē)儀表盤(pán)附近安裝一個(gè)攝像頭用于獲取駕駛員頭部圖像,結(jié)構(gòu)簡(jiǎn)單,容易實(shí)施;本發(fā)明方法經(jīng)過(guò)大量實(shí)車(chē)數(shù)據(jù)測(cè)試,算法實(shí)時(shí)性好,識(shí)別精度高,能夠?qū)︸{駛?cè)俗笫趾陀沂謸艽蚪勇?tīng)電話行為進(jìn)行檢測(cè)和預(yù)警,有效減少因行車(chē)中撥打接聽(tīng)電話而造成的交通事故,從而提高駕駛安全性。
圖I是本發(fā)明方法的流程框圖。圖2是本發(fā)明方法中人臉區(qū)域定位和耳部區(qū)域定位示意圖。圖2中,I是矩形左側(cè)耳部區(qū)域,2是矩形特征人臉區(qū)域縱軸,3是人臉,4是矩形特征人臉區(qū)域,5是矩形右側(cè)耳部區(qū)域。
具體實(shí)施例方式本發(fā)明提出駕駛員行車(chē)中手持電話違規(guī)行為的檢測(cè)方法,其流程框圖如圖I所示,包括以下步驟(I)采集汽車(chē)駕駛員的頭部圖像,設(shè)定一個(gè)人臉區(qū)域隊(duì)列,利用人臉檢測(cè)算法從采集的每幀頭部圖像中檢測(cè)人臉,對(duì)檢測(cè)結(jié)果進(jìn)行判斷,若檢測(cè)到人臉,則根據(jù)檢測(cè)到的人臉定位出矩形人臉區(qū)域,用定位出的矩形人臉區(qū)域更新人臉區(qū)域隊(duì)列,用定位出的矩形人臉區(qū)域作為矩形特征人臉區(qū)域;若檢測(cè)不到人臉,則對(duì)人臉區(qū)域隊(duì)列進(jìn)行判斷,若人臉區(qū)域隊(duì)列空,則繼續(xù)檢測(cè)人臉,若人臉區(qū)域隊(duì)列不空,則以人臉區(qū)域隊(duì)列中的矩形人臉區(qū)域平均值作為矩形特征人臉區(qū)域;(2)以上述矩形特征人臉區(qū)域的左上角為原點(diǎn),根據(jù)矩形特征人臉區(qū)域的長(zhǎng)和寬的比例移動(dòng)原點(diǎn),定位出矩形左側(cè)耳部區(qū)域的左上頂點(diǎn),并根據(jù)矩形特征人臉區(qū)域的長(zhǎng)和寬定位出矩形左側(cè)耳部區(qū)域的大??;根據(jù)矩形左側(cè)耳部區(qū)域的左上頂點(diǎn)和大小,定位出矩形左側(cè)耳部區(qū)域;將矩形左側(cè)耳部區(qū)域按矩形特征人臉區(qū)域縱軸鏡像,定位出矩形右側(cè)耳部區(qū)域,對(duì)定位出的矩形耳部區(qū)域進(jìn)行圖像歸一化處理,得到大小一致的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像;(3)分別將圖像歸一化處理后的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像變換為灰度圖像,并對(duì)變換后的灰度圖像進(jìn)行梯度處理,得到灰度圖像各個(gè)像素的梯度分量,再通過(guò)極坐標(biāo)化,得到灰度圖像各個(gè)像素的梯度方向值,采用直方圖投影的方式,將梯度方向均分為n份,得到n個(gè)角度區(qū)間,分別將矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像的梯度方向值投影到n個(gè)角度區(qū)間中去,分別得到與矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像相應(yīng)的n個(gè)角度區(qū)間的頻數(shù),分別以n個(gè)角度區(qū)間的頻數(shù)作為檢測(cè)手持電話的左側(cè)耳部區(qū)域特征向量和右側(cè)耳部區(qū)域特征向量;(4)根據(jù)上述左側(cè)耳部區(qū)域特征向量和右側(cè)耳部區(qū)域特征向量,利用模式識(shí)別算法,分別對(duì)左手手持電話和右手手持電話進(jìn)行識(shí)別,得到當(dāng)前幀頭部圖像的的識(shí)別結(jié)果,設(shè)定一個(gè)左側(cè)手持電話識(shí)別結(jié)果隊(duì)列和一個(gè)右側(cè)手持電話識(shí)別結(jié)果隊(duì)列,用當(dāng)前幀頭部圖像的識(shí)別結(jié)果更新相應(yīng)左側(cè)手持電話識(shí)別結(jié)果隊(duì)列或右側(cè)手持電話識(shí)別結(jié)果隊(duì)列,并對(duì)更新后的隊(duì)列進(jìn)行邏輯判別,根據(jù)判別結(jié)果發(fā)出預(yù)警信號(hào),邏輯判別過(guò)程如下
6
(4-1)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前h秒內(nèi)的數(shù)據(jù)進(jìn)行判斷, 若在h秒內(nèi)大于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則發(fā)出預(yù)警信號(hào),若在A秒內(nèi)小于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則重新開(kāi)始判斷,其中h為設(shè)定的第一時(shí)間閾值,取值范圍為3 5,a為設(shè)定的第一概率閾值,取值范圍為65 85 ;(4-2)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t2秒內(nèi)的數(shù)據(jù)進(jìn)行判斷, 若在t2秒內(nèi)大于b%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則保持預(yù)警信號(hào),若在t2秒內(nèi)小于b%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行步驟(4-3),其中t2為設(shè)定的第二時(shí)間閾值,取值范圍為0. 5 3,b為設(shè)定的第二概率閾值,取值范圍為60 80 ;(4-3)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t3秒內(nèi)的數(shù)據(jù)進(jìn)行判斷, 若在&秒內(nèi)大于的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回步驟(4-2),若在&秒內(nèi)小于的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行步驟(4-4),其中t3為設(shè)定的第三時(shí)間閾值,取值范圍為0. 5 3,c為設(shè)定的第三概率閾值,取值范圍為55 75 ; (4-4)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t4秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在&秒內(nèi)大于 d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回步驟(4-2),若在14秒內(nèi)小于d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則中斷預(yù)警信號(hào);其中〖4為設(shè)定的第四時(shí)間閾值,取值范圍為I 4,d為設(shè)定的第四概率閾值,取值范圍為55 75。圖2所示是本發(fā)明方法中人臉區(qū)域定位和耳部區(qū)域定位示意圖。本發(fā)明方法用安裝在汽車(chē)儀表盤(pán)的攝像頭采集汽車(chē)駕駛員的頭部圖像,利用AdaBoost人臉檢測(cè)算法從駕駛員頭部圖像中檢測(cè)人臉3,根據(jù)檢測(cè)到的人臉定位出矩形人臉區(qū)域4 ;由矩形人臉區(qū)域定位出左側(cè)耳部區(qū)域1,將矩形左側(cè)耳部區(qū)域I按矩形特征人臉區(qū)域縱軸2鏡像,定位出矩形右側(cè)耳部區(qū)域5。對(duì)定位出的左側(cè)耳部區(qū)域I和矩形右側(cè)耳部區(qū)域2進(jìn)行圖像歸一化處理, 得到大小一致的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像;分別從圖像歸一化處理后的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像中提取HOG特征,將該特征輸入由模式識(shí)別算法建立的手持電話識(shí)別模型中,手持電話識(shí)別模型對(duì)駕駛員頭部圖像中是否有手持電話進(jìn)行識(shí)別,并將識(shí)別結(jié)果存儲(chǔ)在手持電話結(jié)果隊(duì)列中;然后對(duì)手持電話結(jié)果隊(duì)列進(jìn)行邏輯判別,并根據(jù)邏輯判別結(jié)果對(duì)駕駛員進(jìn)行預(yù)警。以下結(jié)合圖I對(duì)本發(fā)明方法的具體實(shí)施方式
說(shuō)明如下采集駕駛員頭部圖像后,本發(fā)明方法實(shí)施例中采用常用的AdaBoost人臉檢測(cè)算法從采集的每巾貞頭部圖像中檢測(cè)人臉。AdaBoost算法,全稱為Adaptive Boosting,是現(xiàn)在使用最為廣泛的檢測(cè)算法之一。它的特點(diǎn)是將一系列弱分類器組合成為強(qiáng)分類器,從而避免了尋找強(qiáng)分類器。而且它使用級(jí)聯(lián)結(jié)構(gòu),可以很快拒絕掉絕大部分非正確結(jié)果,從而大大加快檢測(cè)速度。AdaBoost算法檢測(cè)到人臉后輸出一個(gè)包含整個(gè)人臉的矩形人臉框,本發(fā)明方法中將該矩形框叫做矩形人臉區(qū)域。AdaBoost算法是基于類Harr特征的級(jí)聯(lián)分類器,該算法由于受光照、駕駛?cè)松項(xiàng)l件及行為動(dòng)作等因素的影響,會(huì)出現(xiàn)沒(méi)有檢測(cè)到人臉的情況。為了解決此種情況下的矩形人臉區(qū)域定位,本發(fā)明方法設(shè)定了一個(gè)人臉區(qū)域隊(duì)列,用于存儲(chǔ)定位最新檢測(cè)到的i個(gè)矩形人臉區(qū)域,矩形人臉區(qū)域在人臉區(qū)域隊(duì)列中的存儲(chǔ)格式是一個(gè)結(jié)構(gòu)體指針,其指向的結(jié)構(gòu)體為{Location, Shape},其中Location是矩形人臉區(qū)域的左上頂點(diǎn)A在駕駛員頭部圖像中的坐標(biāo),Shape是矩形人臉區(qū)域的長(zhǎng)和寬。人臉區(qū)域隊(duì)列中存儲(chǔ)的就是定位到的矩形人臉區(qū)域的歷史信息,其中人臉區(qū)域隊(duì)列存儲(chǔ)信息的大小,也就是i的取值范圍為I 10,本發(fā)明方法具體實(shí)施中i的取值為5。利用AdaBoost人臉檢測(cè)算法從采集的每幀頭部圖像中檢測(cè)人臉,對(duì)檢測(cè)結(jié)果進(jìn)行判斷,若檢測(cè)到人臉,則根據(jù)檢測(cè)到的人臉定位出矩形人臉區(qū)域,用定位出的矩形人臉區(qū)域更新人臉區(qū)域隊(duì)列,用定位出的矩形人臉區(qū)域作為矩形特征人臉區(qū)域4;若檢測(cè)不到人臉,則對(duì)人臉區(qū)域隊(duì)列進(jìn)行判斷,若人臉區(qū)域隊(duì)列空,則繼續(xù)檢測(cè)人臉,若人臉區(qū)域隊(duì)列不空,則以人臉區(qū)域隊(duì)列中的矩形人臉區(qū)域平均值作為矩形特征人臉區(qū)域4。其中人臉區(qū)域隊(duì)列中的矩形人臉區(qū)域平均值是Imean(Location) ,mean (Shape)},即分別對(duì)人臉區(qū)域隊(duì)列中的矩形人臉區(qū)域的位置和形狀求均值。本發(fā)明方法中,人臉區(qū)域隊(duì)列中保存的人臉區(qū)域數(shù)據(jù)實(shí)時(shí)更新,避免了因?yàn)殛?duì)列中保存的人臉區(qū)域與當(dāng)前檢測(cè)時(shí)間差別較遠(yuǎn)而對(duì)手持電話狀態(tài)檢測(cè)精度造成影響。此外,由于駕駛員在駕駛過(guò)程中,其相對(duì)于安裝在儀表盤(pán)攝像頭的位置變化不大,在人臉檢測(cè)算法沒(méi)有檢測(cè)到人臉時(shí),利用人臉區(qū)域隊(duì)列中的人臉區(qū)域歷史數(shù)據(jù)同樣可以實(shí)現(xiàn)較準(zhǔn)確的人臉區(qū)域定位。如圖2所示,得到特征人臉區(qū)域后,以上述矩形特征人臉區(qū)域的左上角A為原點(diǎn), 沿X軸方向和y軸方向?qū)⒃c(diǎn)A向左下平移到B,其中沿X軸方向平移的絕對(duì)值是矩形特征人臉區(qū)域?qū)挼?. 6倍,沿y軸方向平移的絕對(duì)值是矩形特征人臉區(qū)域長(zhǎng)的0. 4倍。這樣,就定位出矩形左側(cè)耳部區(qū)域的左上頂點(diǎn)B,矩形左側(cè)耳部區(qū)域的長(zhǎng)和寬分別是矩形特征人臉區(qū)域長(zhǎng)和寬的k倍和j倍,其中k和j的取值范圍為0. 8 I. 1,本發(fā)明方法實(shí)施例中k和 j的取值均為1,由此就定位了矩形左側(cè)耳部區(qū)域I。將矩形左側(cè)耳部區(qū)域I按矩形特征人臉區(qū)域縱軸2鏡像,定位出矩形右側(cè)耳部區(qū)域5。對(duì)定位出的矩形耳部區(qū)域進(jìn)行圖像歸一化處理,得到大小一致的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像,本發(fā)明方法實(shí)施例中歸一化后矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像的大小均為IOOX 100像素。從上述過(guò)程中可以看出,本發(fā)明方法是根據(jù)矩形特征人臉區(qū)域的位置和大小來(lái)確定矩形耳部區(qū)域的位置和大小的。采用本發(fā)明方法的原因是不同駕駛員由于身高、性別、胖瘦、駕駛習(xí)慣的不同,其在攝像頭獲取的頭部圖像中矩形特征人臉區(qū)域位置和大小不同,若取固定大小區(qū)域定位耳部區(qū)域會(huì)使得到的矩形耳部區(qū)域中的手持電話圖像存在很大的個(gè)體差異性,從而給后續(xù)提取穩(wěn)定的特征指標(biāo)帶來(lái)困難,影響檢測(cè)精度。上述矩形特征人臉區(qū)域大小自適應(yīng)矩形耳部區(qū)域定位算法具有個(gè)體差異自適應(yīng)性,為后續(xù)提取穩(wěn)定的特征指標(biāo)奠定了基礎(chǔ)。得到圖像歸一化處理后的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像后,下一步分別從矩形左側(cè)耳部區(qū)域和矩形右側(cè)耳部區(qū)域中提取特征,用于對(duì)手持電話違規(guī)行為進(jìn)行檢測(cè)。提取合適的特征指標(biāo)是影響準(zhǔn)確識(shí)別目標(biāo)對(duì)象的關(guān)鍵因素。在定位的手持電話檢測(cè)區(qū)域中,由于受到光照、后排座椅有無(wú)成員及成員的動(dòng)作、駕駛?cè)耸殖蛛娫挼膭?dòng)作、周邊環(huán)境等因素的影響,因此要求提取的特征能夠?qū)庹蘸婉{駛?cè)诵〉膭?dòng)作不敏感。本發(fā)明方法實(shí)施例中在矩形耳部區(qū)域圖像中提取HOG特征,HOG特征構(gòu)成的特征向量被用于對(duì)駕駛員撥打接聽(tīng)手持電話的違規(guī)行為進(jìn)行識(shí)別。HOG (Histogram of Oriented Gradient)特征,即方向梯度直方圖。簡(jiǎn)要的說(shuō),它的提取過(guò)程是將待處理的灰度圖像進(jìn)行梯度處理,得到各個(gè)像素X和Y方向的梯度分量,再通過(guò)極坐標(biāo)轉(zhuǎn)化,得到各個(gè)像素的梯度方向值,然后采用直方圖投影的方式,將梯度方向范圍均分為n份,得到n個(gè)角度區(qū)間,將圖像的梯度方
8向值投影到n個(gè)角度區(qū)間中去,得到n個(gè)角度區(qū)間的頻數(shù),n個(gè)角度區(qū)間的頻數(shù)構(gòu)成特征描述子。HOG特征的兩個(gè)關(guān)鍵參數(shù)是目標(biāo)圖像分割方法和梯度方向范圍分為多少份。本發(fā)明方法的實(shí)施過(guò)程中,分別將圖像歸一化處理后的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像變換為灰度圖像,將灰度圖像分割為mXn份,舉例來(lái)說(shuō)將本發(fā)明方法中100X100的矩形耳部區(qū)域圖像分割為2X5份,即得到10個(gè)50X20的圖像塊。本發(fā)明方法的一個(gè)實(shí)施例中將矩形耳部圖像分割為1X1份。然后對(duì)每份灰度圖像進(jìn)行梯度處理,得到灰度圖像各個(gè)像素的梯度分量,再通過(guò)極坐標(biāo)化,得到灰度圖像各個(gè)像素的梯度方向值,采用直方圖投影的方式,將梯度方向均分為n份,得到n個(gè)角度區(qū)間,分別將矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像的梯度方向值投影到n個(gè)角度區(qū)間中去,分別得到與矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像相應(yīng)的n個(gè)角度區(qū)間的頻數(shù),分別以n 個(gè)角度區(qū)間的頻數(shù)作為檢測(cè)手持電話的左側(cè)耳部區(qū)域特征向量和右側(cè)耳部區(qū)域特征向量。 其中n的取值范圍為12 20,本發(fā)明方法的一個(gè)實(shí)施例中n值取為16。綜上,得到一個(gè)16 維的向量(Ipl2, -I16)作為左側(cè)耳部區(qū)域特征向量,其中IiQ = 1,2,…的是左側(cè)耳部區(qū)域梯度方向投影到各角度區(qū)間的頻數(shù);得到一個(gè)16維的向量(wi,w2,…w16)作為右側(cè)耳部區(qū)域特征向量,其中Wi (i = 1,2, -16)是右側(cè)耳部區(qū)域梯度方向投影到各角度區(qū)間的頻數(shù),這兩個(gè)16維的特征向量構(gòu)成了識(shí)別手持電話的特征空間。將特征指標(biāo)輸入由模式識(shí)別算法建立的手持電話識(shí)別模型中,就可以對(duì)單幀駕駛員頭部圖像中是否有手持電話進(jìn)行識(shí)別。本發(fā)明方法在具體實(shí)施中發(fā)現(xiàn)BP神經(jīng)網(wǎng)絡(luò)算法、 支持向量機(jī)算法、貝葉斯網(wǎng)絡(luò)算法等模式識(shí)別算法均能準(zhǔn)確地從駕駛員頭部圖像中檢測(cè)到手持電話行為??紤]到算法運(yùn)算速度與算法復(fù)雜度的影響,本發(fā)明方法的一個(gè)實(shí)施例中采用Fisher線性判別算法將駕駛員行車(chē)中的狀態(tài)分為正常駕駛和手持電話兩類。Fisher線性判別算法可以將多維空間壓縮到一維空間,即將多維空間按一定的投影規(guī)則將其投影致一條直線上,再在一維空間中確定分界點(diǎn),將待識(shí)別對(duì)象分為兩類。由于駕駛室內(nèi)駕駛?cè)俗笥叶繀^(qū)域背景差異較大,本發(fā)明方法中針對(duì)左側(cè)耳部區(qū)域和右側(cè)耳部區(qū)域分別利用 Fisher線性判別算法建立了左側(cè)耳部區(qū)域手持電話識(shí)別模型和右側(cè)耳部區(qū)域手持電話識(shí)別豐吳型。耳部區(qū)域手持電話識(shí)別模型訓(xùn)練方法為公知技術(shù),其過(guò)程如下開(kāi)展實(shí)車(chē)實(shí)驗(yàn),利用安裝在汽車(chē)儀表盤(pán)的攝像頭獲取駕駛員行車(chē)中正常駕駛和撥打接聽(tīng)手持電話的視頻片段。攝像頭的安裝位置要求能夠在駕駛員駕車(chē)中完整獲取其頭部圖像,攝像頭拍攝圖像分辨率要求不小于480X320像素。將獲取的視頻切割為左手手持電話、右手手持電話、和正常駕駛?cè)悤r(shí)長(zhǎng)2分鐘的視頻片段。本發(fā)明方法的一個(gè)實(shí)施例中共開(kāi)展了 50人實(shí)車(chē)實(shí)驗(yàn), 即300分鐘視頻數(shù)據(jù)。其中100分鐘的左手手持電話視頻和100分鐘正常駕駛視頻用于訓(xùn)練左側(cè)耳部區(qū)域手持電話識(shí)別模型,將這兩類視頻圖像按上述特征提取方式從中提取有手持電話的左側(cè)耳部區(qū)域特征向量和無(wú)手持電話的左側(cè)耳部區(qū)域特征向量,以這兩類數(shù)據(jù)集訓(xùn)練得到左側(cè)耳部區(qū)域手持電話識(shí)別Fisher判別模型,如公式(I)所示f1 = B1I^a2I2+*** +a^lig+C! (I)其中,(I1, I2,…I16)是16維左側(cè)耳部區(qū)域特征向量構(gòu)成的自變量,(&1,a2,… a16)是模型系數(shù),C1是常數(shù)項(xiàng)。模型建立后,也就確定了模型系數(shù)(ai,a2,-a16)和常數(shù)項(xiàng)C1,對(duì)于新輸入的駕駛員頭部圖像,從圖像中提取出16維左側(cè)耳部區(qū)域特征向量,代入公式(1),若4>0則判別為手持電話,若< 0則判別為正常駕駛。同樣,右側(cè)耳部區(qū)域手持電話識(shí)別模型訓(xùn)練數(shù)據(jù)為100分鐘的右手手持電話視頻和100分鐘正常駕駛視頻,將這兩類視頻圖像按上述特征提取方式從圖像中提取有手持電話的右側(cè)耳部區(qū)域特征向量和無(wú)手持電話的右側(cè)耳部區(qū)域特征向量,以這兩類數(shù)據(jù)集訓(xùn)練得到右側(cè)耳部區(qū)域手持電話識(shí)別Fisher判別模型,如公式(2)所示f2 = ID1Wjb2W2+...+b16w16+c2 (2)其中,(W1, w2, )是16維右側(cè)耳部區(qū)域特征向量構(gòu)成的自變量,O^b2,… b16)是模型系數(shù),C2是常數(shù)項(xiàng)。模型建立后,也就確定了模型系數(shù)Ovb2,…b16)和常數(shù)項(xiàng)C2,對(duì)于新輸入的駕駛員頭部圖像,從圖像中提取出16維右側(cè)耳部區(qū)域特征向量,代入公式(2),若&>0則判別為手持電話,若f2 < 0則判別為正常駕駛。利用Fisher線性判別算法建立的左側(cè)耳部區(qū)域手持電話識(shí)別模型和右側(cè)耳部區(qū)域手持電話識(shí)別模型只是對(duì)單幀圖像中是否存在手持電話行為進(jìn)行檢測(cè),然而,駕駛員撥打接聽(tīng)手持電話是一個(gè)時(shí)間持續(xù)行為,僅靠單幀圖像的識(shí)別結(jié)果容易將抓耳撓腮等動(dòng)作誤檢為手持電話。為了利用撥打接聽(tīng)手持電話行為的時(shí)序性,本發(fā)明方法設(shè)定一個(gè)左側(cè)手持電話識(shí)別結(jié)果存儲(chǔ)隊(duì)列和一個(gè)右側(cè)手持電話識(shí)別結(jié)果存儲(chǔ)隊(duì)列用于存儲(chǔ)識(shí)別結(jié)果的歷史信息。若手持電話識(shí)別模型識(shí)別出手持電話,則在手持電話識(shí)別結(jié)果隊(duì)列中寫(xiě)入1,若手持電話識(shí)別模型沒(méi)有識(shí)別出手持電話,則在手持電話識(shí)別結(jié)果隊(duì)列中寫(xiě)入O。本發(fā)明方法的一個(gè)實(shí)施例中手持電話識(shí)別結(jié)果存儲(chǔ)隊(duì)列的長(zhǎng)度為240,即最大可以存儲(chǔ)240幀圖像的識(shí)別結(jié)果。分別用當(dāng)前幀頭部圖像的識(shí)別結(jié)果更新相應(yīng)的左側(cè)手持電話識(shí)別結(jié)果隊(duì)列和右側(cè)手持電話識(shí)別結(jié)果隊(duì)列,并對(duì)更新后的隊(duì)列進(jìn)行邏輯判別,根據(jù)判別結(jié)果發(fā)出預(yù)警信號(hào), 本發(fā)明方法中采用四層邏輯判別,具體實(shí)施過(guò)程如下第一層邏輯判別的判斷結(jié)果決定是否發(fā)出手持電話預(yù)警信號(hào),具體方法是對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前h秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在h秒內(nèi)大于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則發(fā)出手持電話預(yù)警信號(hào),若在^秒內(nèi)小于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則重新開(kāi)始判斷。其中h為設(shè)定的第一時(shí)間閾值,取值范圍為3 5,a為設(shè)定的第一概率閾值,取值范圍為65 85。第二與第三層邏輯判別監(jiān)控?fù)艽蚪勇?tīng)手持電話行為的持續(xù)情況。設(shè)計(jì)兩層邏輯判別是為了充分考慮駕駛過(guò)程中的干擾,提高系統(tǒng)的魯棒性。車(chē)輛在實(shí)際行車(chē)過(guò)程中受光照因素、駕駛?cè)藗€(gè)體差異性因素、環(huán)境因素的影響,會(huì)使某幀圖片的成像質(zhì)量不佳,造成模式識(shí)別算法的判斷錯(cuò)誤,故狀態(tài)判別模塊在第二層邏輯判別的基礎(chǔ)上設(shè)計(jì)了第三層邏輯。第二層邏輯判別對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t2秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在&秒內(nèi)大于b%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則保持手持電話預(yù)警信號(hào),若在t2秒內(nèi)小于b %的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行第三層邏輯判別。其中t2為設(shè)定的第二時(shí)間閾值,取值范圍為0. 5 3,b為設(shè)定的第二概率閾值,取值范圍為60 80。第三層邏輯判別對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t3秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在&秒內(nèi)大于c%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回第二層邏輯,若在&秒內(nèi)小于的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行第四層邏輯判別。 其中t3為設(shè)定的第三時(shí)間閾值,取值范圍為0. 5 3,c為設(shè)定的第三概率閾值,取值范圍為55 75 ;第四層邏輯判別對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t4秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在14秒內(nèi)大于d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回第二層邏輯,若在〖4秒內(nèi)小于d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則中斷手持電話預(yù)警信號(hào);其中〖4為設(shè)定的第四時(shí)間閾值,取值范圍為I 4,d為設(shè)定的第四概率閾值,取值范圍為55 75。
權(quán)利要求
1.一種駕駛員行車(chē)中手持電話違規(guī)行為的檢測(cè)方法,其特征在于該方法包括以下步驟(1)采集汽車(chē)駕駛員的頭部圖像,設(shè)定一個(gè)人臉區(qū)域隊(duì)列,利用人臉檢測(cè)算法從采集的每幀頭部圖像中檢測(cè)人臉,對(duì)檢測(cè)結(jié)果進(jìn)行判斷,若檢測(cè)到人臉,則根據(jù)檢測(cè)到的人臉定位出矩形人臉區(qū)域,用定位出的矩形人臉區(qū)域更新人臉區(qū)域隊(duì)列,用定位出的矩形人臉區(qū)域作為矩形特征人臉區(qū)域;若檢測(cè)不到人臉,則對(duì)人臉區(qū)域隊(duì)列進(jìn)行判斷,若人臉區(qū)域隊(duì)列空,則繼續(xù)檢測(cè)人臉,若人臉區(qū)域隊(duì)列不空,則以人臉區(qū)域隊(duì)列中的矩形人臉區(qū)域平均值作為矩形特征人臉區(qū)域;(2)以上述矩形特征人臉區(qū)域的左上角為原點(diǎn),根據(jù)矩形特征人臉區(qū)域的長(zhǎng)和寬的比例移動(dòng)原點(diǎn),定位出矩形左側(cè)耳部區(qū)域的左上頂點(diǎn),并根據(jù)矩形特征人臉區(qū)域的長(zhǎng)和寬定位出矩形左側(cè)耳部區(qū)域的大??;根據(jù)矩形左側(cè)耳部區(qū)域的左上頂點(diǎn)和大小,定位出矩形左側(cè)耳部區(qū)域;將矩形左側(cè)耳部區(qū)域按矩形特征人臉區(qū)域縱軸鏡像,定位出矩形右側(cè)耳部區(qū)域,對(duì)定位出的矩形耳部區(qū)域進(jìn)行圖像歸一化處理,得到大小一致的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像;(3)分別將圖像歸一化處理后的矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像變換為灰度圖像,并對(duì)變換后的灰度圖像進(jìn)行梯度處理,得到灰度圖像各個(gè)像素的梯度分量,再通過(guò)極坐標(biāo)化,得到灰度圖像各個(gè)像素的梯度方向值,采用直方圖投影的方式,將梯度方向均分為n份,得到n個(gè)角度區(qū)間,分別將矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像的梯度方向值投影到n個(gè)角度區(qū)間中去,分別得到與矩形左側(cè)耳部區(qū)域圖像和矩形右側(cè)耳部區(qū)域圖像相應(yīng)的n個(gè)角度區(qū)間的頻數(shù),分別以n個(gè)角度區(qū)間的頻數(shù)作為檢測(cè)手持電話的左側(cè)耳部區(qū)域特征向量和右側(cè)耳部區(qū)域特征向量;(4)根據(jù)上述左側(cè)耳部區(qū)域特征向量和右側(cè)耳部區(qū)域特征向量,利用模式識(shí)別算法,分別對(duì)左手手持電話和右手手持電話進(jìn)行識(shí)別,得到當(dāng)前幀頭部圖像的的識(shí)別結(jié)果,設(shè)定一個(gè)左側(cè)手持電話識(shí)別結(jié)果隊(duì)列和一個(gè)右側(cè)手持電話識(shí)別結(jié)果隊(duì)列,用當(dāng)前幀頭部圖像的識(shí)別結(jié)果更新相應(yīng)左側(cè)手持電話識(shí)別結(jié)果隊(duì)列或右側(cè)手持電話識(shí)別結(jié)果隊(duì)列,并對(duì)更新后的隊(duì)列進(jìn)行邏輯判別,根據(jù)判別結(jié)果發(fā)出預(yù)警信號(hào),邏輯判別過(guò)程如下(4-1)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前h秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在 ^秒內(nèi)大于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則發(fā)出手持電話預(yù)警信號(hào),若在h 秒內(nèi)小于a%的頭部圖像的識(shí)別結(jié)果為手持電話狀態(tài),則重新開(kāi)始判斷,其中h為設(shè)定的第一時(shí)間閾值,取值范圍為3 5, a為設(shè)定的第一概率閾值,取值范圍為65 85 ;(4-2)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t2秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在七2秒內(nèi)大于b%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則保持手持電話預(yù)警信號(hào),若在t2 秒內(nèi)小于b%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行步驟(4-3),其中12為設(shè)定的第二時(shí)間閾值,取值范圍為0. 5 3,b為設(shè)定的第二概率閾值,取值范圍為60 80 ;(4-3)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t3秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在七3秒內(nèi)大于的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回步驟(4-2),若在t3秒內(nèi)小于的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則進(jìn)行步驟(4-4),其中t3為設(shè)定的第三時(shí)間閾值,取值范圍為0. 5 3,c為設(shè)定的第三概率閾值,取值范圍為55 75 ;(4-4)對(duì)手持電話識(shí)別結(jié)果隊(duì)列中從當(dāng)前時(shí)刻開(kāi)始的前t4秒內(nèi)的數(shù)據(jù)進(jìn)行判斷,若在七4秒內(nèi)大于d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則返回步驟(4-2),若在t4秒內(nèi)小于d%的頭部圖像的識(shí)別結(jié)果是手持電話狀態(tài),則中斷手持電話預(yù)警信號(hào);其中t4為設(shè)定的第四時(shí)間閾值,取值范圍為I 4,d為設(shè)定的第四概率閾值,取值范圍為55 75。
全文摘要
本發(fā)明涉及一種駕駛員行車(chē)中手持電話違規(guī)行為檢測(cè)方法,屬于機(jī)器視覺(jué)技術(shù)領(lǐng)域。首先采集汽車(chē)駕駛員的頭部圖像,利用人臉檢測(cè)算法從駕駛員頭部圖像中檢測(cè)人臉,根據(jù)檢測(cè)到的人臉定位出矩形人臉區(qū)域;由矩形人臉區(qū)域定位出矩形左、右耳部區(qū)域,分別從矩形左、右耳部區(qū)域中提取特征指標(biāo);將特征指標(biāo)輸入模式識(shí)別算法中,對(duì)頭部圖像中是否有手持電話進(jìn)行識(shí)別,并將識(shí)別結(jié)果存儲(chǔ)在手持電話結(jié)果隊(duì)列中;然后對(duì)手持電話結(jié)果隊(duì)列進(jìn)行邏輯判別,并根據(jù)邏輯判別結(jié)果對(duì)駕駛員進(jìn)行預(yù)警。本發(fā)明方法實(shí)時(shí)性好,識(shí)別精度高,能夠?qū)︸{駛?cè)俗笫趾陀沂謸艽蚪勇?tīng)電話行為進(jìn)行檢測(cè)和預(yù)警,有效減少因行車(chē)中撥打接聽(tīng)電話而造成的交通事故,從而提高駕駛安全性。
文檔編號(hào)G06K9/62GK102592143SQ20121000437
公開(kāi)日2012年7月18日 申請(qǐng)日期2012年1月9日 優(yōu)先權(quán)日2012年1月9日
發(fā)明者屈肖蕾, 張波, 徐少兵, 成波, 王文軍 申請(qǐng)人:清華大學(xué)