基于圖像識別的后視鏡自適應調(diào)節(jié)方法
【技術領域】
[0001]本發(fā)明涉及一種智能駕駛技術,具體是一種基于圖像識別的汽車后視鏡自適應調(diào)節(jié)方法。
【背景技術】
[0002]目前,現(xiàn)有基于智能后視鏡系統(tǒng)的發(fā)明中,并未考慮通過圖像處理進行實時監(jiān)控,從而雖然智能后視鏡可以自動調(diào)節(jié)前后、左右的方向,但是只能降低盲區(qū)大小,同時由于司機與座位高矮的不同,使得人眼位置有所差異,而導致智能后視鏡的調(diào)節(jié)不準確問題。而目前現(xiàn)有發(fā)明中并未考察智能后視鏡是否角度最佳的評價指標,這正是由于該評價指標受司機主觀感受影響導致無法定量衡量。
[0003]通過檢索發(fā)現(xiàn),目前與本發(fā)明相近的專利有三個,分別是智能后視鏡系統(tǒng)(201110208478.X),外后視鏡微調(diào)系統(tǒng)(201310334582.2)和調(diào)整后視鏡的方法和系統(tǒng)(201210598987.2)。以下對三個專利的技術方案分別進行分析:
[0004]在“外后視鏡微調(diào)系統(tǒng)”設計方案中,主要依靠四個攝像頭(分別置于車頭,車尾和左右后視鏡)獲得路面信息,通過三軸陀螺儀獲得車輛姿態(tài)信息,通過車輛儀表盤上的處理器獲得速度信息和路面交通指示,通過微控制器調(diào)整微調(diào)系統(tǒng)的開啟與關閉。其不足在于其成本較高,且不夠人性化,僅有開關控制。
[0005]“調(diào)整后視鏡的方法系統(tǒng)”則通過控制器使用車載無線電通信裝置計算確定第一輛車何時接近交叉路口并計算確定第二輛車何時位于危險區(qū)域,調(diào)整第一輛車的后視鏡角度,使第二輛車位于司機的可視區(qū)域內(nèi)。這樣的定位在理論上不存在死角,且車輛之間交換信息,定位準確,使車輛可以處于視野中心,獲得更準確的車輛的后視鏡中的像,避免因像在后視鏡中顯現(xiàn)不清而導致誤判。這種方案的不足在于當車輛較多的時候,后視鏡無法確定需要被覆蓋的車輛,GPS的定位存在誤差,會導致計算存在誤差。
[0006]“智能后視鏡系統(tǒng)實現(xiàn)“的功能是:解決現(xiàn)有技術存在的后視鏡沒有主動干預或者報警功能的技術問題,提供一種可以根據(jù)周圍情況自主控制車輛輔助駕駛員的智能后視鏡系統(tǒng)。實現(xiàn)過程:
[0007]1.E⑶主機與屏幕相連,顯示信息。
[0008]2.車后方裝有后視攝像頭,后視攝像頭將車后方景象傳輸至主機,在屏幕上顯示從而使駕駛員了解后方情況。如果轉(zhuǎn)向時駕駛員沒有打轉(zhuǎn)向燈且后方有車輛靠近,主機控制轉(zhuǎn)向燈閃爍。
[0009]3.后視攝像頭通過連接電機調(diào)整拍攝角度,獲取更大視野范圍。
[0010]4.存儲器與ECU主機相連。攝像頭設置為拍攝模式,將拍攝信息存入存儲器。當發(fā)生意外碰撞時,可以調(diào)用拍攝信息追查肇事者。
[0011]5.車前方、左方和右方均裝有攝像頭,在車輛停放時多角度拍攝,記錄任何方向的刮擦碰撞。并在屏幕上顯示。
[0012]6.超聲波探頭與ECU主機連接,設置在車身兩側(cè)。當停車時探頭監(jiān)測車門外是否有障礙物,如果存在則主機控制車門閉鎖,移除障礙物后門可以自由打開。
[0013]7.車后方同樣裝有超聲波探頭,倒車時如果探頭監(jiān)測到與車輛或障礙物過近將會自動制動。制動距離可以設定。
[0014]8.車牌分析模塊與ECU主機連接,如果后方攝像頭多次偵測到同一車牌則向駕駛員示警,防止被跟蹤。
[0015]但是這一方法也存在弊端,主要體現(xiàn)在配套設備多,提高了成本,ECU主機連接的設備過多,運算存在著壓力。而且該方法人機交互能力不夠。屏幕只能輸出不能輸入。而且當超聲波探頭閉鎖車門、制動時不向駕駛員提醒。因而該方法對設備的存儲能力,計算能力要求都較高,不便于大規(guī)模實現(xiàn)。
【發(fā)明內(nèi)容】
[0016]本發(fā)明針對現(xiàn)有技術中存在的上述不足,提供了一種基于圖像識別的后視鏡自適應調(diào)節(jié)方法,在功能方面,主要通過圖像處理算法與智能后視鏡硬件系統(tǒng)相結(jié)合,一方面在能夠?qū)崿F(xiàn)傳統(tǒng)智能后視鏡調(diào)節(jié)系統(tǒng),即降低司機盲區(qū)的同時,可以通過圖像對人眼進行模式識別,微調(diào)智能后視鏡系統(tǒng),使得人眼所看區(qū)域?qū)崟r處于智能后視鏡中心區(qū)域,間接保證了智能后視鏡實時角度最佳。另方面,可以在行車過程中通過方向盤處攝像頭進行人臉檢測,通過Hausdorff距離方法實現(xiàn)對駕駛員的疲勞預警。第三方面,可以實現(xiàn)倒車模式下的圖像合成功能,將攝像頭的圖像數(shù)據(jù)與倒車雷達相結(jié)合成倒車全景圖,擴大了駕駛員倒車視野,從而達到了行車安全的雙重保障。
[0017]為達到上述目的,本發(fā)明是通過以下技術方案實現(xiàn)的:
[0018]一種基于圖像識別的后視鏡自適應調(diào)節(jié)方法,包括步驟如下:
[0019]I)開始駕駛階段
[0020]車輛內(nèi)的攝像頭對駕駛員進行人臉識別,通過學習功能調(diào)出已有的駕駛員檔案或為駕駛員新建一份個人檔案,如果已有當前駕駛員檔案,后視鏡的初始位置會根據(jù)檔案做出相應的調(diào)節(jié);
[0021]2)行駛狀態(tài)檢測
[0022]通過多種外設設備檢測到的信息綜合判斷汽車的行駛狀態(tài);如果是倒車狀態(tài),進入步驟3),如果檢測結(jié)果是行駛狀態(tài),則進入步驟4);
[0023]3)倒車過程的智能調(diào)整
[0024]在倒車時,需要通過圖像處理方法為駕駛員提供全景成像,同時對人眼視野區(qū)域進行檢測,微調(diào)后視鏡,將視野調(diào)至后視鏡中央;
[0025]4)行駛狀態(tài)的智能調(diào)整
[0026]在行駛狀態(tài),通過前行參數(shù),智能調(diào)節(jié)后視鏡,保證駕駛員的盲區(qū)最??;同時對人眼進行檢測,將視野調(diào)至后視鏡中央;最后,系統(tǒng)需要對駕駛員進行疲勞檢測,一旦檢測到駕駛員處于疲勞狀態(tài),需要及時預警。
[0027]所述外設設備包括用于獲得汽車行駛狀態(tài)的陀螺儀、六軸加速度傳感器、方向盤轉(zhuǎn)向傳感器以及三個分別位于兩個后視鏡和方向盤上的攝像頭。
[0028]所述陀螺儀、六軸加速度傳感器與主控板之間的通信均使用I2C方式。
[0029]所述圖像識別主要采取CNN識別算法進行識別。
[0030]所述后視鏡通過轉(zhuǎn)向電機控制轉(zhuǎn)向,所述轉(zhuǎn)向電機由低功耗單片機控制,單片機與主控板之間通過I2C通信,單片機接收主控板的電機轉(zhuǎn)向信號,并向主控板反饋電機狀態(tài)信號。
[0031 ] 為實現(xiàn)電機的精準轉(zhuǎn)動,在轉(zhuǎn)向電機與單片之間加入轉(zhuǎn)向角度的反饋。
[0032]所述步驟3)中,使用sift特征提取的圖像處理方法,將倒車雷達獲得的影像和后視鏡拍攝影像進行圖像合成,實現(xiàn)全景拍攝。
[0033]所述步驟4)中,首先通過中間的攝像頭觀測駕駛員是否出現(xiàn)斜視,若出現(xiàn)斜視,主控板通過獲取左右后視鏡上攝像頭的圖像,運用CNN圖像處理方法,計算出人眼注視位置,通過主控板的數(shù)據(jù)處理模塊,得到是否需要對后視鏡進行微調(diào),將人眼所看的位置移動到后視鏡視野中心。若沒有斜視,則實時監(jiān)控駕駛員是否疲勞駕駛。
[0034]所述疲勞駕駛的判別主要使用HausdorfT距離方法,對人臉進行數(shù)據(jù)分析,得到疲勞預警。
[0035]本發(fā)明技術方案,為了實現(xiàn)后視鏡智能調(diào)節(jié)功能,設置核心處理模塊和外設設備,當兩后視鏡偵測到駕駛員在觀察后視鏡時,通過方向盤上的攝像頭和駕駛員所看的后視鏡上的攝像頭采集到的圖像進行分析,建模獲得駕駛員眼睛所觀察到的區(qū)域。圖像識別主要采取CNN識別算法進行識別。同時,在駕駛開始階段進行學習步驟,為駕駛員建立個人檔案,更加人性化,智能化,同時也通過機器學習過程增強了方案的實用性。
【附圖說明】
[0036]通過閱讀參照以下附圖對非限制性實施例所作的詳細描述,本發(fā)明的其它特征、目的和優(yōu)點將會變得更明顯:
[0037]圖1是本發(fā)明所提供的整體過程圖;
[0038]圖2是本發(fā)明所提供的硬件核心模塊圖;
[0039]圖3是I2C通信模塊示意圖;
[0040]圖4是視野微調(diào)與疲勞預警示意圖;
[0041]圖5是特征提取過程不意圖。
【具體實施方式】
[0042]下面結(jié)合具體實施例對本發(fā)明進行詳細說明。以下實施例將有助于本領域的技術人員進一步理解本發(fā)明,但不以任何形式限制本發(fā)明。應當指出的是,對本領域的普通技術人員來說,在不脫離本發(fā)明構(gòu)思的前提下,還可以做出若干變形和改進。這些都屬于本發(fā)明的保護范圍。
[0043]如圖1所示,對本發(fā)明方法的整體過程說明如下:
[0044]為了實現(xiàn)后視鏡智能調(diào)節(jié)功能,本發(fā)明使用三星Exynos 4412芯片作為核心處理模塊,外設設備包括三個攝像頭(分別位于兩個后視鏡和方向盤上)和一個六軸加速度傳感器。當兩后視鏡偵測到駕駛員在觀察后視鏡時,通過方向盤上的攝像頭和駕駛員所看的后視鏡上的攝像頭的采集到的圖像進行分析,建模獲得駕駛員眼睛所觀察到的區(qū)域。圖像識別主要采取CNN識別算法(CNN算法:深度卷積神經(jīng)網(wǎng)絡,用于圖像識別的一種算法。卷積神經(jīng)網(wǎng)絡結(jié)構(gòu)適合模型的并行訓練,采用模型并行與數(shù)據(jù)并行的方式可以加速訓練過程)進行識別。同時,在駕駛開始階段進行學習步驟,為駕駛員建立個人檔案,更加人性化,智能化,同時也通過機器學習過程增強了方案的實用性。
[0045]實現(xiàn)流程如下:
[0046]1:開始駕駛階段
[0047]車輛內(nèi)的攝像頭對駕駛員進行人臉識別,通過學習功能調(diào)出已有的駕駛員檔案或為駕駛員新建一份個人檔案。如果已有當前駕駛員檔案,后視鏡的初始位置會根據(jù)檔