專(zhuān)利名稱(chēng):基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法
技術(shù)領(lǐng)域:
本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,更進(jìn)一步涉及一種模式識(shí)別領(lǐng)域中的基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法。本發(fā)明通過(guò)擴(kuò)張式學(xué)習(xí)方法來(lái)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò),然后利用人工神經(jīng)網(wǎng)絡(luò)檢測(cè)圖像序列中的目標(biāo),可應(yīng)用于遠(yuǎn)程監(jiān)控、智能交通等。
背景技術(shù):
人工神經(jīng)網(wǎng)絡(luò)是一種應(yīng)用類(lèi)似大腦神經(jīng)突觸連接的結(jié)構(gòu)進(jìn)行信息處理的數(shù)學(xué)模型,這種網(wǎng)絡(luò)依靠系統(tǒng)的復(fù)雜程度,通過(guò)調(diào)整內(nèi)部大量節(jié)點(diǎn)之間的相互連接的關(guān)系,從而達(dá)到處理信息的目的。當(dāng)前,人工神經(jīng)網(wǎng)絡(luò)憑借其強(qiáng)大的泛化能力、自學(xué)習(xí)、自組織功能而被廣泛應(yīng)用于目標(biāo)跟蹤方面,通過(guò)選取包含目標(biāo)運(yùn)動(dòng)動(dòng)態(tài)過(guò)程中全部特征信息的訓(xùn)練樣本集對(duì)人工神經(jīng)網(wǎng)絡(luò)進(jìn)行學(xué)習(xí)訓(xùn)練,使得人工神經(jīng)網(wǎng)絡(luò)能夠“記憶”已學(xué)習(xí)目標(biāo)的某些特征,在待跟蹤序列圖中搜索目標(biāo)最佳位置,并實(shí)現(xiàn)目標(biāo)跟蹤。
上海北控智能科技有限公司提出的專(zhuān)利申請(qǐng)“基于神經(jīng)網(wǎng)絡(luò)進(jìn)行識(shí)別的算法的人臉識(shí)別方法”(專(zhuān)利申請(qǐng)?zhí)?00710042383. 9,公開(kāi)號(hào)CN101329722),公開(kāi)了一種基于部件的多特征識(shí)別算法的人臉識(shí)別方法。該方法主要步驟包括第一步,人臉檢測(cè)判斷輸入圖像中是否存在人臉,如果有,給出每個(gè)人臉的位置,大??;第二步,面部特征定位對(duì)找到的每個(gè)人臉,檢測(cè)其主要器官的位置和形狀等信息;第三部,人臉對(duì)比根據(jù)面部特征定位的結(jié)果,與庫(kù)中的人臉對(duì)比,判斷該人臉的身份信息。該方法雖然能有效識(shí)別人臉的身份信息,但仍然存在的不足是該方法建立的人臉樣本庫(kù)需要大量的人臉樣本,而獲得這些樣本需要拍攝大量的圖像,再通過(guò)人工或機(jī)器標(biāo)記的方法從圖像中選擇出合適的樣本,這樣會(huì)消耗較長(zhǎng)時(shí)間和大量的資源。上海交通大學(xué)提出的專(zhuān)利申請(qǐng)“基于神經(jīng)網(wǎng)絡(luò)的機(jī)動(dòng)目標(biāo)精確跟蹤方法”(專(zhuān)利申請(qǐng)?zhí)?2112061. 7,公開(kāi)號(hào)CN1382997)公開(kāi)了一種基于神經(jīng)網(wǎng)絡(luò)的機(jī)動(dòng)目標(biāo)精確跟蹤方法。該方法采用兩個(gè)濾波器組成雙并行結(jié)構(gòu),提取并行雙濾波器的狀態(tài)之差為待估計(jì)目標(biāo)的狀態(tài)特征向量,作為輸入送給神經(jīng)網(wǎng)絡(luò)系統(tǒng);在跟蹤估計(jì)之前已經(jīng)離線訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)系統(tǒng)根據(jù)輸入的特征向量,輸出當(dāng)前時(shí)刻待估計(jì)目標(biāo)的加速度方差預(yù)測(cè)值,并利用預(yù)測(cè)值,基于當(dāng)前統(tǒng)計(jì)模型進(jìn)行自適應(yīng)濾波,得到對(duì)待估計(jì)目標(biāo)的快速和精確的跟蹤。該方法雖然能通過(guò)神經(jīng)網(wǎng)絡(luò)調(diào)整系統(tǒng)方差以適應(yīng)目標(biāo)的運(yùn)動(dòng)變化,但仍然存在的不足是該方法采用的是離線訓(xùn)練好的神經(jīng)網(wǎng)絡(luò),不能在檢測(cè)過(guò)程中根據(jù)檢測(cè)結(jié)果進(jìn)行調(diào)整以提高檢測(cè)正確率,缺乏靈活性和適應(yīng)性。
發(fā)明內(nèi)容
本發(fā)明的目的是針對(duì)上述現(xiàn)有技術(shù)的不足,提出一種基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,人工神經(jīng)網(wǎng)絡(luò)通過(guò)學(xué)習(xí)待跟蹤序列圖第I幀圖像中的目標(biāo),對(duì)整個(gè)待跟蹤序列圖進(jìn)行跟蹤,在跟蹤過(guò)程中采用擴(kuò)張式學(xué)習(xí)方法,不斷學(xué)習(xí)已檢測(cè)到的目標(biāo),這樣既不需要采集大量樣本,又能夠不斷調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值,提高目標(biāo)跟蹤的精度。
實(shí)現(xiàn)本發(fā)明的具體思路是采用半監(jiān)督方式從待跟蹤序列圖的第一幀圖像中手動(dòng)截取目標(biāo)區(qū)域作為訓(xùn)練樣本集中的樣本,構(gòu)建人工神經(jīng)網(wǎng)絡(luò)。隨著目標(biāo)不斷運(yùn)動(dòng),目標(biāo)形態(tài)特征會(huì)發(fā)生較大變化,由于缺乏樣本,這些形態(tài)特征的變化很快超出人工神經(jīng)網(wǎng)絡(luò)的泛化性,導(dǎo)致跟蹤點(diǎn)漂移。本發(fā)明采用擴(kuò)張式學(xué)習(xí)方法來(lái)提高人工神經(jīng)網(wǎng)絡(luò)跟蹤目標(biāo)的精度,將人工神經(jīng)網(wǎng)絡(luò)結(jié)合相關(guān)匹配算法對(duì)待跟蹤序列圖中的目標(biāo)進(jìn)行檢測(cè)定位,找出最佳目標(biāo)位置以及目標(biāo)的高度和寬度,在跟蹤過(guò)程中不斷將已經(jīng)檢測(cè)到的目標(biāo)區(qū)域作為樣本存入訓(xùn)練樣本集,人工神經(jīng)網(wǎng)絡(luò)不斷學(xué)習(xí)訓(xùn)練樣本集中的樣本,重復(fù)以上過(guò)程,直到檢測(cè)出所有待跟蹤序列圖中的目標(biāo),完成目標(biāo)跟蹤過(guò)程。為了實(shí)現(xiàn)上述目的,本發(fā)明方法包括如下步驟(I)建立訓(xùn)練樣本集Ia)用計(jì)算機(jī)畫(huà)圖程序打開(kāi)待跟蹤序列圖的第I幀圖像;Ib)手動(dòng)截取待跟蹤序列圖第I幀圖像中的目標(biāo)區(qū)域,將目標(biāo)區(qū)域的高度和寬度作為搜索框的高度和寬度; Ic)將第I幀圖像中的目標(biāo)區(qū)域作為訓(xùn)練樣本集編號(hào)為I的樣本;Id)調(diào)用軟件平臺(tái)matlab的imread函數(shù),根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次輸入訓(xùn)練樣本集中的樣本對(duì)應(yīng)于計(jì)算機(jī)中的存儲(chǔ)路徑和文件名稱(chēng),依次輸出與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的樣本灰度值矩陣,作為人工神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù);Ie)將待跟蹤序列圖第I巾貞圖像作為當(dāng)前巾貞圖像,調(diào)用軟件平臺(tái)matlab的imread函數(shù),輸入當(dāng)前幀圖像對(duì)應(yīng)于計(jì)算機(jī)中的存儲(chǔ)路徑和文件名稱(chēng),輸出當(dāng)前幀圖像的灰度值矩陣;(2)獲取樣本標(biāo)準(zhǔn)化灰度值矩陣根據(jù)訓(xùn)練樣本集中樣本編號(hào)依次找出與之對(duì)應(yīng)的樣本灰度值矩陣,在對(duì)應(yīng)的樣本灰度值矩陣的左右邊緣同時(shí)填充相同列數(shù)的零元素,在上下邊緣同時(shí)填充相同行數(shù)的零元素,獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的所有樣本標(biāo)準(zhǔn)化灰度值矩陣;(3)構(gòu)建人工神經(jīng)網(wǎng)絡(luò)模型3a)根據(jù)訓(xùn)練樣本集的樣本個(gè)數(shù),設(shè)定人工神經(jīng)網(wǎng)絡(luò)的最大誤差;3b)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將樣本標(biāo)準(zhǔn)化灰度值矩陣由輸入層的兩個(gè)子網(wǎng)絡(luò)輸入人工神經(jīng)網(wǎng)絡(luò),依次獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值;3c)輸入層根據(jù)訓(xùn)練樣本集中樣本編號(hào)將與之對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值分別做累和運(yùn)算;3d)輸出層將兩個(gè)子網(wǎng)絡(luò)累和運(yùn)算的結(jié)果相減,獲得差值,如果差值大于O則輸出1,如果差值小于O則輸出0,將輸出的O的個(gè)數(shù)作為當(dāng)前人工神經(jīng)網(wǎng)絡(luò)的誤差;3e)輸出層判斷當(dāng)前人工神經(jīng)網(wǎng)絡(luò)誤差是否大于人工神經(jīng)網(wǎng)絡(luò)的最大誤差,如果大于最大誤差,采用錯(cuò)誤驅(qū)動(dòng)準(zhǔn)則更新樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值,否則,執(zhí)行步驟(4);(4)搜索當(dāng)前幀圖像中的目標(biāo)4a)以當(dāng)前幀圖像的灰度值矩陣左上角第一個(gè)元素所在位置為坐標(biāo)原點(diǎn),將向下方向作為縱坐標(biāo)的正方向,向右方向作為橫坐標(biāo)的正方向,相鄰元素間隔坐標(biāo)軸標(biāo)準(zhǔn)單位,建立坐標(biāo)系,得到當(dāng)前幀圖像的灰度值矩陣每一元素所在位置與坐標(biāo)系中坐標(biāo)的對(duì)應(yīng)關(guān)系;將目標(biāo)統(tǒng)計(jì)矩陣設(shè)置為與目標(biāo)待搜索灰度值矩陣尺寸大小相同的零矩陣;4b)將搜索框的中心平移至當(dāng)前幀圖像的灰度值矩陣中左上角第一個(gè)元素所在位置,獲得搜索框中心位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo);4c)按搜索框高度和寬度截取當(dāng)前幀圖像的灰度值矩陣,得到待檢測(cè)區(qū)域的灰度值矩陣,如果搜索框未超出當(dāng)前幀圖像的灰度值矩陣,執(zhí)行步驟4d);否則,執(zhí)行步驟4g);4d)在待檢測(cè)區(qū)域的灰度值矩陣的左右邊緣同時(shí)填充相同列數(shù)的零元素,在上下邊緣同時(shí)填充相同行數(shù)的零元素,得到待檢測(cè)區(qū)域標(biāo)準(zhǔn)化灰度值矩陣;4e)將待檢測(cè)區(qū)域標(biāo)準(zhǔn)化灰度值矩陣由人工神經(jīng)網(wǎng)絡(luò)輸入層的兩個(gè)子網(wǎng)絡(luò)輸入人工神經(jīng)網(wǎng)絡(luò),得到人工神經(jīng)網(wǎng)絡(luò)的輸出;
4f)如果人工神經(jīng)網(wǎng)絡(luò)輸出0,判斷該元素所在位置為非目標(biāo)位置,執(zhí)行步驟4g);否則,判斷該元素所在位置為目標(biāo)位置,根據(jù)搜索框中心對(duì)應(yīng)坐標(biāo)系的坐標(biāo)將目標(biāo)統(tǒng)計(jì)矩陣中對(duì)應(yīng)位置的數(shù)值設(shè)為-I ;4g)按從左到右,從上到下的順序,依次將搜索框中心平移至當(dāng)前幀圖像的灰度值矩陣中每一元素所在位置,獲得搜索框中心位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo);4h)重復(fù)步驟4c)、步驟4d)、步驟4e)、步驟4f)直到搜索完當(dāng)前幀圖像的灰度值矩陣右下角最后一個(gè)元素所在位置;(5)判斷目標(biāo)的位置個(gè)數(shù)是否為I個(gè)將目標(biāo)統(tǒng)計(jì)矩陣中元素等于-I的個(gè)數(shù)作為目標(biāo)的位置個(gè)數(shù),如果目標(biāo)位置個(gè)數(shù)為1,則將目標(biāo)統(tǒng)計(jì)矩陣中-I元素所在位置作為最佳目標(biāo)位置,執(zhí)行步驟(8);否則,執(zhí)行步驟⑶;(6)構(gòu)建匹配模板庫(kù)6a)調(diào)用軟件平臺(tái)matlab的imadajust函數(shù),根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次輸入樣本的灰度值矩陣,依次輸出與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的灰度增強(qiáng)的樣本灰度值矩陣;6b)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將灰度增強(qiáng)的樣本灰度值矩陣作為匹配模板灰度值矩陣,存入匹配模板庫(kù);(7)計(jì)算相似度7a)將當(dāng)前相似度設(shè)置為O ;7b)按從左到右、從上到下的搜索順序,搜索目標(biāo)統(tǒng)計(jì)矩陣,得到第一個(gè)數(shù)值為-I的元素所在位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo),在當(dāng)前幀圖像灰度值矩陣中將搜索框中心平移至對(duì)應(yīng)該坐標(biāo)的位置處;7c)按搜索框高度和寬度截取當(dāng)前幀圖像的灰度值矩陣,獲得待檢測(cè)區(qū)域的灰度值矩陣;7d)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將匹配模板庫(kù)中的匹配模板灰度值矩陣與待檢測(cè)區(qū)域的灰度值矩陣按相關(guān)匹配算法計(jì)算相似度,獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的所有相似度,將所有相似度中數(shù)值最大的相似度作為最大相似度;7e)如果得到的最大相似度大于當(dāng)前相似度時(shí),將搜索框中心所處位置作為最佳目標(biāo)位置,用最大相似度的數(shù)值替換當(dāng)前相似度的數(shù)值;否則,執(zhí)行步驟7f);
7f)按從左到右、從上到下的搜索順序,搜索目標(biāo)統(tǒng)計(jì)矩陣中的-I元素,依次得到目標(biāo)統(tǒng)計(jì)矩陣中元素-I所在位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo),在當(dāng)前幀圖像灰度值矩陣中將搜索框中心平移至對(duì)應(yīng)該坐標(biāo)的位置處,重復(fù)步驟7c)、步驟7d)、步驟7e)直到搜索完目標(biāo)統(tǒng)計(jì)矩陣中所有的-I元素;(8)獲取當(dāng)前幀圖像中的目標(biāo)在當(dāng)前幀圖像中以最佳目標(biāo)位置為中心,按搜索框高度和寬度截取當(dāng)前幀圖像,獲得目標(biāo)區(qū)域;(9)更新訓(xùn)練樣本集9a)如果當(dāng)前幀圖像的幀數(shù)是50的整數(shù)倍,則清空訓(xùn)練樣本集中所有樣本,清空匹配模板庫(kù)中所有匹配模板灰度值矩陣,以此時(shí)的最佳目標(biāo)位置作為搜索框中心位置,按搜索框高度的I. 5倍、寬度的I. 5倍截取當(dāng)前幀圖像,得到邊緣待檢測(cè)區(qū)域,分割邊緣待檢 測(cè)區(qū)域,得到能夠包含所有邊緣點(diǎn)的最小外接矩形,在邊緣待檢測(cè)區(qū)域中將最小外接矩形對(duì)應(yīng)的區(qū)域作為訓(xùn)練樣本集編號(hào)為I的樣本,加入訓(xùn)練樣本集,將最小外接矩形的高度和寬度作為搜索框的高度和寬度;否則,根據(jù)訓(xùn)練樣本集樣本的個(gè)數(shù),將獲取的目標(biāo)區(qū)域作為樣本繼續(xù)編號(hào),存入訓(xùn)練樣本集;9b)如果當(dāng)前幀圖像的幀數(shù)小于或者等于待跟蹤序列圖最后一幀圖像的幀數(shù),則執(zhí)行步驟Id);否則,結(jié)束跟蹤。本發(fā)明與現(xiàn)有技術(shù)相比有以下優(yōu)點(diǎn)第一,由于本發(fā)明采用人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法進(jìn)行目標(biāo)跟蹤,客服了現(xiàn)有技術(shù)需要采集大量樣本進(jìn)行學(xué)習(xí)的缺點(diǎn),使得本發(fā)明可以?xún)H采集待跟蹤序列圖第I幀圖像的目標(biāo),就能準(zhǔn)確跟蹤整個(gè)待跟蹤序列圖目標(biāo),減少了采集樣本的工作量和采集時(shí)間,能夠簡(jiǎn)單、快速地進(jìn)行目標(biāo)跟蹤。第二,由于本發(fā)明通過(guò)擴(kuò)張式學(xué)習(xí)方法對(duì)人工神經(jīng)網(wǎng)絡(luò)進(jìn)行在線更新,克服了現(xiàn)有技術(shù)中使用離線方法訓(xùn)練人工神經(jīng)網(wǎng)絡(luò),在跟蹤過(guò)程中不能調(diào)整人工神經(jīng)網(wǎng)絡(luò)權(quán)值的缺點(diǎn),使得本發(fā)明可以在目標(biāo)跟蹤過(guò)程中不斷調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值,提高目標(biāo)跟蹤的精度。
圖I為本發(fā)明方法的流程圖;圖2為本發(fā)明的仿真效果圖。具體實(shí)施措施下面結(jié)合附圖對(duì)發(fā)明做進(jìn)一步描述。結(jié)合附圖I對(duì)本發(fā)明方法的具體步驟描述如下步驟I,建立訓(xùn)練樣本集檢測(cè)人員用計(jì)算機(jī)畫(huà)圖程序打開(kāi)待跟蹤序列圖的第I幀圖像,手動(dòng)截取待跟蹤序列圖第I幀圖像中的目標(biāo)區(qū)域,將目標(biāo)區(qū)域的高度和寬度作為搜索框的高度和寬度,將第I幀圖像中的目標(biāo)區(qū)域作為訓(xùn)練樣本集編號(hào)為I的樣本。檢測(cè)人員調(diào)用軟件平臺(tái)matlab的imread函數(shù),根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次輸入訓(xùn)練樣本集中的樣本對(duì)應(yīng)于計(jì)算機(jī)中的存儲(chǔ)路徑和文件名稱(chēng),依次輸出與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的樣本灰度值矩陣,作為人工神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù)。將待跟蹤序列圖第I幀圖像作為當(dāng)前幀圖像,檢測(cè)人員調(diào)用軟件平臺(tái)matlab的imread函數(shù),輸入當(dāng)前巾貞圖像對(duì)應(yīng)于計(jì)算機(jī)中的存儲(chǔ)路徑和文件名稱(chēng),輸出當(dāng)前幀圖像的灰度值矩陣,作為目標(biāo)待搜索的灰度值矩陣。步驟2,獲取樣本標(biāo)準(zhǔn)化灰度值矩陣計(jì)算機(jī)根據(jù)訓(xùn)練樣本集中樣本編號(hào)依次找出與之對(duì)應(yīng)的樣本灰度值矩陣,在對(duì)應(yīng)的樣本灰度值矩陣的左右邊緣同時(shí)填充相同列數(shù)的零元素,在上下邊緣同時(shí)填充相同行數(shù)的零元素,獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的所有樣本標(biāo)準(zhǔn)化灰度值矩陣,以統(tǒng)一所有輸入人工神經(jīng)網(wǎng)絡(luò)的數(shù)據(jù)尺寸,其中,樣本標(biāo)準(zhǔn)化灰度值矩陣尺寸大小是手動(dòng)截取的待跟 蹤序列圖第I幀圖像中目標(biāo)區(qū)域?qū)?yīng)的訓(xùn)練樣本集的樣本灰度值矩陣尺寸大小的5倍。步驟3,構(gòu)建人工神經(jīng)網(wǎng)絡(luò)模型檢測(cè)人員選擇Sparse Network of Winnows人工神經(jīng)網(wǎng)絡(luò),根據(jù)訓(xùn)練樣本集的樣本個(gè)數(shù),設(shè)定人工神經(jīng)網(wǎng)絡(luò)的最大誤差;其中,人工神經(jīng)網(wǎng)絡(luò)的最大誤差等于訓(xùn)練樣本集的當(dāng)前樣本個(gè)數(shù)乘以U,其中,u的范圍為O O. 05,使得人工神經(jīng)網(wǎng)絡(luò)在誤差范圍內(nèi)能夠正確識(shí)別待跟蹤序列圖中的目標(biāo);計(jì)算機(jī)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將樣本標(biāo)準(zhǔn)化灰度值矩陣由輸入層的兩個(gè)子網(wǎng)絡(luò)輸入人工神經(jīng)網(wǎng)絡(luò),依次獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值,這樣可以將樣本的灰度特征存儲(chǔ)在人工神經(jīng)網(wǎng)絡(luò)中;輸入層根據(jù)訓(xùn)練樣本集中樣本編號(hào)將與之對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值分別做累和運(yùn)算,作為輸出層的輸入數(shù)據(jù);輸出層將兩個(gè)子網(wǎng)絡(luò)累和運(yùn)算的結(jié)果相減,獲得差值,如果差值大于O則輸出1,判斷輸入人工神經(jīng)網(wǎng)絡(luò)的矩陣是樣本標(biāo)準(zhǔn)化灰度值矩陣,如果差值小于O則輸出0,判斷輸入人工神經(jīng)網(wǎng)絡(luò)的灰度值矩陣不是樣本標(biāo)準(zhǔn)化灰度值矩陣,因?yàn)檩斎肴斯ど窠?jīng)網(wǎng)絡(luò)的矩陣都是樣本標(biāo)準(zhǔn)化灰度值矩陣,所以可以將輸出的O的個(gè)數(shù)作為當(dāng)前人工神經(jīng)網(wǎng)絡(luò)的誤差;輸出層判斷當(dāng)前人工神經(jīng)網(wǎng)絡(luò)誤差是否大于人工神經(jīng)網(wǎng)絡(luò)的最大誤差,如果大于最大誤差,采用錯(cuò)誤驅(qū)動(dòng)準(zhǔn)則更新樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值,否則,執(zhí)行步驟4。其中,錯(cuò)誤驅(qū)動(dòng)準(zhǔn)則是將樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)第一個(gè)子網(wǎng)絡(luò)的權(quán)值均乘以上升因子α ;將樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)第二子網(wǎng)絡(luò)的權(quán)值均乘以下降因子β ;其中α > 1,0 < β < I。步驟4,搜索當(dāng)前幀圖像中的目標(biāo)4a)計(jì)算機(jī)以當(dāng)前幀圖像的灰度值矩陣左上角第一個(gè)元素所在位置為坐標(biāo)原點(diǎn),將向下方向作為縱坐標(biāo)的正方向,向右方向作為橫坐標(biāo)的正方向,相鄰元素間隔坐標(biāo)軸標(biāo)準(zhǔn)單位,建立坐標(biāo)系,得到當(dāng)前幀圖像的灰度值矩陣每一元素所在位置與坐標(biāo)系中坐標(biāo)的對(duì)應(yīng)關(guān)系;將目標(biāo)統(tǒng)計(jì)矩陣設(shè)置為與目標(biāo)待搜索灰度值矩陣尺寸大小相同的零矩陣;4b)將搜索框的中心平移至當(dāng)前幀圖像的灰度值矩陣中左上角第一個(gè)元素所在位置,獲得搜索框中心位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo);4c)按搜索框高度和寬度截取當(dāng)前幀圖像的灰度值矩陣,得到待檢測(cè)區(qū)域的灰度值矩陣,如果搜索框未超出當(dāng)前幀圖像的灰度值矩陣,執(zhí)行步驟4d);否則,執(zhí)行步驟4g);4d)在待檢測(cè)區(qū)域的灰度值矩陣的左右邊緣同時(shí)填充相同列數(shù)的零元素,在上下邊緣同時(shí)填充相同行數(shù)的零元素,得到待檢測(cè)區(qū)域標(biāo)準(zhǔn)化灰度值矩陣,其中,樣本標(biāo)準(zhǔn)化灰度值矩陣尺寸大小是手動(dòng)截取的待跟蹤序列圖第一幀圖像中目標(biāo)區(qū)域?qū)?yīng)的訓(xùn)練樣本集的樣本灰度值矩陣尺寸大小的5倍;4e)將待檢測(cè)區(qū)域標(biāo)準(zhǔn)化灰度值矩陣由人工神經(jīng)網(wǎng)絡(luò)輸入層的兩個(gè)子網(wǎng)絡(luò)輸入人工神經(jīng)網(wǎng)絡(luò),得到人工神經(jīng)網(wǎng)絡(luò)的輸出;4f)如果人工神經(jīng)網(wǎng)絡(luò)輸出0,判斷該元素所在位置為非目標(biāo)位置,執(zhí)行步驟4g);否則,判斷該元素所在位置為目標(biāo)位置,根據(jù)搜索框中心對(duì)應(yīng)坐標(biāo)系的坐標(biāo)將目標(biāo)統(tǒng)計(jì)矩陣中對(duì)應(yīng)位置的數(shù)值設(shè)為-I ;4g)按從左到右,從上到下的順序,依次將搜索框中心平移至當(dāng)前幀圖像的灰度值矩陣中每一元素所在位置,獲得搜索框中心位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo);4h)重復(fù)步驟4c)、步驟4d)、步驟4e)、步驟4f)直到搜索完當(dāng)前幀圖像的灰度值矩陣右下角最后一個(gè)元素所在位置。 步驟5,判斷目標(biāo)位置個(gè)數(shù)是否為I個(gè)計(jì)算機(jī)將目標(biāo)統(tǒng)計(jì)矩陣中元素等于-I的個(gè)數(shù)作為目標(biāo)的位置個(gè)數(shù),如果目標(biāo)位置個(gè)數(shù)為1,說(shuō)明當(dāng)前幀圖像的灰度值矩陣經(jīng)過(guò)人工神經(jīng)網(wǎng)絡(luò)粗搜索后,只得到一個(gè)目標(biāo)位置,則將目標(biāo)統(tǒng)計(jì)矩陣中-I元素所在位置作為最佳目標(biāo)位置,執(zhí)行步驟8 ;否則,執(zhí)行步驟6,利用相關(guān)匹配算法在人工神經(jīng)網(wǎng)絡(luò)判斷的基礎(chǔ)上對(duì)目標(biāo)統(tǒng)計(jì)矩陣進(jìn)行細(xì)搜索。步驟6,構(gòu)建匹配模板庫(kù)檢測(cè)人員調(diào)用軟件平臺(tái)matlab的imadajust函數(shù),根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次輸入樣本的灰度值矩陣,依次輸出與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的灰度增強(qiáng)的樣本灰度值矩陣;根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將灰度增強(qiáng)的樣本灰度值矩陣作為匹配模板灰度值矩陣,存入匹配模板庫(kù);為下面步驟的相關(guān)匹配算法構(gòu)建匹配模板庫(kù)。步驟7,計(jì)算相似度7a)初始化的當(dāng)前相似度,將當(dāng)前相似度設(shè)置為O ;7b)按從左到右、從上到下的搜索順序,搜索目標(biāo)統(tǒng)計(jì)矩陣,得到第一個(gè)數(shù)值為-I的元素所在位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo),在當(dāng)前幀圖像灰度值矩陣中將搜索框中心平移至對(duì)應(yīng)該坐標(biāo)的位置處;通過(guò)搜索目標(biāo)統(tǒng)計(jì)矩陣,可以在人工神經(jīng)網(wǎng)絡(luò)粗搜索的基礎(chǔ)上利用相關(guān)匹配算法進(jìn)行細(xì)搜索,此時(shí)僅僅只需要進(jìn)一步判斷目標(biāo)統(tǒng)計(jì)矩陣中少數(shù)-I元素所在位置哪個(gè)是最佳目標(biāo)位置,而不必再重新搜索當(dāng)前幀圖像所有元素所在位置,減少了計(jì)算量,并避免了搜索某些會(huì)影響相關(guān)匹配算法的位置,提高了識(shí)別的精度;7c)按搜索框高度和寬度截取當(dāng)前幀圖像的灰度值矩陣,獲得待檢測(cè)區(qū)域的灰度值矩陣;7d)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將匹配模板庫(kù)中的匹配模板灰度值矩陣與待檢測(cè)區(qū)域的灰度值矩陣按相關(guān)匹配算法計(jì)算相似度,獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的所有相似度,將所有相似度中數(shù)值最大的相似度作為最大相似度;其中,相關(guān)匹配算法如下
權(quán)利要求
1 一種基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,包括以下步驟 (1)建立訓(xùn)練樣本集 Ia)用計(jì)算機(jī)畫(huà)圖程序打開(kāi)待跟蹤序列圖的第I幀圖像; Ib)手動(dòng)截取待跟蹤序列圖第I幀圖像中的目標(biāo)區(qū)域,將目標(biāo)區(qū)域的高度和寬度作為搜索框的高度和寬度; Ic)將第I幀圖像中的目標(biāo)區(qū)域作為訓(xùn)練樣本集編號(hào)為I的樣本; Id)調(diào)用軟件平臺(tái)matlab的imread函數(shù),根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次輸入訓(xùn)練樣本集中的樣本對(duì)應(yīng)于計(jì)算機(jī)中的存儲(chǔ)路徑和文件名稱(chēng),依次輸出與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的樣本灰度值矩陣,作為人工神經(jīng)網(wǎng)絡(luò)的輸入數(shù)據(jù); Ie)將待跟蹤序列圖第I巾貞圖像作為當(dāng)前巾貞圖像,調(diào)用軟件平臺(tái)matlab的imread函·數(shù),輸入當(dāng)前幀圖像對(duì)應(yīng)于計(jì)算機(jī)中的存儲(chǔ)路徑和文件名稱(chēng),輸出當(dāng)前幀圖像的灰度值矩陣; (2)獲取樣本標(biāo)準(zhǔn)化灰度值矩陣 根據(jù)訓(xùn)練樣本集中樣本編號(hào)依次找出與之對(duì)應(yīng)的樣本灰度值矩陣,在對(duì)應(yīng)的樣本灰度值矩陣的左右邊緣同時(shí)填充相同列數(shù)的零元素,在上下邊緣同時(shí)填充相同行數(shù)的零元素,獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的所有樣本標(biāo)準(zhǔn)化灰度值矩陣; (3)構(gòu)建人工神經(jīng)網(wǎng)絡(luò)模型 3a)根據(jù)訓(xùn)練樣本集的樣本個(gè)數(shù),設(shè)定人工神經(jīng)網(wǎng)絡(luò)的最大誤差; 3b)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將樣本標(biāo)準(zhǔn)化灰度值矩陣由輸入層的兩個(gè)子網(wǎng)絡(luò)輸入人工神經(jīng)網(wǎng)絡(luò),依次獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值; 3c)輸入層根據(jù)訓(xùn)練樣本集中樣本編號(hào)將與之對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值分別做累和運(yùn)算;3d)輸出層將兩個(gè)子網(wǎng)絡(luò)累和運(yùn)算的結(jié)果相減,獲得差值,如果差值大于O則輸出1,如果差值小于O則輸出O,將輸出的O的個(gè)數(shù)作為當(dāng)前人工神經(jīng)網(wǎng)絡(luò)的誤差; 3e)輸出層判斷當(dāng)前人工神經(jīng)網(wǎng)絡(luò)誤差是否大于人工神經(jīng)網(wǎng)絡(luò)的最大誤差,如果大于最大誤差,采用錯(cuò)誤驅(qū)動(dòng)準(zhǔn)則更新樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)的子網(wǎng)絡(luò)的權(quán)值,否則,執(zhí)行步驟⑷; (4)搜索當(dāng)前幀圖像中的目標(biāo) 4a)以當(dāng)前幀圖像的灰度值矩陣左上角第一個(gè)元素所在位置為坐標(biāo)原點(diǎn),將向下方向作為縱坐標(biāo)的正方向,向右方向作為橫坐標(biāo)的正方向,相鄰元素間隔坐標(biāo)軸標(biāo)準(zhǔn)單位,建立坐標(biāo)系,得到當(dāng)前幀圖像的灰度值矩陣每一元素所在位置與坐標(biāo)系中坐標(biāo)的對(duì)應(yīng)關(guān)系;將目標(biāo)統(tǒng)計(jì)矩陣設(shè)置為與目標(biāo)待搜索灰度值矩陣尺寸大小相同的零矩陣; 4b)將搜索框的中心平移至當(dāng)前幀圖像的灰度值矩陣中左上角第一個(gè)元素所在位置,獲得搜索框中心位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo); 4c)按搜索框高度和寬度截取當(dāng)前幀圖像的灰度值矩陣,得到待檢測(cè)區(qū)域的灰度值矩陣,如果搜索框未超出當(dāng)前幀圖像的灰度值矩陣,執(zhí)行步驟4d);否則,執(zhí)行步驟4g); 4d)在待檢測(cè)區(qū)域的灰度值矩陣的左右邊緣同時(shí)填充相同列數(shù)的零元素,在上下邊緣同時(shí)填充相同行數(shù)的零元素,得到待檢測(cè)區(qū)域標(biāo)準(zhǔn)化灰度值矩陣; 4e)將待檢測(cè)區(qū)域標(biāo)準(zhǔn)化灰度值矩陣由人工神經(jīng)網(wǎng)絡(luò)輸入層的兩個(gè)子網(wǎng)絡(luò)輸入人工神經(jīng)網(wǎng)絡(luò),得到人工神經(jīng)網(wǎng)絡(luò)的輸出; 4f)如果人工神經(jīng)網(wǎng)絡(luò)輸出O,判斷該元素所在位置為非目標(biāo)位置,執(zhí)行步驟4g);否貝U,判斷該元素所在位置為目標(biāo)位置,根據(jù)搜索框中心對(duì)應(yīng)坐標(biāo)系的坐標(biāo)將目標(biāo)統(tǒng)計(jì)矩陣中對(duì)應(yīng)位置的數(shù)值設(shè)為-I ; 4g)按從左到右,從上到下的順序,依次將搜索框中心平移至當(dāng)前幀圖像的灰度值矩陣中每一元素所在位置,獲得搜索框中心位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo); 4h)重復(fù)步驟4c)、步驟4d)、步驟4e)、步驟4f)直到搜索完當(dāng)前幀圖像的灰度值矩陣右下角最后一個(gè)元素所在位置; (5)判斷目標(biāo)的位置個(gè)數(shù)是否為I個(gè) 將目標(biāo)統(tǒng)計(jì)矩陣中元素等于-I的個(gè)數(shù)作為目標(biāo)的位置個(gè)數(shù),如果目標(biāo)位置個(gè)數(shù)為1,則將目標(biāo)統(tǒng)計(jì)矩陣中-I元素所在位置作為最佳目標(biāo)位置,執(zhí)行步驟(8);否則,執(zhí)行步驟 (6); (6)構(gòu)建匹配模板庫(kù) 6a)調(diào)用軟件平臺(tái)matlab的imadajust函數(shù),根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次輸入樣本的灰度值矩陣,依次輸出與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的灰度增強(qiáng)的樣本灰度值矩陣; 6b)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將灰度增強(qiáng)的樣本灰度值矩陣作為匹配模板灰度值矩陣,存入匹配模板庫(kù); (7)計(jì)算相似度 7a)將當(dāng)前相似度設(shè)置為O ; 7b)按從左到右、從上到下的搜索順序,搜索目標(biāo)統(tǒng)計(jì)矩陣,得到第一個(gè)數(shù)值為-I的元素所在位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo),在當(dāng)前幀圖像灰度值矩陣中將搜索框中心平移至對(duì)應(yīng)該坐標(biāo)的位置處; 7c)按搜索框高度和寬度截取當(dāng)前幀圖像的灰度值矩陣,獲得待檢測(cè)區(qū)域的灰度值矩陣; 7d)根據(jù)訓(xùn)練樣本集中樣本的編號(hào)依次將匹配模板庫(kù)中的匹配模板灰度值矩陣與待檢測(cè)區(qū)域的灰度值矩陣按相關(guān)匹配算法計(jì)算相似度,獲得與訓(xùn)練樣本集中樣本編號(hào)對(duì)應(yīng)的所有相似度,將所有相似度中數(shù)值最大的相似度作為最大相似度; 7e)如果得到的最大相似度大于當(dāng)前相似度時(shí),將搜索框中心所處位置作為最佳目標(biāo)位置,用最大相似度的數(shù)值替換當(dāng)前相似度的數(shù)值;否則,執(zhí)行步驟7f); 7f)按從左到右、從上到下的搜索順序,搜索目標(biāo)統(tǒng)計(jì)矩陣中的-I元素,依次得到目標(biāo)統(tǒng)計(jì)矩陣中元素-I所在位置對(duì)應(yīng)坐標(biāo)系的坐標(biāo),在當(dāng)前幀圖像灰度值矩陣中將搜索框中心平移至對(duì)應(yīng)該坐標(biāo)的位置處,重復(fù)步驟7c)、步驟7d)、步驟7e)直到搜索完目標(biāo)統(tǒng)計(jì)矩陣中所有的-I元素; (8)獲取當(dāng)如巾貞圖像中的目標(biāo) 在當(dāng)前幀圖像中以最佳目標(biāo)位置為中心,按搜索框高度和寬度截取當(dāng)前幀圖像,獲得目標(biāo)區(qū)域; (9)更新訓(xùn)練樣本集 9a)如果當(dāng)前幀圖像的幀數(shù)是50的整數(shù)倍,則清空訓(xùn)練樣本集中所有樣本,清空匹配模板庫(kù)中所有匹配模板灰度值矩陣,以此時(shí)的最佳目標(biāo)位置作為搜索框中心位置,按搜索框高度的I. 5倍、寬度的I. 5倍截取當(dāng)前幀圖像,得到邊緣待檢測(cè)區(qū)域,分割邊緣待檢測(cè)區(qū)域,得到能夠包含所有邊緣點(diǎn)的最小外接矩形,在邊緣待檢測(cè)區(qū)域中將最小外接矩形對(duì)應(yīng)的區(qū)域作為訓(xùn)練樣本集編號(hào)為I的樣本,加入訓(xùn)練樣本集,將最小外接矩形的高度和寬度作為搜索框的高度和寬度;否則,根據(jù)訓(xùn)練樣本集樣本的個(gè)數(shù),將獲取的目標(biāo)區(qū)域作為樣本繼續(xù)編號(hào),存入訓(xùn)練樣本集; 9b)如果當(dāng)前幀圖像的幀數(shù)小于或者等于待跟蹤序列圖最后一幀圖像的幀數(shù),則執(zhí)行步驟Id);否則,結(jié)束跟蹤。
2.根據(jù)權(quán)利要求I所述的基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,其特征在于,步驟(2)所述的樣本標(biāo)準(zhǔn)化灰度值矩陣尺寸大小是手動(dòng)截取的待跟蹤序列圖第I幀圖像中目標(biāo)區(qū)域?qū)?yīng)的訓(xùn)練樣本集的樣本灰度值矩陣尺寸大小的5倍。
3.根據(jù)權(quán)利要求I所述的基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,其特征在于,步驟3a)所述的人工神經(jīng)網(wǎng)絡(luò)的最大誤差等于訓(xùn)練樣本集的當(dāng)前樣本個(gè)數(shù)乘以U,其中u的范圍為O O. 05。
4.根據(jù)權(quán)利要求I所述的基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,其特征在于,步驟3e)所述的錯(cuò)誤驅(qū)動(dòng)準(zhǔn)則是將樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)第一個(gè)子網(wǎng)絡(luò)的權(quán)值均乘以上升因子α ;將樣本標(biāo)準(zhǔn)化灰度值矩陣中每個(gè)元素對(duì)應(yīng)第二子網(wǎng)絡(luò)的權(quán)值均乘以下降因子β ;其中α > 1,0 < β < I。
5.根據(jù)權(quán)利要求I所述的基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,其特征在于,步驟4d)所述的待檢測(cè)區(qū)域標(biāo)準(zhǔn)化灰度值矩陣尺寸大小是手動(dòng)截取的待跟蹤序列圖第一幀圖像中目標(biāo)區(qū)域?qū)?yīng)的訓(xùn)練樣本集的樣本灰度值矩陣尺寸大小的5倍。
6.根據(jù)權(quán)利要求I所述的基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,其特征在于,步驟7d)所述的相關(guān)匹配算法如下
7.根據(jù)權(quán)利要求I所述的基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,其特征在于,步驟9a)所述的分割是采用自適應(yīng)距離保持的水平集分割方法。
全文摘要
本發(fā)明公開(kāi)一種基于目標(biāo)跟蹤的人工神經(jīng)網(wǎng)絡(luò)擴(kuò)張式學(xué)習(xí)方法,主要解決現(xiàn)有技術(shù)中人工神經(jīng)網(wǎng)絡(luò)離線訓(xùn)練需要采集大量樣本和不能在跟蹤過(guò)程中進(jìn)行權(quán)值調(diào)整、提高跟蹤精度的問(wèn)題。其方法步驟為(1)建立訓(xùn)練樣本集;(2)獲取樣本標(biāo)準(zhǔn)化灰度值矩陣;(3)構(gòu)建人工神經(jīng)網(wǎng)絡(luò)模型;(4)搜索當(dāng)前幀圖像中的目標(biāo);(5)判斷目標(biāo)的位置個(gè)數(shù)是否為1個(gè);(6)構(gòu)建匹配模板庫(kù);(7)計(jì)算相似度;(8)獲取當(dāng)前幀圖像中的目標(biāo)(9)更新訓(xùn)練樣本集。本發(fā)明采用擴(kuò)張式學(xué)習(xí)方法,在跟蹤過(guò)程中人工神經(jīng)網(wǎng)絡(luò)不斷學(xué)習(xí)已檢測(cè)到的目標(biāo),這樣既不需要采集大量樣本,又能夠不斷調(diào)整人工神經(jīng)網(wǎng)絡(luò)的權(quán)值,提高目標(biāo)跟蹤的精度。
文檔編號(hào)G06K9/62GK102722714SQ201210155979
公開(kāi)日2012年10月10日 申請(qǐng)日期2012年5月18日 優(yōu)先權(quán)日2012年5月18日
發(fā)明者何迪, 劉德方, 劉煥云, 涂尚斌, 王軍寧 申請(qǐng)人:西安電子科技大學(xué)