本發(fā)明涉及計算機視覺領域,特指一種基于目標識別和跟蹤的融合策略的車載行人檢測方法。
背景技術:
行人檢測是汽車主動安全技術中的一個重要組成部分,與道路車輛檢測、行道線檢測和障礙物檢測一起構成了駕駛員輔助系統(tǒng)中碰撞避免預警系統(tǒng)的主要部分。行人跟蹤和檢測技術在智能交通系統(tǒng)中有著非常重要的意義,它通過對駕駛員的警示來避免駕駛員與其附近的行人產生碰撞。為了保護道路交通中的行人,需要準確檢測和估計出車輛附近行人的具體位置、運動方向和運動速度等信息。在出現(xiàn)危險的情況下向駕駛員發(fā)出警告以避免碰撞行人,從而有效的提高了城市交通系統(tǒng)的安全性和可靠性。
車載系統(tǒng)中的行人檢測包括了運動目標提取和目標識別,運動目標提取主要為了得到可能存在行人目標區(qū)域,目標識別則是對候選對象進行分類,判斷其是否為行人。其中,運動目標提取的算法有基于特征的方法、基于光流場的方法、基于幀間差分的方法、以及基于背景減除方法。這些方法都是假設攝像機靜止不動的,然后根據特征檢測出目標。在實際應用中,尤其是夜晚用紅外拍攝的視頻圖像中,這些方法都存在欠缺的地方,基于特征的方法易受到光線和天氣等因素的影響,需要動態(tài)確定閾值,也不能滿足實時處理的要求,相鄰幀差分法會受到光線和天氣的影響。傳統(tǒng)的基于特征和級聯(lián)分類器的行人識別算法訓練時間長,檢測率相對較低,容易產生過適應等缺點。再有,行人的姿態(tài)多種多樣,行人之間外貌更是大相徑庭;外部光照條件變化較大;當行人距離較遠時,行人在圖像中所占像素比較少,加上圖像分辨率低,很難識別;行人在由遠及近的過程中,其大小變化非常大;行人檢測系統(tǒng)在不斷追求精確性的同時也面臨實時性和魯棒性的挑戰(zhàn),這些都增加了車載平臺中行人檢測的難度。
技術實現(xiàn)要素:
本發(fā)明要解決的技術問題在于提出一種運行時間短和識別率高的基于目標識別和跟蹤的融合策略的車載行人檢測方法。
為解決上述技術問題,本發(fā)明采取的技術方案是:一種基于目標跟蹤和識別的融合策略的車載行人檢測方法,該車載行人檢測方法具體包括如下步驟:s1利用相鄰三幀正負差減的運動估計方法構建初始背景來檢測出運動區(qū)域,再通過otsu、canny邊緣檢測算子和形態(tài)學處理方法分割出運動目標;其包括:
s1.1運動目標檢測;
s1.2運動目標區(qū)域的分割;
s2采用融合特征和結合gentleadaboost和svm的級聯(lián)分類器進行運動目標識別,對所述分割出的運動目標進行分類識別,判定所述運動目標是否屬于行人;其包括:
s2.1結合haar-like特征和hog特征以增強了特征集的表現(xiàn)力;
s2.2實值弱分類器設計,包括haar-like特征的弱分類器設計和hog特征的弱分類器設計;
s2.3結合gentleadaboost和svm的級聯(lián)分類器的設計;
s3利用基于kalman濾波方法進行行人跟蹤;其包括:
s3.1目標描述,對目標狀態(tài)及特征進行建模;
s3.2利用kalman濾波來預測目標的運動狀態(tài);
s3.3基于最近鄰法和模板匹配相結合的數據關聯(lián)以及模板更新;
s4進行基于識別和跟蹤的融合策略的行人檢測,并對不同狀態(tài)的目標采用不同的檢測策略。
作為本發(fā)明技術方案的進一步優(yōu)化,該方法所述s1.1運動目標檢測包括根據初始背景圖像,利用背景減除法進行運動目標檢測,在車輛移動的過程中,采用所述相鄰三幀圖像正負差減的運動估計方法動態(tài)地更新背景圖像,利用當前時刻統(tǒng)計出來的背景圖像來檢測下一幀運動目標。
作為本發(fā)明技術方案的進一步優(yōu)化,該方法所述s1.2運動目標區(qū)域的分割具體包括如下步驟:
step1:根據下列公式用閾值法對s1.1中運動目標檢測過程中背景減除法的差分圖像進行分割:
式中,dt(x,y)為需要進行提取運動目標的圖像,t為otsu算法求得的目標與背景之間類間方差最大時的閾值;
step2:采用canny算子檢測邊緣;
step3:通過形態(tài)學中的膨脹連接邊界,連接檢測出的所述邊緣,最終分割出運動的目標。
作為本發(fā)明技術方案的進一步優(yōu)化,該方法所述haar-like特征的弱分類器如下公式所示:
其中,fi(x)為特征值,θi為haar-like特征的弱分類器的閾值,α和β是介入[-1,1]之間的實數,表示分類結果的置信度,負值的表示為非行人目標,正值為行人目標;
所述hog特征的弱分類器包括對于正樣本的每一個梯度方向直方圖,利用樣本的加權平均值m來表示行人目標,如下公式所示:
其中,hi為特征值,n為正樣本的數目,ωi為每一個樣本的權值;
hog特征的弱分類器計算每一個直方圖到該加權平均值m的歐氏距離來進行分類:
上式中,與haar-like特征的弱分類器一樣,α和β分別表示分類結果的置信度,正值代表為行人,負值代表為非行人,d(hj(x),m)是hog特征值到該加權平均值m的歐式距離,θj為閾值。
作為本發(fā)明技術方案的進一步優(yōu)化,該方法所述s2.3結合gentleadaboost和svm的級聯(lián)分類器的設計具體包括以下步驟:
s2.3.1設定每層強分類器的最大誤識率fmax∈(0.0.5]和最小檢測率dmin∈[0.99,1);
s2.3.2利用s2.1中的特征集進行gentleadaboost級聯(lián)分類器訓練時,設定每層最大特征數max,在此最大特征數max內,利用gentleadaboost算法訓練強分類器,gentleadaboost訓練算法過程:
1)給定訓練樣本(x1,y1),…,(xn,yn),設定正樣本個數p=1500,負樣本個數k=2500對于正樣本,令yi=1;對于負樣本,令yi=1;
2)樣本權值初始化
式中,p為正樣本個數,k為負樣本個數;
3)對于r=1,…,r,r表示算法迭代次數,即組成強分類器的弱分類器個數;對于每一個特征u,得到弱分類器gu∈[-1,1];計算弱分類器gu的分類錯誤
4)輸出的強分類器為:
s2.3.3當s2.3.2中級聯(lián)分類器某層的特征數大于max,選擇該max個特征作為svm分類器的輸入,此后,級聯(lián)分類器后幾層都用svm算法進行強分類器訓練,svm分類器的形式為:
上式中,x是一個所觀察樣本的特征向量,y∈{-1,1}是類別標簽,xi是第i個訓練樣本的特征向量,n是訓練樣本的數量,k(x,xi)是一個核函數,α={α1,α2,...,αn}是要求解的值,通過解決下面的二次規(guī)劃問題得出:
其中,
式中,c是一個預定義的參數,為懲罰因子,因此線性不可分的問題可以轉化為軟間隔的線性可分問題;xi,xj為支持向量,核函數k(xi,xj)為徑向基函數;
k(xi,xj)=exp(-γ||xi,xj||2),γ>0
式中,xi,xj為特征向量,γ為核函數的參數;
當級聯(lián)分類器滿足誤識率小于或等于fmax和檢測率大于或等于最小檢測率dmin時,結束級聯(lián)分類器的訓練。
作為本發(fā)明技術方案的進一步優(yōu)化,所述s3.1中,定義r={l,f,x',y',h',w,△x',△y',△h',△w'}表示運動目標,其中,l是運動目標的標號,f表示目標的外貌特征,(x',y')為目標的中心位置,h',w'分別為目標外接矩形的高和寬,△x',△y'分別表示目標中心位置在x方向和y方向上變換速度,△h',△w'表示外接矩形高和寬的變化速度;
所述s3.2中,利用kalman濾波來預測目標的運動狀態(tài),對于狀態(tài)量(x',y',h',w',△x',△y',△h',△w'),kalman濾波方程可以表示為:
xk+1=axk+wk
zk=h'xk+vk
上式中,a為狀態(tài)轉移矩陣,h'為觀測矩陣,wk、vk為動態(tài)噪聲和觀測噪聲,zk是觀測向量,狀態(tài)向量xk是一個八維向量:xk=[x,'y',h',w',△x',△y',△h',△w']t;
假設行人在單位時間間隔內做勻速運動,狀態(tài)轉移矩陣可表示為:
取觀測向量zk=[x',y',h',w']t,選取系統(tǒng)觀測矩陣為:
根據構建的kalman濾波方程以及kalman濾波算法對目標運動狀態(tài)進行預測,kalman濾波的目標的初始狀態(tài)為步驟s1和步驟s2識別出的結果;
所述s3中,最近鄰方法如下公式所示:
dis(r1,r2)=||x′1-x′1||2+||y′1-y′2||2+||h′1-h′2||2+||w′1-w′2||2
上式中,r1、r2分別表示預測目標和觀測目標,(x′1,y′1)為預測目標的中心位置,(x′2,y′2)為觀測目標的中心位置,h′1、w′1為預測目標外接矩形的高和寬,h′2、w′2為觀測目標外接矩形的高和寬;
如果預測目標與關聯(lián)的觀測值之間的距離小于設定閾值,則該數據關聯(lián)被認為是有效的,并用此時的觀測目標來更新相應目標的模板;如果預測目標與關聯(lián)的觀測值之間的距離大于閾值,則該關聯(lián)結果被認為是無效的,此時采用模板匹配的方法在預測目標附近區(qū)域內搜索新的觀測目標;若是模板匹配成功,則模板匹配的結果作為有效的觀測值;若是模板匹配沒有找到相應目標的觀測值,則該目標可能消失或是被遮擋,從而終止跟蹤。
作為本發(fā)明技術方案的進一步優(yōu)化,該方法利用kalman多目標跟蹤方法,將識別和跟蹤融合在一起,通過多幀識別結果綜合判斷,并對不同狀態(tài)的目標采用不同的檢測策略,其包括:
1)對于行人目標,在所述行人目標出現(xiàn)的前50幀圖像中每隔10幀進行檢驗性的識別,之后只對行人目標進行跟蹤,無需進行級聯(lián)分類器識別;
2)對于非行人目標,每隔5幀進行一次識別;
3)對于狀態(tài)不確定的目標,每幀都進行識別,并判斷其是否為行人。
與現(xiàn)有技術相比,本發(fā)明具有以下有益效果:
本發(fā)明的基于目標識別和跟蹤的融合策略的車載行人檢測方法,克服了車載系統(tǒng)中運動目標檢測受光線干擾的問題,改進了基于adaboost行人識別算法,同時將跟蹤和識別的融合策略運用到車載行人檢測系統(tǒng)中,避免了不必要的運算。
該方法具有很好的魯棒性和實時性,從而縮短了系統(tǒng)運行時間和提高了識別率,因此該方法具有很好的應用價值。
附圖說明
圖1是本實施例所述整體算法流程圖;
圖2是本實施例所述運動目標提取流程圖;
圖3是本實施例所述圖像子窗口中矩形的表示示意圖;
圖4是本實施例所述本發(fā)明中采用的haar-like矩形特征圖;
圖5是本實施例所述行人識別流程圖。
具體實施方式
結合附圖對本發(fā)明做進一步詳細說明,本具體實施方式提供一種基于目標識別和跟蹤的融合策略的車載行人檢測方法,該車載行人檢測方法如圖1所示,主要包括以下步驟:
s1利用相鄰三幀圖像正負差減的運動估計方法構建初始背景來檢測出運動區(qū)域,再通過otsu、canny邊緣檢測算子和形態(tài)學處理方法分割出運動目標;
s1.1運動目標檢測;
針對車載平臺采集的圖像背景受光照條件的變化和陰影的干擾較大,采用相鄰三幀圖像正負差減的運動估計方法構建初始背景來檢測運動目標。假設連續(xù)拍攝的三幀圖像分別設為it-1(x,y)、it(x,y)、it+1(x,y),將這三幀連續(xù)視頻圖像分為兩組it-1(x,y)、it(x,y)和it(x,y)、it+1(x,y),根據公式(1)和(2)將兩組圖像中對應的像素點分別進行正負差分運算,并將第一組兩幅圖像的正負差絕對值保存在
假設第t幀的背景圖像和前景圖像分別為
對開始的n幀圖像重復上述操作,并將每次得到的背景圖像加以統(tǒng)計,即可獲得一副完整的初始背景圖像。
根據初始背景圖像,利用背景減除法進行運動目標檢測,在車輛移動的過程中,采用上述相鄰三幀圖像正負差減的運動估計方法動態(tài)地更新背景圖像,利用當前時刻統(tǒng)計出來的背景圖像來檢測下一幀運動目標。
s1.2運動目標區(qū)域的分割。
檢測出運動目標之后,需要對圖像進行分割來提取運動目標區(qū)域,具體步驟如下:
step1:根據公式(4)用閾值法對s1.1中運動目標檢測過程中背景減除法的差分圖像進行分割:
式中,dt(x,y)為需要進行提取運動目標的圖像;t為otsu算法求得的目標與背景之間類間方差最大時的閾值。
step2:用canny算子檢測邊緣;
step3:通過形態(tài)學中的膨脹連接邊界,連接檢測出的所述邊緣,最終分割出運動的目標。
運動目標提取流程如圖2所示。
s2采用融合特征和結合gentleadaboost和svm的級聯(lián)分類器進行運動目標識別,對所述步驟1)中的分割出的運動目標進行分類識別,判定所述運動目標是否屬于行人;
s2.1結合haar-like特征和hog特征以增強了特征集的表現(xiàn)力,具體步驟如下:
s2.1.1提取haar-like特征,利用積分圖計算harr-like特征;
如圖3所示,圖像中的任一子窗口,尺寸為w×h,w和h分別表示長和寬,所述任一子窗口的任一矩形區(qū)域都可以由一個四元組來表示:r=(p,q,w,h),其中(p,q)表示矩形的左上角頂點坐標,w和h分別為矩形的表示長和寬。四元組的值滿足:0≤x,x+w≤w;0≤y,y+h≤h;x,y≥0,w,h≥0。
haar-like特征的計算公式可表示為:
其中,wi為第i個矩陣的權值,recsum(ri)表示為第i個矩陣的所有像素的灰度值和,n為組成featurel特征的矩形的個數。本具體實施方式中采用的haar-like矩形特征如圖4所示。
對圖像進行密集掃描過程中,每次計算特征值時都要計算矩形區(qū)域的像素和,計算量會相當大,影響系統(tǒng)的實時性能,因此本具體實施方式利用積分圖像計算haar-like特征。
s2.1.2提取hog特征。
haar-like特征主要依賴于目標圖像中的內部,忽略了圖像細節(jié)部分,并且對目標的形狀和光照條件變換比較敏感。因此為了增強特征集的表現(xiàn)力,引入能對局部對象外觀和形狀進行很好表征的hog特征作為haar-like特征的性能補償,提高檢測效果。常規(guī)的hog特征計算方法要進行諸多的求和計算,為了避免特征重復計算的問題,本具體實施方式利用積分直方圖計算hog特征,其具體步驟為:
1)對輸入圖像的進行灰度化和高斯平滑;
2)計算所述灰度化后的灰度圖像中的每一個像素的梯度大小和梯度方向;
3)對梯度圖像進行不同方向的圖像二重積分;
4)將梯度圖像投影成積分方向梯度直方圖。
s2.2實值弱分類器設計,針對不同的特征設計實值分類器,其具體包括以下步驟:
(1)haar-like特征的弱分類器設計;
本具體實施方式中弱分類器的形式如公式(6)所示:
其中,fi(x)為特征值;θi為haar-like特征的弱分類器的閾值;α和β是介入[-1,1]之間的實數,表示分類結果的置信度,負值的表示為非行人目標,正值為行人目標。
(2)hog特征的弱分類器設計。
對于正樣本的每一個梯度方向直方圖,利用樣本的加權平均值m來表示行人目標:
其中,hi為特征值,n為正樣本的數目,ωi為每一個樣本的權值。hog特征的弱分類器計算每一個直方圖到該加權平均值m的歐氏距離來進行分類:
式中,同haar-like特征的弱分類器一樣,α和β分別表示分類結果的置信度,正值代表為行人,負值代表為非行人;d(hj(x),m)是hog特征值到該加權平均值m的歐式距離,θj為閾值。
s2.3結合gentleadaboost和svm的級聯(lián)分類器的設計。
級聯(lián)分類器是針對同一個訓練集訓練不同的分類器,然后把這些不同的分類器集合起來,構成一個更強的最終的分類器。本具體實施方式在gentleadaboost級聯(lián)結構分類器上引入svm分類器,即在級聯(lián)結構的最后基層上使用adaboost算法挑選出來的特征組成特征向量作為svm分類器的輸入,得到的強分類器魯棒性更佳,并減少了訓練時間,避免了使用過多特征導致的過適應;其具體包括以下步驟:
s2.3.1設定每層強分類器的最大誤識率fmax∈(0.0.5]和最小檢測率dmin∈[0.99,1);
s2.3.2利用s2.1中的特征集進行gentleadaboost級聯(lián)分類器訓練時,設定每層最大特征數max,在此最大特征數max內,利用gentleadaboost算法訓練強分類器,gentleadaboost訓練算法過程:
1)給定訓練樣本(x1,y1),…,(xn,yn),設定正樣本個數p=1500,負樣本個數k=2500對于正樣本,令yi=1;對于負樣本,令yi=1;
2)樣本權值初始化
式中,p為正樣本個數,k為負樣本個數;
3)對于r=1,…,r,r表示算法迭代次數,即組成強分類器的弱分類器個數;對于每一個特征u,得到弱分類器gu∈[-1,1];計算弱分類器gu的分類錯誤
4)輸出的強分類器為:
其中弱分類器的輸出包含了分類置信度,可以用置信度直接表示該弱分類器的權值,最終分類器是一個符號函數。
s2.3.3當s2.3.2中級聯(lián)分類器某層的特征數大于max,本具體實施方式中max取100,選擇該max個特征作為svm分類器的輸入,此后,級聯(lián)分類器后幾層都用svm算法進行強分類器訓練,避免了gentleadaboost分類器需要過多的特征造成過適應現(xiàn)象。svm分類器的形式為:
式中,x是一個所觀察樣本的特征向量,y∈{-1,1}是類別標簽,xi是第i個訓練樣本的特征向量,n是訓練樣本的數量,k(x,xi)是一個核函數,α={α1,α2,...,αn}是要求解的值,通過解決下面的二次規(guī)劃問題得出:
其中,
式中,c是一個預定義的參數,是一個大的間隔和小數目的分類錯誤之間的這種,也就是懲罰因子,因此線性不可分的問題可以轉化為軟間隔的線性可分問題;xi,xj為支持向量。公式(12)的核函數為徑向基函數:
k(xi,xj)=exp(-γ||xi,xj||2),γ>0(13)
式中,xi,xj為特征向量,γ為核函數的參數。
在訓練svm分類器之前,先要確定參數c和γ,本具體實施方式中c=0.15,γ=0.06。當級聯(lián)分類器滿足誤識率小于或等于fmax和檢測率大于或等于最小檢測率dmin時,結束級聯(lián)分類器的訓練。利用步驟2)中的級聯(lián)分類器對步驟1)中運動目標進行識別,判斷是否為行人。判斷的目標狀態(tài)有3類:行人,非行人,不確定。
圖5為行人識別流程圖。
s3行人跟蹤:利用基于kalman濾波方法進行行人跟蹤;
使用離散kalman濾波預測行人在下一時刻可能出現(xiàn)區(qū)域,縮短目標搜索時間,可實現(xiàn)行人快速定位。行人跟蹤結果不但能獲得行人運動軌跡,也能為行人的運動分析提供可靠的數據來源。
s3.1目標描述;
目標描述是對目標狀態(tài)及特征進行建模,是多目標跟蹤的基礎。本具體實施方式中的目標用r={l,f,x',y',h',w,△x',△y',△h',△w'}表示。其中,l是運動目標的標號;f表示目標的外貌特征;(x',y')為目標的中心位置;h',w'分別為目標外接矩形的高和寬;△x',△y'分別表示目標中心位置在x方向和y方向上變換速度;△h',△w'表示外接矩形高和寬的變化速度。目標在后一幀中的狀態(tài)(x',y',h',w',△x',△y',△h',△w')可以由kalman濾波器來預測。
s3.2kalman濾波預測;
運動目標可以用勻速運動來近似表示,本具體實施方式利用kalman濾波來預測目標的運動狀態(tài)。對于狀態(tài)量(x',y',h',w',△x',△y',△h',△w'),kalman濾波方程可以表示為:
xk+1=axk+wk(14)
zk=h'xk+vk(15)
式中,a為狀態(tài)轉移矩陣;h'為觀測矩陣;wk、vk為動態(tài)噪聲和觀測噪聲;zk是觀測向量;狀態(tài)向量xk是一個八維向量:
xk=[x,'y',h',w',△x',△y',△h',△w']t(17)
由于行人運動速度較慢,相鄰兩幀圖像之間的時間間隔較短,可假設行人在單位時間間隔內做勻速運動,狀態(tài)轉移矩陣可表示為:
取觀測向量zk=[x',y',h',w']t,選取系統(tǒng)觀測矩陣為:
根據公式(14)-(19)構建的預測模型以及kalman濾波算法對目標運動狀態(tài)進行預測,kalman濾波的目標的初始狀態(tài)為步驟s1和步驟s2識別出的結果。
s3.3基于最近鄰法和模板匹配相結合的數據關聯(lián)以及模型更新。
數據關聯(lián)是處理預測目標和觀測數據之間對應關系的過程,它直接關系到目標跟蹤的準確性。本具體實施方式采用最近鄰法和模板匹配相結合的方法進行數據關聯(lián),具體過程如下:
采用公式(20)的最近鄰方法進行數據關聯(lián),
dis(r1,r2)=||x′1-x′1||2+||y′1-y′2||2+||h′1-h′2||2+||w′1-w′2||2(20)
式中,r1、r2分別表示預測目標和觀測目標;(x′1,y′1)為預測目標的中心位置;(x′2,y′2)為觀測目標的中心位置;h′1、w′1為預測目標外接矩形的高和寬;h′2、w′2為觀測目標外接矩形的高和寬。
如果預測目標與關聯(lián)的觀測值之間的距離小于設定閾值,則該數據關聯(lián)被認為是有效的,并用此時的觀測目標來更新相應目標的模板;如果預測目標與關聯(lián)的觀測值之間的距離大于閾值,則該關聯(lián)結果被認為是無效的,此時采用模板匹配的方法在預測目標附近區(qū)域內搜索新的觀測目標。若是模板匹配成功,則模板匹配的結果作為有效的觀測值;若是模板匹配沒有找到相應目標的觀測值,則該目標可能消失或是被遮擋,從而終止跟蹤。
s4進行基于識別和跟蹤的融合策略的行人檢測,并對不同狀態(tài)的目標采用不同的檢測策略。
為了進一步降低行人識別過程中的計算量,同時提高車載系統(tǒng)中行人識別性能,本發(fā)明充分利用kalman多目標跟蹤方法,將識別和跟蹤融合在一起,通過多幀識別結果綜合判斷,并對不同狀態(tài)的目標采用不同的檢測策略。
根據步驟2)中目標識別方法得到目標狀態(tài)可以分為3類:行人,非行人,不確定三種狀態(tài)。對于行人目標,在其出現(xiàn)的前50幀圖像中每隔10幀進行檢驗性的識別,防止誤識別的現(xiàn)象;之后只對其進行跟蹤,無需進行級聯(lián)分類器識別;對于非行人目標,每隔5幀進行一次識別,避免行人在較遠處被漏識別的現(xiàn)象;對于狀態(tài)不確定的目標,每幀都進行識別,并判斷其是否為行人。
本發(fā)明方法能有效地識別出行人目標,獲得行人運動軌跡,為行人的運動分析提供可靠的數據來源。從而在出現(xiàn)危險的情況下向駕駛員發(fā)出警告,有效地避免碰撞行人,這有效地提高了城市交通系統(tǒng)的安全性和可靠性。采用目標識別和識別的融合策略減少了車載行人檢測系統(tǒng)的計算量,能滿足實時性要求。
本發(fā)明中提出的方法實際上可嵌入fpga實現(xiàn),開發(fā)具有實時目標識別和跟蹤的相機或攝像機。以上實施例僅起到解釋本發(fā)明技術方案的作用,本發(fā)明所要求的保護范圍并不局限于上述實施例所述的實現(xiàn)系統(tǒng)和具體實施步驟。因此,僅對上述實施例中具體的公式及算法進行簡單替換,但其實質內容仍與本發(fā)明所述方法相一致的技術方案,均應屬于本發(fā)明的保護范圍。