亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于AdaBoost的弱分類器內部結構調整方法

文檔序號:6597192閱讀:185來源:國知局
專利名稱:一種基于AdaBoost的弱分類器內部結構調整方法
技術領域
本發(fā)明屬于目標檢測技術領域,特別是一種基于AdaBoost的弱分類器內部結構調整方法。
背景技術
目標的檢測識別方法很多,大致可分為基于區(qū)域的模板匹配檢測方法和基于特征的匹配檢測方法?;趨^(qū)域的圖像模板匹配能利用目標圖像中的所有信息,對目標對象的識別能力強、精度高,但對旋轉和縮放(非本質變化)目標圖像的識別能力較差。圖像特征匹配具有穩(wěn)定性好、易于實現、匹配效率高、對圖像的旋轉和縮放小敏感、抗噪性能好等特點,但是計算量大,檢測效果與選取的特征直接相關。Boosting 方法是由 Freund 和 Schapire 在 1990 年提出的(1.Schapire R E.The Strength of Weak Learnability[J].Machine Learning, 1990, 5(2): 197-227.),是提高預測學習系統(tǒng)的預測能力的有效工具之一,它試圖提供一種提升學習算法精度的普遍方法。隨后,Freund提出了一種效率更高的Boosting算法(2.Freund Y.Boostinga weak Learning Algorithm by Majority[J].1nformation and Computation 1995,121 (2): 256-285.)。1995· 年,Freund 和 Schapire 提出了 AdaBoost 算法(3.Freund Y.,Schapire R.Ε..A Decision-Theoretic Generalization of On-Line Learning andan Application to Boosting[J].Journal of Computer and System Sciences, 1995,55(1): 119-139.),AdaBoost算法是Boosting家族的代表算法,它本身是通過改變數據分布來實現的。它根據每輪訓練中每個樣本的分類是否正確,以及上輪的總體分類準確率,來確定每個樣本的權值。將每次訓練得到的弱分類器融合起來,作為最后的決策分類器。AdaBoost算法提出后在機器學習領域受到了極大的關注,實驗結果顯示無論是應用于人造數據還是真實數據,AdaBoost都能顯著提高學習精度。該類方法雖然實時性較好,識別率高且誤識別率低,但是該類方法訓練樣本時,一旦選擇好弱分類器,弱分類器內部結構就不再變化,無法減小性能差(正確率低、誤檢率高)的弱分類器對最終檢測的影響,且訓練樣本非常大時,訓練弱分類器所需時間過長。

發(fā)明內容
本發(fā)明的目的在于提供一種基于AdaBoost的弱分類器內部結構調整方法,從而減小性能差的弱分類器對最終檢測的影響,提高場景分類的正確率和降低誤檢率。實現本發(fā)明目的的技術解決方案為:一種基于AdaBoost的弱分類器內部結構調整方法,包括以下步驟:步驟一:訓練弱分類器,通過加權訓練樣本決定訓練的弱分類器的融合權重,每個弱分類器對輸入樣本輸出一個弱假設,所有弱分類器組成一個強分類器并輸出最終結果;步驟二:對弱分類器進行內部結構調整,每個弱分類器的調整是由一個調整向量β和一個偏移向量Π決定的,它們的維數都是IXN維,N為多級弱分類器的數目,按
權利要求
1.一種基于AdaBoost的弱分類器內部結構調整方法,其特征在于包括以下步驟: 步驟一:訓練弱分類器,通過加權訓練樣本決定訓練的弱分類器的融合權重,每個弱分類器對輸入樣本輸出一個弱假設,所有弱分類器組成一個強分類器并輸出最終結果; 步驟二:對弱分類器進行內部結構調整,每個弱分類器的調整是由一個調整向量β和一個偏移向量η決定的,它們的維數都是IXN維,N為多級弱分類器的數目,按Ir (-V, y) = P- (H; (-V) - n- ),JE7 = {1,.. N}進行調整; 步驟三:對內部結構調整后的弱分類器進行最佳參數選擇,利用遺傳算法來選取最佳參數; 步驟四:調整過的弱分類器進行驗證,即滿足一個設定的閾值,具體為對于m個樣本,調整驗證計算方式如下:
2.根據權利要求1所述的基于AdaBoost的弱分類器內部結構調整方法,特征在于步驟一中,弱分類器訓練的步驟為:首先,給定訓練數據集 D=Kx1, Y1), (x2, y2),…,(xm, ym)} Xi e X,yi e ={1,..., k}, X 代表樣本空間,Y代表類別標簽,m為樣本數量,k為類別數量;其次,給所有的訓練樣本賦予相同的權值,第t輪迭代過程中的權值分布為Dt,初始化權值D1(I)=IAi,第一次迭代時每個樣本的權值都為Ι/m ;在訓練數據集和初始權值D1Q)下訓練,得到一個弱假設ht:X —Y,X代表樣本空間,Y代表類別標簽,t為當前迭代輪數;然后使用訓練數據測試ht,計算ht的錯誤率ε t= Σ Dt⑴[ht (Xi) Φ Yi],如果ε t > 1/2,則T=t_l,退出循環(huán);設ht的權重為:a t= ε t/(l_ ε t),根據公式
3.根據權利要求1所述的基于AdaBoost的弱分類器內部結構調整方法,特征在于步驟二中的內部結構調整方法為:最終的分類器由M個強分類器級聯組成,每個強分類器由N個弱分類器組成, i f〉代表第q級強分類器對輸入樣本的響應向量,< 代表第q級強分類器中相對應的第k級弱分類器對輸入樣本的響應,其中,q=l,一,M,k=l, - ,N, Ck代表每個強分類器中的第k級弱分類器,內部結構調整向量八…最佳偏移向量%=〈<...,<〉,假設ht(x,y)是第t級內部結構調整過的弱分類器的分類, =1,...,Μ,則
4.根據權利要求1所述的基于AdaBoost的弱分類器內部結構調整方法,特征在于步驟三中利用遺傳算法來選取最佳參數,設定調整向量β的范圍為
,偏移向量η的范圍為[-0.2,0.2],具體實現步驟如下: (1)初始化遺傳算法參數,交叉概率Pc=0.8,變異概率Pm=0.05,群體大小Ps=400,最大迭代次數Im=50000,最小誤差變化Em=10_6,初始進化種群代數t=l ; (2)生成Ps個體,并編碼成染色體; (3)根據方程
全文摘要
本發(fā)明公開了一種基于AdaBoost的弱分類器內部結構調整方法,首先是訓練弱分類器,通過加權訓練樣本決定訓練的弱分類器的融合權重,每個弱分類器對輸入樣本輸出一個弱假設,所有弱分類器組成一個強分類器并輸出最終結果;其次是內部結構調整、最佳弱分類器參數選擇和調整驗證,然后利用遺傳算法來解決最優(yōu)化問題,最后是訓練樣本重新加權,根據訓練樣本的錯誤率高低來重新確定樣本的權重。本發(fā)明在場景分類問題上有非常好的表現,分辨率高,誤判率低。
文檔編號G06K9/66GK103246897SQ20131020533
公開日2013年8月14日 申請日期2013年5月27日 優(yōu)先權日2013年5月27日
發(fā)明者錢惟賢, 楊力, 胡楷, 周霞, 任建樂, 顧國華, 陳錢, 路東明, 隋修寶 申請人:南京理工大學
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1