本發(fā)明涉及圖像處理技術(shù)領(lǐng)域,具體涉及一種聯(lián)合像素與超像素的交互式圖像分割方法。
背景技術(shù):
圖像分割是圖像處理中的一個基本問題,其主要目的是將感興趣目標(biāo)從復(fù)雜背景中提取出來,以便進(jìn)行目標(biāo)檢測、跟蹤、識別以及場景分析等,在模式識別與計算機(jī)視覺等領(lǐng)域中有著十分廣泛的應(yīng)用。根據(jù)用戶是否提供先驗知識,可將圖像分割方法分為自動分割方法和交互式分割方法。對于那些類型多樣、內(nèi)容復(fù)雜的自然圖像,交互式分割方法使得分割結(jié)果更符合并且能夠直接反應(yīng)用戶的主觀意愿,因此逐漸被受到重視。其中,graphcut交互式分割方法因其具有全局最優(yōu)、數(shù)值魯棒性強、執(zhí)行效率高、分割加權(quán)圖的拓?fù)浣Y(jié)構(gòu)自由以及n-d圖像分割能力等,而獲得了研究者們的廣泛關(guān)注。
一個優(yōu)秀的交互式圖像分割系統(tǒng)必須滿足盡量少的用戶交互、盡量短的反饋時間以及盡可能準(zhǔn)確的分割結(jié)果等條件。graphcut算法是將像素點作為節(jié)點構(gòu)建一個加權(quán)有向圖,然后利用最大流最小割算法進(jìn)行全局求解。遺憾的是,該算法僅利用圖像灰度信息,而未考慮顏色信息,以致當(dāng)圖像內(nèi)容較復(fù)雜時,其分割結(jié)果并不理想;然而當(dāng)前景和背景在灰度信息上十分接近時,為獲得理想的分割結(jié)果graphcut算法通常需要用戶輸入大量的交互信息;此外,由于是將像素點作為節(jié)點,隨著圖像尺寸的增大,由此構(gòu)建的圖模型中的節(jié)點數(shù)目大幅度增多,從而導(dǎo)致最大流最小割算法的執(zhí)行需要耗費大量時間。針對這些缺點,li等人提出了lazysnapping分割算法。該算法首先采用分水嶺(watershed)算法對圖像進(jìn)行預(yù)分割,將分割區(qū)域作為節(jié)點重新構(gòu)建一個加權(quán)有向圖,然后采用最大流最小割算法進(jìn)行全局求解,最后再采用一套手動調(diào)整方案使得分割結(jié)果更為準(zhǔn)確。美中不足的是,該算法也存在幾個主要問題:由于watershed算法僅利用灰度圖像的梯度信息,過分割現(xiàn)象嚴(yán)重,并且其預(yù)分割結(jié)果中的區(qū)域數(shù)仍然較多;該算法利用顏色均值表征每個區(qū)域,這種表示方式過于簡單,無法準(zhǔn)確表示每個區(qū)域的顏色分布;在建模過程中選用了較為簡單的k-means聚類算法,其聚類效果受初始條件及干擾因素影響較大;在交互過程中該算法需要大量的粗調(diào)和微調(diào)操作,使得整個交互過程過于繁瑣等。
相對watershed算法而言,meanshift分割算法借助其優(yōu)秀的分割性能而得到了更為廣泛的研究及應(yīng)用。該算法充分利用了顏色信息,其過分割現(xiàn)象較輕,并且分割區(qū)域數(shù)得到了明顯減少。ning等人利用meanshift算法進(jìn)行預(yù)分割,并采用顏色直方圖表示每個區(qū)域,提出了一種基于最大相似度的區(qū)域合并(msrm)算法。不同于最大流最小割算法,msrm算法利用一種區(qū)域自動合并機(jī)制完成了彩色圖像分割。但本發(fā)明的發(fā)明人經(jīng)過研究發(fā)現(xiàn),該算法僅考慮區(qū)域間的相似度,而未考慮各區(qū)域與交互信息間的相互關(guān)系,并在區(qū)域合并過程中需要多次統(tǒng)計區(qū)域顏色直方圖以及多次計算區(qū)域間的相似度,使得整個算法的時空開銷較大;另外,msrm算法沒有考慮meanshift算法的過分割問題,因此在目標(biāo)邊緣存在著大量誤分割。
為簡化用戶交互過程,rother等人提出了grabcut算法。該算法根據(jù)用戶標(biāo)記的矩形區(qū)域建立初始前景和背景模型,由于矩形區(qū)域內(nèi)部同時包含前景信息和背景信息,因此該算法通過迭代以學(xué)習(xí)的方式來不斷更新前景和背景模型,直到全局求解得到的能量收斂時迭代停止。但本發(fā)明的發(fā)明人經(jīng)過研究發(fā)現(xiàn),由于grabcut算法僅確定出背景區(qū)域,而沒有準(zhǔn)確確定出前景區(qū)域,因此初始背景模型建立準(zhǔn)確與否將直接影響最終的分割結(jié)果。
因此,針對前述方法存在的一些問題,設(shè)計一種高效而精準(zhǔn)的交互式圖像分割方法顯得尤為重要。
技術(shù)實現(xiàn)要素:
針對現(xiàn)有圖像分割方法中存在的技術(shù)問題,本發(fā)明提供一種聯(lián)合像素與超像素的交互式圖像分割方法,該方法通過將像素信息和超像素信息有機(jī)結(jié)合,來提高現(xiàn)有交互式圖像分割方法的執(zhí)行效率,以及在盡量少的用戶交互條件下獲得更為準(zhǔn)確的分割結(jié)果。
為了解決上述技術(shù)問題,本發(fā)明采用了如下的技術(shù)方案:
一種聯(lián)合像素與超像素的交互式圖像分割方法,該方法包括以下步驟:
s1、采用meanshift算法對輸入圖像進(jìn)行預(yù)分割,以完成超像素提取,并采用顏色直方圖對每個超像素進(jìn)行建模,以準(zhǔn)確表示超像素的顏色分布;
s2、根據(jù)用戶輸入的交互信息,以超像素為節(jié)點建立圖模型,并采用最大流最小割算法進(jìn)行全局求解,以完成超像素級分割過程;
s3、在超像素級分割結(jié)果的基礎(chǔ)上,采用形態(tài)學(xué)操作在目標(biāo)邊緣構(gòu)造一個窄帶區(qū)域;
s4、在構(gòu)造好的窄帶上為前景和背景區(qū)域分別建立相應(yīng)的前景和背景模型,并對窄帶區(qū)域以像素點為節(jié)點建立圖模型,最后再次采用最大流最小割算法進(jìn)行全局求解,以完成像素級分割過程。
進(jìn)一步,所述步驟s2包括以下步驟:
s21、由用戶輸入交互信息,標(biāo)記為目標(biāo)的超像素集合記為f,標(biāo)記為背景的超像素集合記為b,未標(biāo)記超像素集合記為u;
s22、將步驟s1中得到的預(yù)分割圖像以超像素為節(jié)點表示成一個有向加權(quán)圖g=(v,e,w),其中v表示圖中節(jié)點的集合,對應(yīng)圖像中的每個超像素;e表示圖中邊的集合,對應(yīng)圖像中連接相鄰超像素間的邊;w表示圖中邊的權(quán)重,用于表示相鄰節(jié)點被劃分到同一類屬的傾向程度;對于任意兩相鄰超像素i和j,利用其顏色直方圖,采用巴氏距離計算其相似度δ(i,j),并用于表示該兩相鄰超像素邊的權(quán)重;
s23、根據(jù)用戶輸入的交互信息采用顏色直方圖分別對前景和背景進(jìn)行建模,并構(gòu)造兩個虛擬節(jié)點:對應(yīng)前景模型的source節(jié)點和對應(yīng)背景模型的sink節(jié)點;其中,集合v中的任意節(jié)點與source和sink節(jié)點所形成邊的權(quán)重分別表示該節(jié)點隸屬于前景和背景的傾向程度;對于未標(biāo)記超像素i,利用其顏色直方圖,采用巴氏距離分別計算其與source節(jié)點和sink節(jié)點的相似度δ(i,f)和δ(i,b);
s24、針對上述圖模型,定義如下能量函數(shù):
其中,第一項為區(qū)域信息項,用于度量各超像素與交互信息間的相似程度;第二項為邊緣信息項,用于度量超像素間的相似程度;區(qū)域信息項和邊緣信息項的定義分別如下:
b(ιi,ιj)=λ·δ(i,j)式(7)
其中,ιi表示節(jié)點i的類屬編號,ιi=1對應(yīng)于前景,ιi=0對應(yīng)于背景,
在以上建立好的圖模型基礎(chǔ)上,執(zhí)行最大流最小割算法即可獲得基于超像素級的全局最優(yōu)解。
進(jìn)一步,所述步驟s3包括以下步驟:
s31、記由步驟s2分割得到的二值圖像為s,通過對二值圖像s進(jìn)行形態(tài)學(xué)腐蝕操作,即可得到僅含目標(biāo)的區(qū)域sf=sθb,相應(yīng)像素集合記為trimapforeground;其中b為(2d+1)×(2d+1)大小的正方形結(jié)構(gòu)元素,式中d為正整數(shù);
s32、對二值圖像s進(jìn)行形態(tài)學(xué)膨脹操作,并與目標(biāo)區(qū)域sf做差運算即可得到一個同時含有目標(biāo)和背景的窄帶區(qū)域su=(s⊕b)-(sθb),相應(yīng)像素集合記為trimapunknown;
s33、僅含背景信息的區(qū)域可表示為sb=s-(su+sf),相應(yīng)像素集合記為trimapbackground,這樣就可以得到一個三元掩模圖像,其中包括已建立好的窄帶區(qū)域su。
進(jìn)一步,所述步驟s4包括以下步驟:
s41、將步驟s3中得到的目標(biāo)區(qū)域sf和背景區(qū)域sb分別看作虛擬source節(jié)點和虛擬sink節(jié)點,然后采用主成分分析法分別對其建立前景混合高斯模型和背景混合高斯模型,高斯個數(shù)均設(shè)為k;
s42、以像素點作為節(jié)點對步驟s3中得到的窄帶區(qū)域建立圖模型,并對式(5)能量函數(shù)中的區(qū)域信息項和邊緣信息項進(jìn)行如下重新定義:
其中,dist(i,j)表示像素點i和j的空間距離,ii表示像素點i的顏色信息,ij表示像素點j的顏色信息,
其中,
在以上建立好的圖模型基礎(chǔ)上,執(zhí)行最大流最小割算法即可獲得基于像素級的全局最優(yōu)解。
與現(xiàn)有技術(shù)相比,本發(fā)明提供的聯(lián)合像素與超像素的交互式圖像分割方法具有以下優(yōu)點:
第一、本發(fā)明采用meanshift算法進(jìn)行預(yù)分割,由此構(gòu)造的有向圖其節(jié)點數(shù)目得到大幅度減少,從而有效提高了最大流最小割算法的執(zhí)行效率;對于每個超像素,采用了更為有效的顏色直方圖表示方式,并且前景和背景模型同樣采用顏色直方圖來表示,而不再需要進(jìn)行額外的建模過程;另外,由于超像素為用戶交互提供了指導(dǎo)信息,以致本發(fā)明僅需少量的交互信息并在較短時間內(nèi)即可得到比較理想的分割效果。
第二、在建立圖模型的過程中,本發(fā)明不僅考慮到了區(qū)域間的相似程度,而且還考慮到各區(qū)域與前景和背景間的相似程度,由于充分利用了交互信息,因而使得分割結(jié)果更為準(zhǔn)確;另外,各相鄰區(qū)域間的相似度僅需計算一次,然后交由最大流最小割算法進(jìn)行處理,以得到超像素級分割結(jié)果,從而使得本方法的時空開銷得到了進(jìn)一步大幅度降低。
第三、由于meanshift算法在分割過程中難免存在邊界泄露問題,導(dǎo)致部分分割區(qū)域同時跨越前景和背景兩部分以致出現(xiàn)誤分割,本發(fā)明利用形態(tài)學(xué)操作在超像素級分割結(jié)果邊緣部分構(gòu)造一個窄帶區(qū)域,然后對該窄帶區(qū)域以像素為節(jié)點建立圖模型并執(zhí)行最大流最小割算法,從而有效提高了邊緣部分分割精度。
附圖說明
圖1是本發(fā)明提供的聯(lián)合像素與超像素的交互式圖像分割方法流程示意圖。
圖2是本發(fā)明提供的在超像素級分割結(jié)果基礎(chǔ)上建立窄帶區(qū)域的示意圖。
圖3是本發(fā)明提供的對flower圖像由用戶輸入的交互信息示意圖。
圖4是本發(fā)明提供的對flower圖像分別采用graphcut、lazysnapping、grabcut、msrm和本發(fā)明提供方法所得到的分割效果圖。
圖5是本發(fā)明提供的對dogs圖像由用戶輸入的交互信息示意圖。
圖6是本發(fā)明提供的對dogs圖像分別采用graphcut、lazysnapping、grabcut、msrm和本發(fā)明提供方法所得到的分割效果圖。
具體實施方式
為了使本發(fā)明實現(xiàn)的技術(shù)手段、創(chuàng)作特征、達(dá)成目的與功效易于明白了解,下面結(jié)合具體圖示,進(jìn)一步闡述本發(fā)明。
請參考圖1所示,本發(fā)明提供一種聯(lián)合像素與超像素的交互式圖像分割方法,該方法包括以下步驟:
s1、采用meanshift算法對輸入圖像進(jìn)行預(yù)分割,以完成超像素提取,并采用顏色直方圖對每個超像素進(jìn)行建模,以準(zhǔn)確表示超像素的顏色分布。作為具體實施方式,輸入一幅彩色圖像,采用meanshift算法對其進(jìn)行預(yù)分割從而獲得超像素;由于每個超像素的區(qū)域面積相對較大,因此本發(fā)明采用顏色直方圖對每個超像素進(jìn)行建模,以準(zhǔn)確表示超像素的顏色分布情況。設(shè)顏色直方圖大小為n3,對于彩色圖像i中的任意像素點p=(x,y),其像素值記為i(p)=(r,g,b),對其量化后新的顏色值表示為:
i′(p)=(r/l)·n2+(g/l)·n+(b/l)式(1)
其中,/為取整操作,
然后統(tǒng)計每個超像素(假設(shè)編號為i)中所有像素點量化后顏色值k=i′(p)出現(xiàn)的次數(shù)li(k),其中k∈[0,n3),并對其歸一化后即可得到最終的顏色直方圖hi,相應(yīng)的顏色值k對應(yīng)直方圖值hi(k)計算如下:
其中ni為第i個超像素中的像素總數(shù),即
s2、根據(jù)用戶輸入的交互信息,以超像素為節(jié)點建立圖模型,并采用最大流最小割算法進(jìn)行全局求解,以完成超像素級分割過程。作為具體實施例,所述步驟s2包括以下步驟:
s21、由用戶輸入交互信息,標(biāo)記為目標(biāo)的超像素集合記為f,標(biāo)記為背景的超像素集合記為b,未標(biāo)記超像素集合記為u;
s22、將步驟s1中得到的預(yù)分割圖像以超像素為節(jié)點表示成一個有向加權(quán)圖g=(v,e,w),其中v表示圖中節(jié)點的集合,對應(yīng)圖像中的每個超像素;e表示圖中邊的集合,對應(yīng)圖像中連接相鄰超像素間的邊;w表示圖中邊的權(quán)重,用于表示相鄰節(jié)點被劃分到同一類屬的傾向程度;
對于任意相鄰超像素i和超像素j,其顏色直方圖分別為hi和hj,本發(fā)明采用巴氏距離計算其相似度,并用于表示該兩相鄰超像素邊的權(quán)重:
其中δ(i,j)越大,表示超像素i和超像素j的顏色直方圖越相近,對應(yīng)兩區(qū)域也就越相似,則超像素i和超像素j屬于同一類屬的概率也就越大,否則超像素i和超像素j屬于同一類屬的概率也就越小。
s23、根據(jù)用戶輸入的交互信息采用顏色直方圖分別對前景和背景進(jìn)行建模,并構(gòu)造兩個虛擬節(jié)點:對應(yīng)前景模型的source節(jié)點和對應(yīng)背景模型的sink節(jié)點;其中,集合v中的任意節(jié)點與source和sink節(jié)點所形成邊的權(quán)重分別表示該節(jié)點隸屬于前景和背景的傾向程度。對于用戶提供的交互式信息即目標(biāo)f和背景b,采用步驟s1中的顏色直方圖分別對其建立目標(biāo)和背景模型,記為hf和hb。
對于未標(biāo)記超像素i,利用其顏色直方圖,分別計算其與source節(jié)點和sink節(jié)點的相似度,這里同樣采用巴氏距離來分別計算與目標(biāo)f和背景b的相似度:
s24、本發(fā)明不僅考慮超像素間的相似性,而且還考慮了各超像素與交互信息的關(guān)系,因此針對上述圖模型,定義如下能量函數(shù):
其中,第一項為區(qū)域信息項,用于度量各超像素與交互信息間的相似程度;第二項為邊緣信息項,用于度量超像素間的相似程度;區(qū)域信息項和邊緣信息項的定義分別如下:
b(ιi,ιj)=λ·δ(i,j)式(7)
其中,ιi表示節(jié)點i的類屬編號,ιi=1對應(yīng)于前景,ιi=0對應(yīng)于背景,
在以上建立好的圖模型基礎(chǔ)上,執(zhí)行最大流最小割算法即可獲得基于超像素級的全局最優(yōu)解。
s3、在meanshift算法得到超像素中由于存在著一定的過分割現(xiàn)象,以致在前述超像素分割結(jié)果中的目標(biāo)邊緣部分并不光滑,存在著一定的誤分割,因此本發(fā)明在超像素級分割結(jié)果的基礎(chǔ)上,采用形態(tài)學(xué)操作在目標(biāo)邊緣構(gòu)造一個窄帶區(qū)域,對目標(biāo)邊緣部分區(qū)域進(jìn)行二次分割,從而進(jìn)一步提高分割精度。作為具體實施例,所述步驟s3包括以下步驟:
s31、記由步驟s2分割得到的二值圖像為s,如圖2(a)所示。為了在目標(biāo)邊緣建立一個窄帶區(qū)域,本發(fā)明首先對二值圖像s進(jìn)行形態(tài)學(xué)腐蝕操作,即可得到僅含目標(biāo)的區(qū)域sf=sθb,相應(yīng)像素集合記為trimapforeground,如圖2(b)中的白色區(qū)域;其中b為(2d+1)×(2d+1)大小的正方形結(jié)構(gòu)元素,式中d為正整數(shù),實施例中d∈[2,5];
s32、然后對二值圖像s進(jìn)行形態(tài)學(xué)膨脹操作,并與目標(biāo)區(qū)域sf做差運算即可得到一個同時含有目標(biāo)和背景的窄帶區(qū)域su=(s⊕b)-(sθb),相應(yīng)像素集合記為trimapunknown,如圖2(b)中的灰色區(qū)域;
s33、而僅含背景信息的區(qū)域可表示為sb=s-(su+sf),相應(yīng)像素集合記為trimapbackground,如圖2(b)中的黑色區(qū)域,這樣就可以得到一個三元掩模圖像(trimapforeground、trimapbackground、trimapunknown),其中包括已建立好的窄帶區(qū)域su。
s4、在構(gòu)造好的窄帶上為前景和背景區(qū)域分別建立相應(yīng)的前景和背景模型,并對窄帶區(qū)域以像素點為節(jié)點建立圖模型,最后再次采用最大流最小割算法進(jìn)行全局求解,以完成像素級分割過程。作為具體實施例,所述步驟s4包括以下步驟:
s41、將步驟s3中得到的目標(biāo)區(qū)域sf和背景區(qū)域sb分別看作虛擬source節(jié)點和虛擬sink節(jié)點,然后采用主成分分析(pca)法分別對其建立前景混合高斯模型和背景混合高斯模型,高斯個數(shù)均設(shè)為k,實施例中k=5;所述前景混合高斯模型和背景混合高斯模型的具體建立方法如下:
s411、根據(jù)前景f或背景b的像素顏色信息,計算其協(xié)方差矩陣∑f或∑b,并對其進(jìn)行特征分解,提取主成分或主方向,即最大特征值所對應(yīng)的特征向量,樣本數(shù)據(jù)在該主方向上投影值具有最大方差,然后利用樣本數(shù)據(jù)在主方向上的投影結(jié)果將整個分布空間平均分成兩個子空間;
s412、在所有子空間中選擇具有最大投影方差分布的子空間,計算該子空間內(nèi)所有樣本的協(xié)方差矩陣,對其進(jìn)行特征分解,提取主方向,并沿該方向?qū)⒋俗涌臻g平均分成兩個新的子空間;重復(fù)本步驟s412,直到得到k個子空間為止;
s413、最后分別計算k個子空間中樣本數(shù)據(jù)的均值、協(xié)方差矩陣以及分布所占權(quán)重,即可最終得到前景或背景各自的混合高斯模型。
s42、由于窄帶區(qū)域su面積通常很小,故其所含像素數(shù)很少,為了解決meanshift算法帶來的過分割問題并進(jìn)一步有效提高窄帶區(qū)域的分割準(zhǔn)確度,本發(fā)明以像素點作為節(jié)點僅對步驟s3中得到的窄帶區(qū)域建立圖模型,在此圖模型基礎(chǔ)上執(zhí)行最大流最小割算法即可獲得基于像素級的全局最優(yōu)解,即最終的像素級分割結(jié)果。不同于步驟s2中基于超像素級的圖模型的建立,對于此基于像素級的圖模型建立中的兩項能量即區(qū)域信息項和邊緣信息項進(jìn)行了如下重新設(shè)計,即對式(5)能量函數(shù)中的區(qū)域信息項和邊緣信息項進(jìn)行如下重新定義:
其中,dist(i,j)表示像素點i和j的空間距離,ii表示像素點i的顏色信息,ij表示像素點j的顏色信息,
其中,
請參考圖3、圖4、圖5和圖6所示,具體為對flower圖像和dogs圖像分別采用graphcut、lazysnapping、grabcut、msrm和本發(fā)明提供方法的分割結(jié)果對比。對于flower圖像,為公平起見,graphcut、lazysnapping、msrm和本發(fā)明提供方法使用了相同的交互信息,具體如圖3(a)所示,而grabcut算法所使用的交互信息如圖3(b)所示。對于dogs圖像,graphcut、lazysnapping和msrm三種方法使用了相同的交互信息,具體如圖5(a)所示,grabcut算法所使用的交互信息如圖5(b)所示,由于超像素為用戶提供了指導(dǎo)信息,因此本發(fā)明提供方法僅需更少的交互信息,如圖5(c)所示。從圖4和圖6中的分割結(jié)果對比可以看出,由graphcut、lazysnapping和msrm三種方法得到的分割結(jié)果中所提取的目標(biāo)信息均不完整,具體如圖4和圖6中的(a)、(b)和(c)所示;而由msrm方法得到的結(jié)果中所提取的目標(biāo)邊緣卻存在著誤分割,具體如圖4和圖6中的(d)所示;相比較而言,由本發(fā)明提供方法得到的結(jié)果中所提取的目標(biāo)分割更為完整準(zhǔn)確,具體如圖4和圖6中的(e)所示。
與現(xiàn)有技術(shù)相比,本發(fā)明提供的聯(lián)合像素與超像素的交互式圖像分割方法具有以下優(yōu)點:
第一、本發(fā)明采用meanshift算法進(jìn)行預(yù)分割,由此構(gòu)造的有向圖其節(jié)點數(shù)目得到大幅度減少,從而有效提高了最大流最小割算法的執(zhí)行效率;對于每個超像素,采用了更為有效的顏色直方圖表示方式,并且前景和背景模型同樣采用顏色直方圖來表示,而不再需要進(jìn)行額外的建模過程;另外,由于超像素為用戶交互提供了指導(dǎo)信息,以致本發(fā)明僅需少量的交互信息并在較短時間內(nèi)即可得到比較理想的分割效果。
第二、在建立圖模型的過程中,本發(fā)明不僅考慮到了區(qū)域間的相似程度,而且還考慮到各區(qū)域與前景和背景間的相似程度,由于充分利用了交互信息,因而使得分割結(jié)果更為準(zhǔn)確;另外,各相鄰區(qū)域間的相似度僅需計算一次,然后交由最大流最小割算法進(jìn)行處理,以得到超像素級分割結(jié)果,從而使得本方法的時空開銷得到了進(jìn)一步大幅度降低。
第三、由于meanshift算法在分割過程中難免存在邊界泄露問題,導(dǎo)致部分分割區(qū)域同時跨越前景和背景兩部分以致出現(xiàn)誤分割,本發(fā)明利用形態(tài)學(xué)操作在超像素級分割結(jié)果邊緣部分構(gòu)造一個窄帶區(qū)域,然后對該窄帶區(qū)域以像素為節(jié)點建立圖模型并執(zhí)行最大流最小割算法,從而有效提高了邊緣部分分割精度。
最后說明的是,以上實施例僅用以說明本發(fā)明的技術(shù)方案而非限制,盡管參照較佳實施例對本發(fā)明進(jìn)行了詳細(xì)說明,本領(lǐng)域的普通技術(shù)人員應(yīng)當(dāng)理解,可以對本發(fā)明的技術(shù)方案進(jìn)行修改或者等同替換,而不脫離本發(fā)明技術(shù)方案的宗旨和范圍,其均應(yīng)涵蓋在本發(fā)明的權(quán)利要求范圍當(dāng)中。