亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

基于邊緣信息投影定位鏡架橫梁的人臉圖像眼鏡檢測(cè)方法與流程

文檔序號(hào):12125784閱讀:543來源:國知局
基于邊緣信息投影定位鏡架橫梁的人臉圖像眼鏡檢測(cè)方法與流程

本發(fā)明屬于圖像處理和計(jì)算機(jī)視覺領(lǐng)域,具體涉及一種基于邊緣信息投影定位鏡架橫梁的人臉圖像眼鏡檢測(cè)方法。



背景技術(shù):

近年來,生物特征識(shí)別技術(shù)被廣泛應(yīng)用到很多領(lǐng)域,人臉識(shí)別技術(shù)是生物特征識(shí)別技術(shù)研究的重要課題之一。當(dāng)前,人臉識(shí)別技術(shù)已經(jīng)取得了重大的進(jìn)步,但是人臉識(shí)別技術(shù)的性能仍然受到飾物、姿態(tài)、表情及其他復(fù)雜因素的影響。眼鏡是面部佩戴最為廣泛的飾物,經(jīng)研究發(fā)現(xiàn)帶框眼鏡對(duì)人臉檢測(cè)和識(shí)別的準(zhǔn)確率影響極為嚴(yán)重。眼鏡檢測(cè)在模式識(shí)別和圖像處理領(lǐng)域有著廣泛的應(yīng)用前景,具體應(yīng)用如,人臉識(shí)別、出入境證件照檢測(cè)、上傳照片在線檢測(cè)等。因此,在人臉圖像中檢測(cè)人臉是否佩戴眼鏡得到了眾多研究人員的關(guān)注。

目前,檢測(cè)人臉圖像是否佩戴眼鏡的方法有以下幾類。第一類方法是通過分析眼鏡區(qū)域幾何特征來判斷是否佩戴眼鏡的方法。Yoshikawa等人(Glasses frame detection with 3d hough transform International Conference on Pattern Recognition,IEEE,2002)在文中通過研究了眼鏡周圍的邊緣特征和幾何特征,提出一種可變形輪廓的方法來檢測(cè)眼鏡的存在,但是這種模型的建立要考慮的變量很多;Wu等(Automatic eyeglasses removal from face images,PAMI,2004)建立了戴眼鏡人臉圖像和它對(duì)應(yīng)的不戴眼鏡的人臉圖像的聯(lián)合概率分布模型,并通過這個(gè)模型來合成不戴眼鏡的人臉圖像。這種方法需要精確定位15個(gè)特征點(diǎn),在這一點(diǎn)上,對(duì)于無框眼鏡的定位非常困難;Jiang等(Towards detection of glasses in facial images,ICPR,1998)利用眼鏡周圍邊緣信息的六個(gè)特征來判斷眼鏡有無并將這六個(gè)特征組合起來改善檢測(cè)效果,這些特征分別位于兩個(gè)眼睛中心的鼻梁處以及兩個(gè)眼睛下方的區(qū)域,該方法對(duì)于眼睛定位的結(jié)果非常敏感。第二類方法是基于相對(duì)坐標(biāo)定位感興趣區(qū)域的方法。任明罡等人(基于人臉圖片邊緣信息的眼鏡檢測(cè)方法,軟件導(dǎo)刊,2014)根據(jù)鼻梁在人臉圖像中的相對(duì)坐標(biāo)定位鼻梁區(qū)域,并據(jù)此進(jìn)行眼鏡的檢測(cè)。該方法能避免在檢測(cè)過程中受到光照、皺紋等因素的影響,但是該方法對(duì)于鼻梁區(qū)域的定位在操作過程中有極大的不確定性。第三類方法是統(tǒng)計(jì)學(xué)習(xí)的方法。Jing等人(Glasses detection for face recognition using bayes rules,ICMI,2000)提出基于貝葉斯法則的眼鏡定位方法,該方法根據(jù)每個(gè)像素鄰近區(qū)域的特征并結(jié)合學(xué)習(xí)到的眼鏡特征來確定該像素是否屬于眼鏡區(qū)域;Wang等人(Improvement of face recognition by eyeglasses removal,In Proceedings of the Sixth Conference on Intelligent Information Hiding and Multimedia Signal Processing,2010)考慮到眼鏡和周圍像素的對(duì)比度明顯,利用主動(dòng)外觀模型AAM方法直接提取眼鏡邊框,從而定位眼鏡且提取眼鏡周圍區(qū)域的顏色、梯度等特征信息。基于統(tǒng)計(jì)學(xué)習(xí)的這類方法需要對(duì)大量圖像進(jìn)行特征提取并對(duì)模型進(jìn)行訓(xùn)練才能得出結(jié)果。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的目的是提供一種基于邊緣信息投影定位鏡架橫梁的人臉圖像眼鏡檢測(cè)方法,解決了現(xiàn)有方法在檢測(cè)人臉圖像是否佩戴眼鏡時(shí)考慮變量較多,無法精準(zhǔn)的定位目標(biāo)區(qū)域以及需要對(duì)大量圖像進(jìn)行訓(xùn)練的問題。

本發(fā)明所采用的技術(shù)方案是,基于邊緣信息投影定位鏡架橫梁的人臉圖像眼鏡檢測(cè)方法,根據(jù)人臉圖像定位嘴部區(qū)域,以嘴部區(qū)域確定鏡架橫梁中心的x方向位置,以人臉圖像的邊緣信息圖的像素橫向投影情況來確定鏡架橫梁中心的y方向位置,根據(jù)鏡架橫梁中心的x和y方向位置確定鏡架橫梁區(qū)域;在鏡架橫梁區(qū)域中搜索橫線,若鏡架橫梁區(qū)域中包括橫線,且橫線長度近似等于鏡架橫梁區(qū)域x方向長度,則判斷人臉圖像配戴眼鏡;否則,判斷為未佩戴眼鏡。

上述以嘴部區(qū)域確定鏡架橫梁中心的x方向位置具體為,以嘴部區(qū)域x方向的中心作為鏡架橫梁中心的x方向位置。

定位嘴部區(qū)域的方法為,將原始人臉圖像轉(zhuǎn)到Y(jié)CbCr顏色空間,采用高斯模型在YCbCr顏色空間以式(1)計(jì)算人臉區(qū)域中為嘴部區(qū)域的相似度,并將其轉(zhuǎn)為二值圖像來獲取嘴部區(qū)域;

P=exp((-0.5)×(x-M)′inv(cov)×(x-M)) (1)

式(1)中,cov和M分別表示色度向量的協(xié)方差矩陣和均值向量;其值分別為:

M=(156.5599,117.4361)T (2)

上述以人臉圖像的邊緣信息圖的像素橫向投影情況來確定鏡架橫梁的y方向位置具體為,對(duì)人臉圖像的邊緣信息圖按照公式(4)進(jìn)行橫向投影,獲取每行像素之和Rj,再按照公式(5)確定鏡架橫梁y方向的位置;

Index(k)=find(Rj>μ×max(R))(j=1,2,3…,m;k=1,2,3…,s) (5);

式(4)中,f′(i,j)表示圖像邊緣檢測(cè)圖像f′(x,y)的每點(diǎn)像素值,pro表示投影運(yùn)算,Rj表示投影運(yùn)算列向量每行的值;式(5)中,R為式(4)中得到的列向量,max(R)是列向量中最大值。

進(jìn)一步,μ為閾值系數(shù),0.50≤μ≤0.65。

上述根據(jù)鏡架橫梁中心的x和y方向位置確定鏡架橫梁區(qū)域的方法為,采用公式(6)-(9)計(jì)算鏡架橫梁區(qū)域位置,

Gxl=Glassx-(α×W) (6)

Gxr=Glassx+(α×W) (7)

Gyl=Glassy-γ (8)

Gyr=Glassy+(β×H) (9)

式(6)-(9)中,Glassx是鏡架橫梁區(qū)域x方向的中心位置,Glassy是鏡架橫梁區(qū)域y方向的位置,W為人臉寬度,H為人臉長度,Gxl、Gyl分別為鏡架橫梁區(qū)域左上角的橫、縱坐標(biāo),Gxr、Gyr分別為鏡架橫梁區(qū)域右下角的橫、縱坐標(biāo);0.010≤α≤0.028,1≤γ≤5,0.03≤β≤0.08。

上述在鏡架橫梁區(qū)域中搜索橫線及判讀是否配戴眼鏡的方法為:

(1)在鏡架橫梁區(qū)域的邊緣信息中,從上向下逐行搜索每行中的第一個(gè)像素點(diǎn),以搜索到的第一個(gè)像素點(diǎn)作為橫線的起始點(diǎn),此時(shí)橫線長度為1;

(2)從該橫線起始點(diǎn)開始向右繼續(xù)檢測(cè)當(dāng)前行及其相鄰上下行的像素點(diǎn),若下一像素點(diǎn)位于當(dāng)前檢測(cè)像素點(diǎn)相鄰右側(cè),則判斷其為該橫線上的一個(gè)像素,對(duì)橫線長度加1,否則,當(dāng)前檢測(cè)行的橫線長度計(jì)算中止,停止檢測(cè);

(3)比較該橫線長度和鏡架橫梁區(qū)域x方向長度,若該橫線長度近似等于鏡架橫梁區(qū)域x方向長度,則判斷該圖像為佩戴眼鏡的圖像,結(jié)束檢測(cè);否則,返回步驟(1),按照同樣的方法從下一行繼續(xù)搜索像素點(diǎn),并計(jì)算下一橫線的長度,并再次進(jìn)行判斷;若在鏡架橫梁區(qū)域內(nèi)沒有近似等于鏡架橫梁區(qū)域x方向長度的橫線,則表示該圖像為沒有佩戴眼鏡的圖像。

步驟(2)下一像素點(diǎn)位于當(dāng)前檢測(cè)像素點(diǎn)相鄰右側(cè)位置為以下四種情況之一:下一像素點(diǎn)位于當(dāng)前檢測(cè)像素點(diǎn)相鄰的正右側(cè);下一像素點(diǎn)位于當(dāng)前檢測(cè)像素點(diǎn)相鄰的右下角;下一像素點(diǎn)位于當(dāng)前檢測(cè)像素點(diǎn)相鄰的右上角;下一像素點(diǎn)位于當(dāng)前檢測(cè)像素點(diǎn)正右側(cè)間隔一個(gè)無效像素點(diǎn)的位置。

步驟(3)中該橫線長度近似等于鏡架橫梁區(qū)域x方向長度的判斷具體為:當(dāng)橫線的長度>a×鏡架橫梁區(qū)域x方向長度時(shí),認(rèn)為橫線長度近似等于鏡架橫梁區(qū)域x方向長度,0.70≤a≤0.95。

本發(fā)明的有益效果是,本發(fā)明對(duì)人臉圖像是否佩戴眼鏡進(jìn)行檢測(cè),與現(xiàn)有檢測(cè)方法相比,不僅不需要考慮過多變量以及大量訓(xùn)練樣本,而且可以對(duì)目標(biāo)區(qū)域精準(zhǔn)定位,簡(jiǎn)化了檢測(cè)操作并提高了檢測(cè)的性能。

附圖說明

圖1是本發(fā)明基于邊緣信息投影定位鏡架橫梁的人臉圖像眼鏡檢測(cè)方法的流程圖;

圖2是實(shí)施例輸入的一個(gè)待檢測(cè)的圖像集;

圖3是在圖2的圖像集中選取的代表性圖像的預(yù)處理結(jié)果;

圖4是圖3中的圖像對(duì)應(yīng)的邊緣檢測(cè)結(jié)果;

圖5是對(duì)圖3中原彩色圖像在YCbCr顏色空間中采用高斯模型計(jì)算的嘴部相似度區(qū)域的二值圖像;

圖6是根據(jù)圖5最終得到的嘴部區(qū)域的定位結(jié)果,其中,方框標(biāo)記處表示嘴部區(qū)域;

圖7是根據(jù)圖6中嘴部區(qū)域定位x方向的中心來確定的鏡架橫梁區(qū)域x方向的定位,以豎線表示;

圖8是對(duì)圖4邊緣檢測(cè)結(jié)果圖像的像素進(jìn)行橫向投影的情況,其中,無*標(biāo)記的曲線是邊緣像素的統(tǒng)計(jì)情況,有*標(biāo)記的曲線是對(duì)無*標(biāo)記的曲線平滑后的結(jié)果,在進(jìn)行后續(xù)操作時(shí),以有*標(biāo)記的曲線為主;

圖9是根據(jù)圖8的像素橫向投影情況對(duì)鏡架橫梁區(qū)域y方向的定位,以橫線標(biāo)出;

圖10是鏡架橫梁區(qū)域定位示意圖;

圖11是圖3中原彩色圖像中的橫梁區(qū)域定位結(jié)果,以方框標(biāo)出,*表示計(jì)算得到的鏡架橫梁區(qū)域的左上角和右下角的位置;

圖12是根據(jù)圖11中的鏡架橫梁區(qū)域在邊緣檢測(cè)圖像中的截取結(jié)果;

圖13是“潛在”橫線特征示意圖,其中,黑色區(qū)域代表搜索“潛在”橫線過程中的當(dāng)前像素點(diǎn),斜線區(qū)域代表“潛在”橫線的下一像素點(diǎn),空白區(qū)域表示無效像素點(diǎn),對(duì)應(yīng)邊緣檢測(cè)結(jié)果中的黑色像素點(diǎn);

圖14a和圖14b為檢測(cè)到的橫線示例;*表示白色像素點(diǎn),·表示黑色像素點(diǎn);

圖15a和圖15b分別是對(duì)佩戴眼鏡和未佩戴眼鏡的人臉圖像檢測(cè)正確結(jié)果。

具體實(shí)施方式

下面結(jié)合附圖和具體實(shí)施方式對(duì)本發(fā)明作進(jìn)一步的詳細(xì)說明。

本發(fā)明的基于邊緣信息投影定位鏡架橫梁的人臉圖像眼鏡檢測(cè)方法,第一部分是對(duì)人臉圖像預(yù)處理且做邊緣檢測(cè),以彩色圖像定位嘴部區(qū)域,進(jìn)而確定鏡架橫梁中心的x方向位置,以邊緣檢測(cè)的像素橫向投影情況來確定鏡架橫梁的y方向位置,以此,獲取鏡架橫梁區(qū)域;第二部分在提取到的邊緣信息圖像的鏡架橫梁區(qū)域中,搜索“潛在”橫線,根據(jù)“潛在”橫線在鏡架橫梁區(qū)域長度的覆蓋率進(jìn)行判斷,以完成對(duì)人臉圖像是否佩戴眼鏡的檢測(cè)。

如圖1所示,具體按照以下步驟實(shí)施:

步驟1,輸入人臉圖像f(x,y),如圖2所示。由于采集到的人臉圖像存在噪聲等干擾信息,需要對(duì)人臉部分進(jìn)行預(yù)處理。首先,將彩色人臉圖像轉(zhuǎn)換成灰度圖像;然后,對(duì)灰度圖像進(jìn)行高斯平滑處理,如圖3所示;最后,將灰度圖像進(jìn)行平滑處理后提取邊緣f′(x,y),如圖4所示。

步驟2,將輸入的原始彩色圖像f(x,y)從RGB顏色空間轉(zhuǎn)到Y(jié)CbCr顏色空間,采用高斯模型在YCbCr顏色空間以式(1)計(jì)算人臉區(qū)域中為嘴部區(qū)域的相似度P,并將其轉(zhuǎn)為二值圖像來獲取可能的嘴部區(qū)域,如圖5所示。通過形狀、位置等信息的篩選,來確定嘴部區(qū)域,如圖6所示。以嘴部區(qū)域x方向的中心Glassx作為鏡架橫梁中心的x方向定位結(jié)果,如圖7所示。

P=exp((-0.5)×(x-M)′×inv(cov)×(x-M)) (1)

式(1)是將輸入的彩色人臉圖像f(x,y)從RGB顏色空間轉(zhuǎn)到Y(jié)CbCr顏色空間來進(jìn)行計(jì)算的,其中,x=(Cb,Cr)T為像素點(diǎn)的色度向量;inv表示求矩陣的逆矩陣;cov和M分別表示色度向量的協(xié)方差矩陣和均值向量;P表示該像素點(diǎn)與嘴部的相似度,其值越大表示為嘴部區(qū)域的可能性越大,反之越小。經(jīng)實(shí)驗(yàn)統(tǒng)計(jì),均值和方差分別為:

M=(156.5599,117.4361)T (2)

步驟3,將人臉圖像的邊緣信息圖f′(x,y)以式(4)方式進(jìn)行橫向投影,獲取邊緣信息圖f′(x,y)上每行的像素之和Rj,如圖8所示。以式(5)來確定鏡架橫梁y方向中心的定位結(jié)果Glassy,如圖9所示。

式(4)中,f′(i,j)表示圖像邊緣檢測(cè)圖像f′(x,y)的每點(diǎn)像素值,x、y表示其橫、縱坐標(biāo),pro表示投影運(yùn)算,用來實(shí)現(xiàn)對(duì)矩陣的每行元素值進(jìn)行相加的操作,得到一個(gè)列向量,Rj表示列向量每行的值。

Index(k)=find(Rj>μ×max(R))(j=1,2,3…,m;k=1,2,3…,s) (5)

式(5)中,R指式(4)中得到的列向量;max(R)是列向量中最大值;μ為閾值系數(shù),通常情況下,0.50≤μ≤0.65,本實(shí)施例中取0.55;find指當(dāng)滿足條件時(shí)候,返回滿足條件的Rj的下標(biāo)j;Index(k)記錄第k個(gè)滿足條件的Rj的下標(biāo),即將滿足條件的Rj的下標(biāo)j值賦給Index(k);s記錄滿足條件的Rj的個(gè)數(shù);第1個(gè)滿足條件的Rj的下標(biāo)記為Index(1),即Index(1)為鏡架橫梁y方向的定位Glassy。得到的鏡架橫梁y方向如圖10所示。

步驟4,獲取人臉圖像的臉寬W和臉高H。根據(jù)步驟2和步驟3中對(duì)鏡架橫梁區(qū)域的定位結(jié)果(Glassx,Glassy),用式(6)-(9)獲取鏡架橫梁的區(qū)域Glass,如圖11所示。以該位置在邊緣信息圖像f′(x,y)中截取橫梁區(qū)域Glass′,如圖12所示。

Gxl=Glassx-(α×W)(6)

Gxr=Glassx+(α×W)(7)

Gyl=Glassy-γ(8)

Gyr=Glassy+(β×H)(9)

式(6)-(9)中,Glassx是鏡架橫梁區(qū)域x方向的中心位置,Glassy是鏡架橫梁區(qū)域y方向的位置,W為人臉寬度,H為人臉長度,Gxl、Gyl分別為鏡架橫梁區(qū)域左上角的橫、縱坐標(biāo),Gxr、Gyr分別為鏡架橫梁區(qū)域右下角的橫、縱坐標(biāo)。在公式(6)、(7)中,α通常取值為0.010≤α≤0.028,在公式(8)、(9)中,γ通常取值為1≤γ≤5,β通常取值為0.03≤β≤0.08;在本實(shí)施例中,α=0.025,γ=3,β=0.05。

同理,也可以根據(jù)鏡架橫梁區(qū)域右上角和左下角的橫縱坐標(biāo)確定位置。

步驟5,將鏡架橫梁模擬為一條“潛在”橫線,在提取到的邊緣信息圖像的鏡架橫梁區(qū)域中,搜索“潛在”橫線,若鏡架橫梁區(qū)域中包括“潛在”橫線,且該“潛在”橫線長度約等于鏡架橫梁區(qū)域x方向長度,則表示鏡架橫梁區(qū)域中有鏡架橫梁,則判斷人臉圖像配戴眼鏡;否則,判斷為未佩戴眼鏡。

(1)在鏡架橫梁區(qū)域的邊緣信息Glass′中,從上向下逐行搜索每行中的第一個(gè)像素點(diǎn),以搜索到的該行第一個(gè)像素點(diǎn)作為“潛在”橫線的起始點(diǎn),J取值為該行的行號(hào),此時(shí)“潛在”橫線長度為1;

(2)從該“潛在”橫線起始點(diǎn)開始向右繼續(xù)檢測(cè)當(dāng)前行及其相鄰上下行的像素點(diǎn),如圖13所示,圖中的黑色區(qū)域?yàn)樗阉鳌皾撛凇睓M線的當(dāng)前像素點(diǎn),斜線區(qū)域?yàn)樗阉鳌皾撛凇睓M線的下一像素點(diǎn)。若當(dāng)前檢測(cè)像素點(diǎn)和下一像素點(diǎn)屬于如圖13所示的四種位置時(shí),即下一像素點(diǎn)位于當(dāng)前檢測(cè)像素點(diǎn)相鄰的正右側(cè)、右下角、右上角,或位于當(dāng)前檢測(cè)像素點(diǎn)正右側(cè)間隔一個(gè)無效像素點(diǎn)的位置時(shí),則判斷其為該橫線上的一個(gè)像素,利用式(10)對(duì)橫線長度加1;

式(10)中,Glass′(i,J)表示該行的第一個(gè)像素點(diǎn),Glass′(i,j)表示符合“潛在”橫線條件的下一個(gè)像素點(diǎn),QL表示“潛在”橫線,“潛在”橫線QL的示例如圖14a、14b所示,圖14a檢測(cè)的橫線為第二行像素中的長度為5的橫線,圖14b檢測(cè)的橫線為第二行像素中長度為2的橫線。

若當(dāng)前檢測(cè)像素點(diǎn)和下一像素點(diǎn)不屬于如圖13所示的四種位置關(guān)系時(shí),如下一像素點(diǎn)與當(dāng)前檢測(cè)像素點(diǎn)間隔有兩個(gè)以上的無效像素點(diǎn),或下一像素點(diǎn)位于當(dāng)前像素點(diǎn)正下方等情況,則該“潛在”橫線長度計(jì)算中止,停止當(dāng)前行的檢測(cè)。

按照上述方法完成該區(qū)域中“潛在”橫線長度的計(jì)算。

(3)以該“潛在”橫線的長度和鏡架橫梁區(qū)域x方向長度進(jìn)行比較,鏡架橫梁區(qū)域x方向長度為Gxr-Gxl+1,給其一個(gè)閾值a,通常0.70≤a≤0.95,本實(shí)施例中,a=0.8。如果“潛在”橫線的長度lenJ>a×(Gxr-Gxl+1),表示“潛在”橫線的長度在鏡架橫梁區(qū)域x方向長度的覆蓋率高,即表示“潛在”橫線為鏡架橫梁,則判斷該圖像為佩戴眼鏡的圖像,不再執(zhí)行后續(xù)判斷。若lenJ≤a×(Gxr-Gxl+1),則表示該橫線可能為皺紋或陰影等其他情況,則返回步驟(1),按照同樣的方法從下一行繼續(xù)搜索像素點(diǎn),判斷下一行及其相鄰上下行區(qū)域內(nèi)的橫線,并計(jì)算下一橫線的長度,并進(jìn)行判斷。若在整個(gè)鏡架橫梁區(qū)域內(nèi)沒有發(fā)現(xiàn)符合條件(lenJ>a×(Gxr-Gxl+1))的橫線,則表示該圖像為沒有佩戴眼鏡的圖像。如圖15a和15b所示。

表1給出了本發(fā)明方法對(duì)網(wǎng)上采集的300張人臉圖像組成的測(cè)試樣本檢測(cè)的準(zhǔn)確率,測(cè)試樣本包含了多種表情和多種環(huán)境下的人臉,部分測(cè)試樣本如圖2所示,其中,戴眼鏡的人臉圖像有177張,不戴眼鏡的人臉圖像有123張,所佩戴的眼鏡包括帶邊框的眼鏡以及無框眼鏡。

表1 本發(fā)明的檢測(cè)結(jié)果

由表1可以看出,本發(fā)明方法可以較為準(zhǔn)確的檢測(cè)人臉圖像是否佩戴眼鏡,當(dāng)人臉圖像存在夸張表情、光線較暗、臉部微傾的情況時(shí)也能作出也有較為準(zhǔn)確的判斷,如圖15a、b所示。本發(fā)明在判斷過程中考慮因素少,只需要提取眼鏡的橫梁區(qū)域;定位橫梁區(qū)域也并非是根據(jù)眼鏡橫梁在人臉中的相對(duì)位置,而是根據(jù)嘴部區(qū)域檢測(cè)和橫向投影從橫向和縱向確定眼鏡的橫梁位置;進(jìn)而根據(jù)眼鏡橫梁的邊緣信息判斷是否佩戴眼鏡,不需要大量圖片的訓(xùn)練得出結(jié)果。

本發(fā)明以上描述只是部分實(shí)施例,但是本發(fā)明并不局限于上述的具體實(shí)施方式。上述的具體實(shí)施方式是示意性的,并不是限制性的。凡是采用本發(fā)明的方法,在不脫離本發(fā)明宗旨和權(quán)利要求所保護(hù)的范圍情況下,所有具體拓展均屬本發(fā)明的保護(hù)范圍之內(nèi)。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1