亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法與流程

文檔序號:12721281閱讀:227來源:國知局
一種基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法與流程

本發(fā)明屬于計算機(jī)視覺、模式識別、機(jī)器學(xué)習(xí)等技術(shù)領(lǐng)域,更為具體地講,涉及在監(jiān)控場景下一種基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法。



背景技術(shù):

近年來,隨著科技的進(jìn)步,各個行業(yè)開始越來越關(guān)注安全問題。在銀行、機(jī)場、地鐵、車站、小區(qū)等重要區(qū)域以及公共場所,人們都安裝了監(jiān)控攝像頭進(jìn)行視頻監(jiān)控。這些監(jiān)控攝像頭一般都安裝在較高的位置,以俯視的角度進(jìn)行監(jiān)控。而我們所說的監(jiān)控場景即是指在這種情景下拍攝的監(jiān)控畫面。

一般情況下,人是監(jiān)控場景的主體,對人體目標(biāo)的跟蹤和后續(xù)的行為識別分析嚴(yán)重依賴于人體目標(biāo)檢測的精度,因此如何在監(jiān)控場景下準(zhǔn)確檢測人體目標(biāo)已經(jīng)成為學(xué)術(shù)界和工業(yè)界廣泛關(guān)注的熱點之一。

早期的研究者一般將人體目標(biāo)檢測問題分為兩個步驟來解決,首先是基于手工設(shè)計的模型進(jìn)行特征提取,然后基于目標(biāo)特征設(shè)計分類器訓(xùn)練檢測模型。比如,Viola和Jones將采用haar小波特征,結(jié)合adaboost級聯(lián)分類器的VJ模型應(yīng)用于人體目標(biāo)檢測中。具體算法原理參見:Viola P,Jones M J,Snow D.Detecting pedestrians using patterns of motion and appearance[C].Computer Vision,2003.Proceedings.Ninth IEEE International Conference on.IEEE,2003:734-741。Dalal N與Triggs B提出了一種基于梯度直方圖(Histograms of Oriented Gradients,HOG)特征和支持向量機(jī)(Support Vector Machine,SVM)框架的人體目標(biāo)檢測方法,具體算法原理參見:Dalal N,Triggs B.Histograms of oriented gradients for human detection[C].Computer Vision and Pattern Recognition,2005.CVPR 2005.IEEE Computer Society Conference on.IEEE,2005,1:886-893。這些方法在簡單監(jiān)控場景下對人體目標(biāo)檢測取得了較好的結(jié)果,但是對于復(fù)雜的監(jiān)控場景下的人體目標(biāo)檢測結(jié)果還是不能滿足我們的實際需求。

隨著最近幾年深度學(xué)習(xí)的興起,基于深度學(xué)習(xí)的方法在圖像分類領(lǐng)域取得了優(yōu)異的成績。很多研究者基于此也嘗試將深度學(xué)習(xí)應(yīng)用于目標(biāo)檢測領(lǐng)域。Ren,Shaoqing提出了一種快速區(qū)域卷積神經(jīng)網(wǎng)絡(luò)(Faster r-cnn)的方法,將人體目標(biāo)檢測問題分為三個階段,首先是獲取人體目標(biāo)區(qū)域候選框,然后是使用卷積神經(jīng)網(wǎng)絡(luò)進(jìn)行目標(biāo)特征提取,最后目標(biāo)特征進(jìn)行分類訓(xùn)練得到模型。相較于傳統(tǒng)的人體目標(biāo)檢測方法,提高了57%的檢測準(zhǔn)確率。具體算法原理可以參見文獻(xiàn):Ren,Shaoqing,et al."Faster r-cnn:Towards real-time object detection with region proposal networks."Advances in neural information processing systems.2015。

隨后,Jifeng Dai和Yi Li等提出了一種基于區(qū)域全卷積網(wǎng)絡(luò)(R-FCN)的檢測模型,具體算法原理可以參見文獻(xiàn)[4]:Dai J,Li Y,He K,et al.R-FCN:Object Detection via Region-based Fully Convolutional Networks[J].2016。R-FCN方法使用了一種位置敏感得分圖來處理圖像檢測中的平移變換性的問題,使得該網(wǎng)絡(luò)可以基于整幅圖片進(jìn)行全卷積計算,這種方法可以有效的降低網(wǎng)絡(luò)模型的訓(xùn)練時間和檢測時間。同時該模型使用殘差網(wǎng)絡(luò)(ResNet)作為自己的特征提取模型。在通用的目標(biāo)檢測平臺Pascal VOC上,相較于Faster r-cnn,R-FCN不僅提高了目標(biāo)檢測的準(zhǔn)確率同時也降低了目標(biāo)檢測的時間。

雖然R-FCN方法在通用的目標(biāo)檢測以及人體目標(biāo)檢測方面取得了較好的檢測結(jié)果,但也還存在著一些問題,比如當(dāng)人體目標(biāo)之間存在遮擋時,存在將兩人檢測為單人的情況,造成漏檢,以及當(dāng)人體目標(biāo)尺度較小時,存在漏檢等檢測失敗的情況。此外,對于一些復(fù)雜的監(jiān)控場景中的人體目標(biāo),比如:背景復(fù)雜、人體目標(biāo)數(shù)量較多、人體遮擋比較嚴(yán)重這樣的監(jiān)控場景,現(xiàn)有人體目標(biāo)檢測方法還存在著一定程度的漏檢和誤檢。



技術(shù)實現(xiàn)要素:

本發(fā)明的目的在于克服現(xiàn)有技術(shù)的不足,提出一種基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法,以進(jìn)一步減少漏檢率和誤檢率,提高檢測準(zhǔn)確率。

為實現(xiàn)上述發(fā)明目的,本發(fā)明基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法,其特征在于,包括以下步驟:

(1)、采集不同監(jiān)控場景、不同角度的人體目標(biāo)圖像,然后對于每一張采集的人體目標(biāo)圖像,標(biāo)定人體目標(biāo)上半身的所在位置作為人體目標(biāo)的標(biāo)定框,標(biāo)定了人體目標(biāo)標(biāo)定框的人體目標(biāo)圖像構(gòu)成訓(xùn)練集;

人體目標(biāo)圖像不僅包含單一人體目標(biāo)的簡單場景,也包含一些遮擋較為嚴(yán)重,人員數(shù)量較多的復(fù)雜情景;

(2)、設(shè)置五個不同的圖像尺度,對于訓(xùn)練集中的每一幅人體目標(biāo)圖像,隨機(jī)選擇一個圖像尺度,將人體目標(biāo)圖像的短邊縮放到該尺度下之后輸入到殘差網(wǎng)絡(luò)(Residual Network)進(jìn)行卷積運(yùn)算,得到卷積特征;

(3)、將卷積特征輸入到區(qū)域候選網(wǎng)絡(luò)(Region Proposal Network,簡稱RPN),生成區(qū)域候選框;其中,生成區(qū)域候選框時所需錨(anchors),選用{0.8,1.2}兩個不同比例的寬高比和{48,96,144,192,240}五個不同比例尺度作為生成anchors的規(guī)則;

(4)、根據(jù)卷積特征、區(qū)域候選框,計算位置敏感得分圖,得到區(qū)域候選框為正候選框的概率Si以及負(fù)候選框的概率Sj;同時,根據(jù)人體目標(biāo)標(biāo)定框,得到區(qū)域候選框的真實類別概率S;其中,區(qū)域候選框與真實的人體目標(biāo)標(biāo)定框的交并比大于等于0.5時,判定區(qū)域候選框為正候選框樣本,真實類別概率S為1;當(dāng)候選框與真實的人體目標(biāo)標(biāo)定框的交并比小于0.5時,判定區(qū)域候選框為負(fù)候選框樣本,真實類別概率S為0;

(5)、采用區(qū)域候選框的交叉熵?fù)p失值作為區(qū)域候選框的分類損失值Lcls,其具體計算公式如下:

采用區(qū)域候選框的一階平滑損失值作為區(qū)域候選框的回歸損失值Lreg,其具體計算公式如下:

Lreg=smoothL1(x*-x)+smoothL1(y*-y)+smoothL1(w*-w)+smoothL1(h*-h) (2),

其中,x和y表示區(qū)域候選框的左上位置坐標(biāo),w和h分別表示區(qū)域候選框的寬和高,x*和y*表示真實的人體目標(biāo)標(biāo)定框的左上位置坐標(biāo),w*和h*分別表示真實的人體目標(biāo)標(biāo)定框的寬和高;

其中,一階平滑函數(shù)smoothL1計算公式下:

其中,σ根據(jù)具體監(jiān)控場景確定,一般取3.0,z為公式(2)中括號內(nèi)的差值;

(6)、對于每一個區(qū)域候選框,計算出其損失值,其計算公式如下:

其中,λ是分類損失與回歸損失之間的平衡因子,根據(jù)具體實施情況確定,通常取值為1;

(7)、對人體目標(biāo)圖像,根據(jù)步驟(4)、(5),得到每一個區(qū)域候選框計算損失值,將區(qū)域候選框損失值進(jìn)行排序,選擇損失值最大的前B個區(qū)域候選框作為難例樣本,然后將這些難例樣本的損失值,反饋到區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型中,使用隨機(jī)梯度下降法更新區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型的參數(shù);

(8)、對于每一幅人體目標(biāo)圖像,根據(jù)步驟(2)~(6)不斷更新區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的參數(shù),從而得到人體目標(biāo)檢測的區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型,用于監(jiān)控場景下采集的圖像的人體目標(biāo)檢測。

本發(fā)明的目的是這樣實現(xiàn)的。

本發(fā)明基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法,標(biāo)定人體目標(biāo)上半身即人體頭肩模型位置為標(biāo)定框,這樣減少了人體目標(biāo)被遮擋的概率,減小了漏檢率;同時,設(shè)定不同的五個圖像尺度進(jìn)行轉(zhuǎn)換,以及選用{0.8,1.2}兩個不同比例的寬高比和{48,96,144,192,240}五個不同比例尺度作為生成anchors的規(guī)則,在幾乎不降低檢測時間的情況下,對不同尺寸的人體目標(biāo)均有較好的檢測效果,也進(jìn)一步減小了漏檢率。此外,本發(fā)明還通過計算一幅人體目標(biāo)圖像各區(qū)域候選框損失值,并選取損失值最大前B區(qū)域候選框作為難例樣本,其損失值反饋到區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型中,使用隨機(jī)梯度下降法更新區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型的參數(shù),以提高復(fù)雜場景下的人體目標(biāo)檢測的準(zhǔn)確率,減少漏檢率和誤檢率。

附圖說明

圖1是本發(fā)明基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法一種具體實施下的原理框圖;

圖2是本發(fā)明監(jiān)控場景下基于人體目標(biāo)全身標(biāo)定與基于Omega(人體目標(biāo)上半身)標(biāo)定的圖像對比圖,其中,(a)為監(jiān)控場景下人體目標(biāo)圖像;(b)為人體目標(biāo)全身標(biāo)定的圖像;(c)為基于人體目標(biāo)上半身標(biāo)定的圖像;

圖3是本發(fā)明與R-FCN在不同殘差模型下的FPPI-MR圖;

圖4是本發(fā)明與R-FCN分別在實際場景中的檢測效果圖,其中,(a)為監(jiān)控場景下的人體目標(biāo)圖像,(b)為使用R-FCN方法得到的對應(yīng)檢測結(jié)果,(c)為使用本發(fā)明得到的對應(yīng)檢測結(jié)果。

具體實施方式

下面結(jié)合附圖對本發(fā)明的具體實施方式進(jìn)行描述,以便本領(lǐng)域的技術(shù)人員更好地理解本發(fā)明。需要特別提醒注意的是,在以下的描述中,當(dāng)已知功能和設(shè)計的詳細(xì)描述也許會淡化本發(fā)明的主要內(nèi)容時,這些描述在這里將被忽略。

圖1是本發(fā)明基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法一種具體實施下的原理框圖。

在本實施例中,如圖1所示,本發(fā)明基于區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的人體目標(biāo)檢測方法包括以下步驟:

1、人體目標(biāo)標(biāo)定

對于監(jiān)控場景下的圖像,如圖1(a)所示,可以明顯看出,當(dāng)人體目標(biāo)較多時,人體的下半身很容易被遮擋。在人體目標(biāo)檢測的問題中,人們一般將人體目標(biāo)的全身圖像作為人體目標(biāo)的表征圖像,如圖1(b)所示。但是在監(jiān)控場景下,人體目標(biāo)的下半身圖像很容易被遮擋,這樣使得兩個目標(biāo)框之間存在著大量的重合。同時,采用這樣的標(biāo)定數(shù)據(jù)進(jìn)行訓(xùn)練的網(wǎng)絡(luò)很難把兩個目標(biāo)分開。為了降低人體目標(biāo)在監(jiān)控場景下被遮擋的概率,本發(fā)明采用基于人體頭肩模型的人體目標(biāo)上半身標(biāo)定的圖像作為人體目標(biāo)的表征圖像,如圖1(c)中所示,從圖1中可以看出,同樣的監(jiān)控場景下,基于人體上半身標(biāo)定的目標(biāo)框(標(biāo)定框)之間具有更少的重疊,同時基于人體上半身標(biāo)定的訓(xùn)練集也更容易讓網(wǎng)絡(luò)學(xué)習(xí)。這樣讓網(wǎng)絡(luò)學(xué)習(xí)人體目標(biāo)的上半身特征,這樣可以解決監(jiān)控場景下存在的遮擋問題,在一定程度上可以較少人體目標(biāo)的漏檢。

在本實施例中,我們采用包含人體目標(biāo)的14422張圖像作為實驗所用的數(shù)據(jù)集,該數(shù)據(jù)集包含不同監(jiān)控場景、不同角度的人體目標(biāo)圖像,其中不僅包含單一人體目標(biāo)的簡單場景,也包含一些遮擋較為嚴(yán)重,人員數(shù)量較多的復(fù)雜情景。對于每一張人體目標(biāo)圖像,我們標(biāo)定人體目標(biāo)上半身的所在位置作為人體目標(biāo)的標(biāo)定框。同時,將該數(shù)據(jù)集中的8653張圖像作為訓(xùn)練集,將剩余的5769張圖像作為測試集驗證本發(fā)明。

2、圖像尺度選擇

對于監(jiān)控場景下人體目標(biāo)檢測存在多圖像尺度檢測的問題。本發(fā)明提出了一種多尺度訓(xùn)練的算法去解決人體目標(biāo)檢測中存在的多尺圖像度檢測問題。在本發(fā)明中,在訓(xùn)練網(wǎng)絡(luò)輸入圖像時,不同于常規(guī)的單一尺度的圖像輸入,本發(fā)明預(yù)先設(shè)置了五個圖像尺度。隨機(jī)選擇一個圖像尺度將訓(xùn)練圖像轉(zhuǎn)換到該尺度之后輸入到殘差網(wǎng)絡(luò)(Residual Network)進(jìn)行卷積運(yùn)算,得到卷積特征。

本發(fā)明,設(shè)置了五個不同的圖像尺度{200,400,600,800,1000},隨機(jī)選擇一個圖像尺度,將輸入圖像即標(biāo)定后的人體目標(biāo)圖像的短邊縮放到該圖像尺度下之后輸入網(wǎng)絡(luò)進(jìn)行訓(xùn)練。圖像尺度指的像素點數(shù)。

3、生成區(qū)域候選框

在本發(fā)明中,區(qū)域候選網(wǎng)絡(luò)(region proposal network,RPN)生成候選框時,采用多個不同的尺度比和長寬比來生成anchors。對于生成anchors的規(guī)則,不同于通用物體檢測時生成anchors的規(guī)則,本方法基于人體上半身圖像的大小以及長寬比的范圍,采用可以更容易訓(xùn)練提取人體目標(biāo)候選框的生成規(guī)則,具體為:

將卷積特征輸入到區(qū)域候選網(wǎng)絡(luò)(Region Proposal Network,簡稱RPN),生成區(qū)域候選框;其中,生成區(qū)域候選框時所需錨(anchors),選用{0.8,1.2}兩個不同比例的寬高比和{48,96,144,192,240}五個不同比例尺度作為生成anchors的規(guī)則。

4、計算位置敏感得分圖

對于一些背景單一、人員數(shù)量較少、人體目標(biāo)較為完整等一些簡單監(jiān)控場景下的人體目標(biāo),當(dāng)下的人體目標(biāo)檢測方法已經(jīng)取得了令人滿意的檢測結(jié)果。但是對于一些復(fù)雜的監(jiān)控場景中的人體目標(biāo),比如:背景復(fù)雜、人體目標(biāo)數(shù)量較多、人體遮擋比較嚴(yán)重這樣的監(jiān)控場景,現(xiàn)有的方法還存在著一定程度的漏檢和誤檢。對于這些復(fù)雜的監(jiān)控場景,本發(fā)明提出了一種難例挖掘算法來提高對復(fù)雜監(jiān)控場景下難以檢測到的人體目標(biāo)檢測能力。難例挖掘算法通過計算每一個區(qū)域候選框的損失值,然后對區(qū)域候選框進(jìn)行排序,篩選前B個區(qū)域候選框作為難例樣本。最后根據(jù)難例樣本的損失值,反饋給網(wǎng)絡(luò),更新模型參數(shù),這樣可以使得訓(xùn)練過程更加的高效。

為此,在本發(fā)明中,首先根據(jù)卷積特征、區(qū)域候選框,計算位置敏感得分圖,得到區(qū)域候選框為正候選框的概率Si以及負(fù)候選框的概率Sj;同時,根據(jù)人體目標(biāo)標(biāo)定框,得到區(qū)域候選框的真實類別概率S;其中,區(qū)域候選框與真實的人體目標(biāo)標(biāo)定框的交并比大于等于0.5時,判定區(qū)域候選框為正候選框樣本,真實類別概率S為1;當(dāng)候選框與真實的人體目標(biāo)標(biāo)定框的交并比小于0.5時,判定區(qū)域候選框為負(fù)候選框樣本,真實類別概率S為0。

5、計算區(qū)域候選框的分類損失值和回歸損失值

本發(fā)明中,采用區(qū)域候選框的交叉熵?fù)p失值作為區(qū)域候選框的分類損失值Lcls,其具體計算公式如下:

采用區(qū)域候選框的一階平滑損失值作為區(qū)域候選框的回歸損失值Lreg,其具體計算公式如下:

Lreg=smoothL1(x*-x)+smoothL1(y*-y)+smoothL1(w*-w)+smoothL1(h*-h) (2),

其中,x和y表示區(qū)域候選框的左上位置坐標(biāo),w和h分別表示區(qū)域候選框的寬和高,x*和y*表示真實的人體目標(biāo)標(biāo)定框的左上位置坐標(biāo),w*和h*分別表示真實的人體目標(biāo)標(biāo)定框的寬和高;

其中,一階平滑函數(shù)smoothL1計算公式下:

其中,σ根據(jù)具體監(jiān)控場景確定,一般取3.0,z為公式(2)中括號內(nèi)的差值。

6、對于每一個區(qū)域候選框,計算出其損失值,其計算公式如下:

其中,λ是分類損失與回歸損失之間的平衡因子,根據(jù)具體實施情況確定,通常取值為1。

7、對人體目標(biāo)圖像,根據(jù)步驟(4)、(5),得到每一個區(qū)域候選框計算損失值,將區(qū)域候選框損失值進(jìn)行排序,選擇損失值最大的前B個區(qū)域候選框作為難例樣本,然后將這些難例樣本的損失值,反饋到區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型中,使用隨機(jī)梯度下降法更新區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型的參數(shù)。

8、對于每一幅人體目標(biāo)圖像,根據(jù)步驟(2)~(6)不斷更新區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)的參數(shù),從而得到人體目標(biāo)檢測的區(qū)域全卷積神經(jīng)網(wǎng)絡(luò)模型,用于監(jiān)控場景下采集的圖像的人體目標(biāo)檢測。

為了驗證本發(fā)明的有效性,我們首先使用自己制作的數(shù)據(jù)集進(jìn)行模型的訓(xùn)練,然后基于采集的復(fù)雜場景下的監(jiān)控場景人體目標(biāo)圖像進(jìn)行人體目標(biāo)檢測效果的對比驗證。在本實施例中,采用在圖像鄰域常用的深度學(xué)習(xí)框架caffe進(jìn)行訓(xùn)練和測試,同時分別使用基于ImageNet圖像數(shù)據(jù)集訓(xùn)練得到的ResNet-50和ResNet-101兩個殘差網(wǎng)絡(luò)模型作為預(yù)訓(xùn)練模型。

對于網(wǎng)絡(luò)模型的其它參數(shù),我們設(shè)置學(xué)習(xí)率為0.001,每迭代20000次,學(xué)習(xí)率縮小10倍,總的迭代次數(shù)為40000次。動量設(shè)置為0.9,權(quán)重衰減項設(shè)置為0.0005。在訓(xùn)練階段,每一次迭代輸入兩張圖片。

我們采用在人體目標(biāo)檢測方法中較為通用的FPPI-MR圖作為算法優(yōu)劣的判別標(biāo)準(zhǔn),F(xiàn)PPI(False Positive Per Image)指的是一個序列或數(shù)據(jù)集中所有圖像的平均檢測錯誤目標(biāo)數(shù),這里的錯誤目標(biāo)指的是被分類器錯誤判別為目標(biāo)的非人體目標(biāo)圖像,MR(Miss Rate)指的是一個序列或數(shù)據(jù)集中平均每一幀圖像中,正確但沒有被檢測出來的目標(biāo)數(shù)量。而對于檢測框的判定,當(dāng)檢測框和真實標(biāo)定框的交并比大于等于0.5時,即認(rèn)為檢測到了目標(biāo),否則判定為未檢測到目標(biāo)。

在此分別使用殘差網(wǎng)絡(luò)ResNet-50和ResNet-101兩種模型進(jìn)行訓(xùn)練。同時,基于在實際監(jiān)控場景中采集的圖像,本發(fā)明分別與基于R-FCN方法訓(xùn)練的網(wǎng)絡(luò)模型進(jìn)行人體目標(biāo)檢測效果的對比。對比實驗得到的FPPI-MR圖如圖3所示。可以看出基于同樣的預(yù)訓(xùn)練網(wǎng)絡(luò)模型,本發(fā)明相對于R-FCN方法對人體目標(biāo)具有更好的檢測效果。圖4是本方法與R-FCN方法在實際檢測中某一幀的檢測效果對比圖。圖4(a)為監(jiān)控場景下的原始圖像,圖4(b)所示的是使用R-FCN方法得到的對應(yīng)檢測結(jié)果,圖4(c)所示的是使用本發(fā)明得到的對應(yīng)檢測結(jié)果。同樣也可以看出本發(fā)明對于遮擋情況下的人體目標(biāo)具有較好的檢測效果,而且,對于復(fù)雜的監(jiān)控場景下,本發(fā)明也具有更少的漏檢。

盡管上面對本發(fā)明說明性的具體實施方式進(jìn)行了描述,以便于本技術(shù)領(lǐng)域的技術(shù)人員理解本發(fā)明,但應(yīng)該清楚,本發(fā)明不限于具體實施方式的范圍,對本技術(shù)領(lǐng)域的普通技術(shù)人員來講,只要各種變化在所附的權(quán)利要求限定和確定的本發(fā)明的精神和范圍內(nèi),這些變化是顯而易見的,一切利用本發(fā)明構(gòu)思的發(fā)明創(chuàng)造均在保護(hù)之列。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1