亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

隱私情境檢測方法與流程

文檔序號:12035234閱讀:431來源:國知局
隱私情境檢測方法與流程

本發(fā)明屬于圖像識別領(lǐng)域,具體地說是涉及一種隱私情境檢測方法。



背景技術(shù):

隨著機器人技術(shù)的發(fā)展,越來越多的機器人產(chǎn)品問世,如jibo、buddy、ascc機器人、沈陽自動化研究所的4自由度作業(yè)型機器人、膠囊機器人等。有研究表明,用于照顧老年人的智能家居系統(tǒng),因其廣泛使用攝像頭、語音監(jiān)聽設(shè)備而存在隱私泄漏的風(fēng)險,影響人的心理狀態(tài)甚至?xí)鹦睦碚系K,這是此類系統(tǒng)部署推廣的最大障礙之一?,F(xiàn)有技術(shù)中,為了更好的理解老年人就智能家居環(huán)境中關(guān)于隱私問題的想法,有研究提出了一種基于問卷的框架,重點研究了隱私的定義,但沒有涉及如何保護隱私?;趇so/ieee11073-20601標(biāo)準(zhǔn)提出的個人隱私保護架構(gòu),可以實現(xiàn)個人健康監(jiān)控設(shè)備與數(shù)據(jù)管理者間的通訊,該系統(tǒng)通過對不同的角色授權(quán)不同的權(quán)限實現(xiàn)保護隱私數(shù)據(jù),重點關(guān)注的是醫(yī)療信息,且其隱私信息僅局限于所測量的健康歷史數(shù)據(jù),如懷孕史和艾滋病感染等情況。arabo等人研究了智能家居智能設(shè)備識別隱私的意義與挑戰(zhàn),通過運用隱私區(qū)與協(xié)議、數(shù)據(jù)安全模塊等構(gòu)建了智能家居環(huán)境中隱私與安全框架,并指出流氓軟件是導(dǎo)致挑戰(zhàn)的重要方面,遺憾的是只給出了仿真結(jié)果。kozov等人分析智能家居物聯(lián)網(wǎng)架構(gòu)下子系統(tǒng)間的安全、隱私與互信風(fēng)險,重點研究了隱私的控制機制、隱私風(fēng)險分級的方法等,此研究高度依賴法律支持。denning等人發(fā)現(xiàn),即使智能服務(wù)機器人使用加密和認(rèn)證方式,也會讓網(wǎng)絡(luò)攻擊者有機會控制機器人或提取敏感數(shù)據(jù)。與此同時,有研究通過分析物理層的表現(xiàn),發(fā)現(xiàn)分布式控制、決策和推理算法會泄漏隱私,為此指出使用物理層可以增強隱私屬性,并針對此類系統(tǒng)設(shè)計了多種隱私評估指標(biāo)。上述研究成果主要是從數(shù)據(jù)訪問控制等角度考慮信息的保護,沒有研究考慮如何在數(shù)據(jù)收集時就提供敏感數(shù)據(jù)的保護方案。



技術(shù)實現(xiàn)要素:

本發(fā)明的目的在于克服上述缺點而提供一種能在服務(wù)機器人檢測到隱私情境后,將調(diào)轉(zhuǎn)攝像頭并將摘要信息保存到文檔的隱私情境檢測方法。

本發(fā)明的一種隱私情境檢測方法,包括下述步驟:

(1)采集隱私圖片并進行處理作為訓(xùn)練數(shù)據(jù)集;

(2)將訓(xùn)練數(shù)據(jù)集輸入工作站,加載隱私情境檢測算法模型,判斷隱私類別,獲得訓(xùn)練數(shù)據(jù)集的特征數(shù)據(jù);

(3)將特征數(shù)據(jù)傳送至機器人,機器人接收到數(shù)據(jù)后開啟攝像工具,從攝像工具讀取圖片進行情境檢測:包括圖片采集、處理,加載隱私檢測算法模型判斷隱私類別、獲得類別評估值;

(4)根據(jù)類別估計值確定機器人的動作:如果判定結(jié)果為非隱私數(shù)據(jù),則存儲圖片數(shù)據(jù)并繼續(xù)進行隱私檢測;如果系統(tǒng)檢測到了隱私信息,根據(jù)所識別的隱私類別,將圖片表達成不涉及隱私內(nèi)容的文本形式進行存儲,同時調(diào)整攝像頭的角度,即可。

上述的隱私情境檢測方法,其中:所述步驟(2)中的基于卷積神經(jīng)網(wǎng)絡(luò)的隱私情境檢測算法模型,該模型輸入輸出層共21層,其中包括1個輸入層,卷積層和池化層共17層,2個全連接層,1個輸出層;并采用1×1×1000的softmax分類函數(shù)進行分類。

上述的隱私情境檢測方法,其中:所述基于卷積神經(jīng)網(wǎng)絡(luò)的隱私情境檢測算法:

輸入:圖片數(shù)據(jù);

輸出:圖片數(shù)據(jù)的預(yù)測類別估計值;

1)在第1層將圖片數(shù)據(jù)讀入內(nèi)存形成圖片的矩陣向量,并將此向量作為第2層的輸入;

2)對于第2-17層,在每一層根據(jù)卷積操作輸出矩陣公式進行卷積操作,然后將卷積操作的結(jié)果作為池化操作的輸入運用池化操作輸出矩陣公式進行池化操作,池化操作的結(jié)果是下一層卷積操作的輸入;

3)將步驟2)中最后一層的池化操作結(jié)果作為第1個全連接層的輸入,運用進行全連接操作;

4)將第一層全連接操作的輸出結(jié)果作為第二個全連接層的輸入,運用全連接層的特征矩陣計算公式進行全連接操作;

5)將第二個全連接層的輸出轉(zhuǎn)換為特征向量;

6)將特征向量作為softmax函數(shù)的輸入,運用樣本的類別估計值的概率計算公式獲得預(yù)測概率值;

7)根據(jù)特征損失函數(shù)計算公式計算特征損失;

8)運用樣本的類別估計值的概率計算公式獲得類別估計值,并輸出此值。

本發(fā)明與現(xiàn)有技術(shù)的相比,具有明顯的有益效果,由以上方案可知,在收集訓(xùn)練數(shù)據(jù)集的基礎(chǔ)上,工作站使用基于卷積神經(jīng)網(wǎng)絡(luò)的隱私情境檢測算法模型,以獲得訓(xùn)練數(shù)據(jù)集的特征數(shù)據(jù)模型。然后,通過shell腳本文件及通信管道,將所獲得的特征數(shù)據(jù)模型傳送到服務(wù)機器人,服務(wù)機器人接收到模型后開啟攝像頭,并按給定頻率從攝像頭讀取圖片進行情境檢測。最后,根據(jù)檢測結(jié)果采取相應(yīng)的措施以達到保護隱私信息的目的,即:若系統(tǒng)檢測到了隱私信息,系統(tǒng)調(diào)整攝像頭的角度,并根據(jù)所識別的隱私情境類別,將圖片信息表達成不涉及隱私內(nèi)容的文本形式進行存儲。本發(fā)明實現(xiàn)服務(wù)機器人系統(tǒng)在檢測到隱私情境后,將調(diào)轉(zhuǎn)攝像頭并將摘要信息保存到文檔,主動尊重使用者的隱私,從而針對服務(wù)機器人廣泛使用攝像頭而引起的隱私信息泄漏風(fēng)險,嘗試從數(shù)據(jù)源頭上減少甚至消滅帶有強隱私信息的內(nèi)容。

以下通過具體實施方式,進一步說明本發(fā)明的有益效果。

附圖說明

圖1為本發(fā)明的工作流程圖;

圖2為本發(fā)明的服務(wù)機器人實現(xiàn)隱私檢測的流程圖;

圖3為實施例中的服務(wù)機器人平臺;

圖4為實施例中的數(shù)據(jù)集的樣本示例圖;

圖5為實施例中的不同訓(xùn)練步驟下的交叉熵值;

圖6為實施例中的不同訓(xùn)練步驟下的模型的識別率;

圖7為實施例中的測試數(shù)據(jù)集樣本示例。

具體實施方式

以下結(jié)合附圖及較佳實施例,對依據(jù)本發(fā)明提出的隱私情境檢測方法具體實施方式、特征及其功效,詳細說明如后。

如圖1和圖2所示,本發(fā)明的隱私情境檢測方法,包括下述步驟:

(1)采集隱私圖片并進行處理作為訓(xùn)練數(shù)據(jù)集;

(2)將訓(xùn)練數(shù)據(jù)集輸入工作站,加載基于卷積神經(jīng)網(wǎng)絡(luò)的隱私情境檢測算法模型,判斷隱私類別,獲得訓(xùn)練數(shù)據(jù)集的特征數(shù)據(jù);

(3)將特征數(shù)據(jù)傳送至機器人,機器人接收到數(shù)據(jù)后開啟攝像工具,從攝像工具讀取圖片進行情境檢測:包括圖片采集、處理,加載基于卷積神經(jīng)網(wǎng)絡(luò)的隱私檢測算法模型判斷隱私類別、獲得類別評估值;

(4)根據(jù)類別估計值確定機器人的動作:如果判定結(jié)果為非隱私數(shù)據(jù),則存儲圖片數(shù)據(jù)并繼續(xù)進行隱私檢測;如果系統(tǒng)檢測到了隱私信息,根據(jù)所識別的隱私類別,將圖片表達成不涉及隱私內(nèi)容的文本形式進行存儲,同時調(diào)整攝像頭的角度,即可。

基于卷積神經(jīng)網(wǎng)絡(luò)的隱私檢測算法模型的輸入輸出層總共21層,其中包括1個輸入層,卷積層和池化層共17層,2個全連接層,1個輸出層,各個層的結(jié)構(gòu)特征與參數(shù)設(shè)置如表1所示。采用1×1×1000的softmax分類函數(shù)進行分類。算法描述如算法1所示。

算法1:基于卷積神經(jīng)網(wǎng)絡(luò)的隱私情境檢測算法

輸入:圖片數(shù)據(jù)xpic

輸出:圖片數(shù)據(jù)xpic的預(yù)測類別估計值ppic;

1)在第1層將圖片數(shù)據(jù)xpic讀入內(nèi)存形成圖片的矩陣向量,并將此向量作為第2層的輸入;

2)對于第2-17層,在每一層根據(jù)下列公式(1)進行卷積操作,然后將卷積操作的結(jié)果作為池化操作的輸入運用下列公式(2)進行池化操作。池化操作的結(jié)果是下一層卷積操作的輸入。

3)將步驟2)中最后一層的池化操作結(jié)果作為第1個全連接層的輸入,運用下列公式(3)進行全連接操作;

4)將第一層全連接操作的輸出結(jié)果作為第二個全連接層的輸入,運用下列公式(3)進行全連接操作;

5)將第二個全連接層的輸出轉(zhuǎn)換為特征向量v;

6)將特征向量v作為softmax函數(shù)的輸入,運用下列公式(4)獲得預(yù)測概率值;

7)根據(jù)下列公式(5)計算特征損失;

8)運用下列公式(4)獲得類別估計值,并輸出此值。

根據(jù)類別估計值ppic確定服務(wù)機器人的動作。如果判定結(jié)果為非隱私數(shù)據(jù),則存儲xpic并繼續(xù)進行隱私檢測。若系統(tǒng)檢測到了隱私信息,根據(jù)所識別的隱私類別,將圖片表達成不涉及隱私內(nèi)容的文本形式進行存儲,同時調(diào)整攝像頭的角度。同時,系統(tǒng)開始記時,30秒后,攝像頭恢復(fù)到前一時刻的觀察角度繼續(xù)采集數(shù)據(jù),然后依據(jù)所采集的數(shù)據(jù)決定服務(wù)機器人的動作。例如,當(dāng)系統(tǒng)檢測到用戶在洗澡時,將攝像頭旋轉(zhuǎn)90度,并存儲文本信息“2017年3月29日8:00用戶在洗澡。

表1各個層的結(jié)構(gòu)特征與參數(shù)設(shè)置

卷積神經(jīng)網(wǎng)絡(luò)(convolutionneuralnetwork,cnn)主要包括卷積操作和池化操作兩個階段,在卷積操作階段利用權(quán)值共享結(jié)構(gòu)減少權(quán)值數(shù)量進而降低網(wǎng)絡(luò)模型的復(fù)雜度。池化操作階段利用圖像局部相關(guān)性的原理對特征圖進行子抽樣,通過抽取特征結(jié)構(gòu)信息減少數(shù)據(jù)處理量。在模型評估階段,卷積操作的輸出項是池化操作的輸入項,池化操作的結(jié)果是下一層卷積操作的輸入。對于最小化“損失函數(shù)”的過程,通常使用最小化“交叉熵”來不斷減小“特征損失”。

1.卷積操作

卷積神經(jīng)網(wǎng)絡(luò)利用若干個局部濾波器完成卷積操作,即取輸入項的局部子矩陣與局部濾波器進行內(nèi)積運算,將輸出圖譜作為卷積輸出矩陣所對應(yīng)維數(shù)的值。為了獲得好的卷積特征提取效果,對于卷積層具有n個pⅹp的局部濾波器從而獲得n個特征圖譜輸出,第l個卷積層中j個濾波器的第i個卷積操作的輸出矩陣為:

其中,i表示第i個卷積操作,j是對應(yīng)濾波器的編號,wli,j表示第l個卷積層第j個濾波器的第i個卷積操作的權(quán)重,blj代表第l個卷積層第j個濾波器的偏置,“*”表示矩陣乘積;xj(l-1)為第l-1層卷積中第j個濾波器的輸出,f(…)是非線性的激活函數(shù)relu。多卷積核完成卷積操作的過程根據(jù)不同的卷積核進行特征提取,每組卷積核都會根據(jù)所輸入的圖像特征生成新的圖像特征。

2.池化操作

在不破壞數(shù)據(jù)內(nèi)在關(guān)聯(lián)的情況下,池化操作是進一步縮減輸入數(shù)據(jù)規(guī)模的過程。常用的池化操作方法包括最大值合并、平均值合并、以及隨機合并等方法。其中,平均值合并方法是采用局部求平均的方式進行降維,其池化操作的輸入數(shù)據(jù)是上一層卷積操作的輸出,輸出結(jié)果為下一層卷積操作的輸入,第l個池化層中的第j個池化操作的第i個輸出項的矩陣為

式中,為第l-1層的n個神經(jīng)元卷積操作的和,它是根據(jù)上一層大小為pⅹp的局部濾波器而得。本發(fā)明采用平均值合并方法構(gòu)造池化操作。

3.全連接層和softmax分類

最后一個池化操作完成后,抽取更深層次圖像特征的環(huán)節(jié)是若干個全連接層。第l個全連接層的特征矩陣vl計算方法為:

vl=f(v(l-1)*wl+bl)(3)

其中,vl-1為第l-1個全連接層輸出的特征矩陣,wl、bl分別為第l個全連接層的權(quán)重與轉(zhuǎn)置矩陣,f(...)為relu激活函數(shù)。特別,最后一個池化層的輸出矩陣是第1個全連接層的輸入矩陣。

為了獲得可以判定訓(xùn)練數(shù)據(jù)所屬類別,需要將最后一個全連接層的輸出結(jié)果抽象為特征向量,計算其類別估計值。記k為訓(xùn)練數(shù)據(jù)集的總分類數(shù),nk表示第k(k=1,2,…,k)類的數(shù)據(jù)規(guī)模,i(i=1,2,…,nk)表示k類中的第i個樣本的標(biāo)簽;vki表示第i個樣本的特征向量,θki為第i個樣本的待求參數(shù)且θki和vi均為列向量,θkit為θki的轉(zhuǎn)置向量,并使用softmax分類函數(shù)進行預(yù)測,則樣本i的類別估計值的概率計算函數(shù)pki為

4.損失函數(shù)

評估卷積神經(jīng)網(wǎng)絡(luò)的特征損失方面,首先定義一個表示模型是“壞”的指標(biāo),并將其稱為“成本”或者“損失”,基于“交叉熵”的樣本i的特征損失函數(shù)計算方法為:

其中,是樣本i的在訓(xùn)練過程中得到的實際概率分布;在訓(xùn)練模型階段,使用adam優(yōu)化器以不同的學(xué)習(xí)率不斷優(yōu)化特征損失函數(shù)。當(dāng)損失函數(shù)最小時,預(yù)測結(jié)果與實際結(jié)果相差最小,識別率最好。

實施例如下:

將該發(fā)明應(yīng)用于服務(wù)機器人上進行隱私情境檢測測試。針對服務(wù)機器人廣泛使用攝像頭而引起的隱私信息泄漏風(fēng)險,設(shè)計了家居環(huán)境下的六類與隱私相關(guān)的情境,并建立了具有2580張圖片的六類情境的深度特征提取訓(xùn)練數(shù)據(jù)集。針對3個實驗4類測試情境數(shù)據(jù)集的960張圖片進行測試。1.隱私檢測服務(wù)機器人硬件平臺

圖3是課題組搭建的服務(wù)機器人平臺,它包括移動底座、數(shù)據(jù)處理器、數(shù)據(jù)采集設(shè)備以及機械支架等部分。用于輸入與顯示數(shù)據(jù)的觸摸顯示屏是16寸的支持linux系統(tǒng)的工業(yè)觸摸屏;視覺系統(tǒng)采用的是orbbec3d體感攝像頭,它可以采集rgb深度圖像。聽覺系統(tǒng)是基于科大訊飛語音模塊拓展而成,它能夠在嘈雜環(huán)境中識別語音、定位聲音方位。開發(fā)板是擁有256核gpu的nvidiajetsontx1開發(fā)板;移動底座是irobotcreate2。系統(tǒng)的操作系統(tǒng)是ubuntu16.04,并安裝了kinect版本的ros(robotoperationsystem)系統(tǒng)。用于降低服務(wù)機器人運算負(fù)荷的工作站是thinkpadt550(gpu為nvidageforce940m),主要用于數(shù)據(jù)分析。同時,服務(wù)機器人與工作站均安裝了opencv3.1與tensorflow0.9[22]、yolo、ros系統(tǒng)。服務(wù)機器人具有無線通訊模塊,可以實現(xiàn)服務(wù)機器人與工作站間端到端的通信。

2.測試結(jié)果與分析

2.1訓(xùn)練數(shù)據(jù)集

考慮的家居情境包括6類:c1:洗澡;c2:裸體或半裸體睡覺;c3:上廁所;c4:導(dǎo)致身體裸露的換衣服;c5:有人但不涉及上述隱私內(nèi)容;c6:家居環(huán)境中沒有人的存在。

訓(xùn)練所用的數(shù)據(jù)集由以下數(shù)據(jù)構(gòu)成:1)在課題組組建的家居環(huán)境中使用服務(wù)機器人平臺上的orbbec3d體感攝像頭自主采集的圖片。2)從網(wǎng)絡(luò)中收集、篩選并進行適當(dāng)處理后的家居環(huán)境中的圖片,它們具有不同的場景、對象、光亮、角度與像素。

訓(xùn)練數(shù)據(jù)集由來自6類情境的2580幅圖片構(gòu)成,每類訓(xùn)練數(shù)據(jù)集樣本分別具有430張圖片,圖4是訓(xùn)練數(shù)據(jù)集的樣本示例。

2.2提取數(shù)據(jù)集特征的評估訓(xùn)練階段情況分析

針對訓(xùn)練數(shù)據(jù)集使用inceptionv3模型進行訓(xùn)練,最大步驟為4000,并設(shè)置訓(xùn)練數(shù)據(jù)集中的20%作為驗證數(shù)據(jù)集。圖5是能夠度量模型性能損失函數(shù)在不同步驟的變化情況,圖6是對應(yīng)的情境識別率統(tǒng)計結(jié)果。由圖5可知,隨著訓(xùn)練步驟的增加,訓(xùn)練數(shù)據(jù)集和驗證數(shù)據(jù)集損失函數(shù)的值(交叉熵值)持續(xù)降低,并趨于穩(wěn)定狀態(tài)。根據(jù)公式(5)可知,損失函數(shù)的不斷降低,會促使預(yù)測結(jié)果與實際結(jié)果之間的誤差不斷減小,從而提高模型的識別率;而觀察圖6可知,隨著損失函數(shù)值的不斷減小,模型的識別率在不斷上升且在完成400步訓(xùn)練后,識別率保持在90%以上。這些結(jié)果表明,本文所采用的訓(xùn)練數(shù)據(jù)具有較好的代表性,有利于提取情境特征。

2.3系統(tǒng)性能測試實驗設(shè)計

為了測試系統(tǒng)的性能,設(shè)計了3個實驗:

實驗1:家居環(huán)境包括在訓(xùn)練數(shù)據(jù)集中的隱私檢測。測試數(shù)據(jù)a與b的獲取方式是:由訓(xùn)練集中的對象和不在訓(xùn)練集中的對象分別在課題組家居環(huán)境中獲取的圖片。測試時,系統(tǒng)通過其攝像頭實時采集不同角度的數(shù)據(jù)。此實驗為了測試系統(tǒng)對不同檢測對象的檢測魯棒性。

實驗2:檢測對象(人)相同時,檢測環(huán)境不包括在訓(xùn)練數(shù)據(jù)集中的隱私檢測。這一實驗查驗訓(xùn)練集中的情境發(fā)生變化后,系統(tǒng)對于隱私檢測內(nèi)容的準(zhǔn)確性。測試數(shù)據(jù)c為:訓(xùn)練集中的對象在其它家居環(huán)境中的圖片。測試時,系統(tǒng)通過其攝像頭實時采集不同角度的數(shù)據(jù)。此實驗考查系統(tǒng)對不同檢測環(huán)境的檢測表現(xiàn)。

實驗3:檢測對象與家居環(huán)境情境均不包括在訓(xùn)練數(shù)據(jù)集中的隱私檢測。為了體現(xiàn)數(shù)據(jù)的客觀性和多樣性,測試數(shù)據(jù)d從網(wǎng)絡(luò)上搜集整理而得。在測試時,通過模擬系統(tǒng)攝像頭實時采集的方式為檢測系統(tǒng)提供數(shù)據(jù)。該實驗檢測系統(tǒng)在檢測對象與環(huán)境均與訓(xùn)練數(shù)據(jù)完全不同時的性能。

上述a、b、c、d四類測試數(shù)據(jù),在每種情境下均測試40張圖片,每類數(shù)據(jù)在6種情境下共測試相互各異的240張圖片。完成3個實驗,共涉及圖片960張圖片(如圖7)。測試數(shù)據(jù)集與訓(xùn)練集無雷同數(shù)據(jù)。

2.4測試結(jié)果與分析

針對a、b、c和d4類數(shù)據(jù),以每種情境下40張圖片組成的相互各異的240張圖片為測試對象,系統(tǒng)針對a、b、c和d4類測試數(shù)據(jù)的隱私識別準(zhǔn)確率與隱私類別估計值統(tǒng)計結(jié)果分別如表2與表3所示,表2體現(xiàn)是系統(tǒng)宏觀的隱私識別準(zhǔn)確性,表3體現(xiàn)的是系統(tǒng)對于具體某一實時圖片歸屬于目標(biāo)類的概論估計的統(tǒng)計結(jié)果。

觀察表2中的數(shù)據(jù)可知,實驗1對應(yīng)的情境c2、c3、c4、c6的各40張圖片系統(tǒng)隱私識別準(zhǔn)確率均達到了100%,情境c1和c5的識別準(zhǔn)確率都為97.5%;在實驗2中,針對c類測試數(shù)據(jù)的隱私識別準(zhǔn)確率最高為95%,最低為85%;在實驗3中,d類數(shù)據(jù)的隱私識別準(zhǔn)確率最高為97.5%,最低為80%。3類實驗的隱私內(nèi)容識別準(zhǔn)確率平均為94.69%。從這些測試結(jié)果可知,雖然用于測試的數(shù)據(jù)與訓(xùn)練的數(shù)據(jù)有較大的差異,特別是來自于網(wǎng)絡(luò)及情境與檢測對象均發(fā)生了較大改變的數(shù)據(jù),本文構(gòu)建的隱私檢測系統(tǒng)仍然可以運用所獲得的特征模型以較高的準(zhǔn)確性識別新的涉及隱私內(nèi)容的情境。表2系統(tǒng)針對不同測試數(shù)據(jù)集的隱私情境識別準(zhǔn)確率

表3系統(tǒng)針對不同測試數(shù)據(jù)集的隱私類別估計值統(tǒng)計表

觀察表3中實驗1對應(yīng)的數(shù)據(jù)可知,當(dāng)測試數(shù)據(jù)的家居環(huán)境包括在訓(xùn)練數(shù)據(jù)集中時,對于對象在訓(xùn)練集中的a類測試數(shù)據(jù),在c1-c6情境中獲得了較高的類別估計值,均值分別是:0.900、0.955、0.891、0.966、0.927和0.931,標(biāo)準(zhǔn)方差分別為:0.164、0.074、0.151、0.087、0.115和0.167。而對于b類測試數(shù)據(jù),在c1-c6情境的類別估計值均值分別是:0.862、0.950、0.863、0.933、0.906和0.916,標(biāo)準(zhǔn)方差分別為:0.172、0.057、0.094、0.071、0.114和0.302。這兩組數(shù)據(jù)系統(tǒng)均輸出了差異較小的較高的類別估計值,這表明在環(huán)境沒有變化的情況下,對象的變化對系統(tǒng)的類別估計影響較小。表2中a與b類測試數(shù)據(jù)對應(yīng)的情境識別準(zhǔn)確率相同,這表明系統(tǒng)可以適應(yīng)對象改變后的隱私識別與判定。

觀察從表3中實驗2對應(yīng)的數(shù)據(jù)可知:當(dāng)家居環(huán)境發(fā)生改變后,系統(tǒng)的類別估計值較a與b類測試數(shù)據(jù)的低,c類測試數(shù)據(jù)在c1-c6情境中平均類別估計值分別最大下降了0.145、0.242、0.123、0.089、0.252和0.324。這表明:對于有限的訓(xùn)練集,當(dāng)家居環(huán)境發(fā)生改變時,對于同樣的檢測對象,系統(tǒng)的識別性能會下降,家居環(huán)境對系統(tǒng)影響較大。

從表2與表3中實驗3對應(yīng)的數(shù)據(jù)可知,當(dāng)家居環(huán)境與對象均發(fā)生改變后,系統(tǒng)的識別準(zhǔn)確性與類別估計值均會下降。雖然d類數(shù)據(jù)來源于網(wǎng)絡(luò),其背景主題、對象與采集角度均與訓(xùn)練集的數(shù)據(jù)差異較大,但是從表2中數(shù)據(jù)可知,盡管其識別的整體準(zhǔn)確性要低于實驗1與實驗2的結(jié)果,系統(tǒng)在c1-c6情境中最差的識別準(zhǔn)確性可達80%、最好可達97.5%,這說明系統(tǒng)對于具有較大差異的新樣本擁有較強的識別能力。

總之,本發(fā)明考慮了使用服務(wù)機器人引起的道德問題,具有隱私情境界定和存儲機制,反映了對人的隱私尊重,可以保護人的隱私。同時,建立了特征提取訓(xùn)練數(shù)據(jù)集與應(yīng)用測試數(shù)據(jù)集。前者包括基于家居環(huán)境的洗澡、裸體睡覺、換衣服、上廁所、家中有人、家中無人共6類情境。測試結(jié)果表明:1)當(dāng)測試數(shù)據(jù)與訓(xùn)練數(shù)據(jù)的家居環(huán)境相同時,檢測對象人的改變對系統(tǒng)的隱私檢測能力影響較小,可以獲得較高的識別準(zhǔn)確性。2)當(dāng)測試數(shù)據(jù)與訓(xùn)練數(shù)據(jù)的對象相同時,系統(tǒng)因家居環(huán)境的改變而導(dǎo)致識別準(zhǔn)確性下降,家居環(huán)境對系統(tǒng)的識別確定性影響較檢測對象要大。3)對于一個相對比較完備訓(xùn)練數(shù)據(jù)集,當(dāng)家居環(huán)境與對象均發(fā)生改變后,仍然可以獲得較好的識別準(zhǔn)確性。因此,在構(gòu)建訓(xùn)練集時,要盡可能多的收集具有不同家居環(huán)境的數(shù)據(jù)。

以上所述,僅是本發(fā)明的較佳實施例而已,并非對本發(fā)明作任何形式上的限制,任何未脫離本發(fā)明技術(shù)方案內(nèi)容,依據(jù)本發(fā)明的技術(shù)實質(zhì)對以上實施例所作的任何簡單修改、等同變化與修飾,均仍屬于本發(fā)明技術(shù)方案的范圍內(nèi)。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1