亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種多模型人臉識(shí)別方法、系統(tǒng)及存儲(chǔ)介質(zhì)與流程

文檔序號(hào):40320388發(fā)布日期:2024-12-18 12:57閱讀:7來(lái)源:國(guó)知局
一種多模型人臉識(shí)別方法、系統(tǒng)及存儲(chǔ)介質(zhì)與流程

本發(fā)明涉及一種人臉識(shí)別方法,特別是一種多模型人臉識(shí)別方法、系統(tǒng)及存儲(chǔ)介質(zhì)。


背景技術(shù):

1、現(xiàn)有的利用深度學(xué)習(xí)進(jìn)行人臉識(shí)別方式基本主要是基于某一單一的角度空間域進(jìn)行人臉識(shí)別,目前常見(jiàn)的幾種做法有:在余弦角度空間域中最大化分類界限進(jìn)行比較人臉的cosinface、使用特征范數(shù)作為圖片質(zhì)量代理進(jìn)行人臉比較的adaface和直接在角度空間域中最大化分類界限的arcface。cosinface?是一種用于面部識(shí)別的深度學(xué)習(xí)模型,旨在提高面部特征的區(qū)分能力和識(shí)別精度。cosinface?的核心思想是通過(guò)優(yōu)化面部特征的角度(cosine)距離來(lái)增強(qiáng)模型的識(shí)別能力。adaface?是一種開(kāi)源的面部識(shí)別技術(shù),主要用于提升面部識(shí)別系統(tǒng)在各種條件下的準(zhǔn)確性和魯棒性。arcface?是一種用于面部識(shí)別的深度學(xué)習(xí)模型,旨在提高面部特征的識(shí)別精度和穩(wěn)定性,其核心創(chuàng)新在于通過(guò)角度(arc)損失函數(shù)來(lái)優(yōu)化特征空間中的面部特征,使得相同類別的特征向量更加集中,不同類別的特征向量更加分散。但不可否認(rèn)的是,不同的做法對(duì)同一張圖片進(jìn)行評(píng)估得到的結(jié)果均不同,但又遵循著同一個(gè)體的得分最大既相同類別的類內(nèi)特征最接近的特性。

2、然而,現(xiàn)在單一的角度空間域進(jìn)行人臉識(shí)別,通常具有以下缺陷:(1)閾值導(dǎo)致的人臉識(shí)別失敗或者未錄入人臉識(shí)別成功的問(wèn)題,以上三種基于神經(jīng)學(xué)習(xí)的做法每一種都需要人為的選定一個(gè)閾值進(jìn)行攔截未入庫(kù)的人臉,單一的閾值最常出現(xiàn)的問(wèn)題是容易過(guò)于武斷的判定。(2)因?yàn)閳D片質(zhì)量導(dǎo)致的人臉識(shí)別失敗或者未能有效的攔截未入庫(kù)的人臉,現(xiàn)有的人臉識(shí)別大多都用于固定的場(chǎng)所如視頻門禁、上下班打卡等都是長(zhǎng)期固定環(huán)境下的識(shí)別,不同場(chǎng)所情況下因?yàn)楣饩€、遮擋、圖片明亮度、清晰度等方面的影響容易導(dǎo)致識(shí)別失敗如室內(nèi)拍照的圖片作為入庫(kù)數(shù)據(jù),戶外隨機(jī)任意場(chǎng)景作為識(shí)別的數(shù)據(jù)。


技術(shù)實(shí)現(xiàn)思路

1、針對(duì)上述問(wèn)題,本發(fā)明提供了一種多模型人臉識(shí)別方法,采用多個(gè)模型進(jìn)行聯(lián)合的人臉識(shí)別,有效提升了人臉識(shí)別的準(zhǔn)確率,更大力度的抑制并攔截了未入庫(kù)人臉的誤識(shí)別成功率,有效提升了人臉識(shí)別于更多場(chǎng)景的識(shí)別成功率。

2、本發(fā)明采用的技術(shù)方案為:

3、一種多模型人臉識(shí)別方法,包括以下步驟:

4、步驟s1、圖片獲?。簩?duì)攝像頭獲取的待識(shí)別人臉圖片數(shù)據(jù)和所有人臉庫(kù)數(shù)據(jù)進(jìn)行暗原色增亮處理;

5、步驟s2、人臉識(shí)別:

6、步驟s2.1、初次人臉識(shí)別:將步驟s1得到的增亮后的待識(shí)別人臉和增亮后的人臉庫(kù)數(shù)據(jù)進(jìn)行輸送到第一角度空間域人臉識(shí)別模型,將編碼結(jié)果進(jìn)行矩陣運(yùn)算,經(jīng)過(guò)矩陣運(yùn)算后得到每個(gè)人臉得分,根據(jù)得分情況進(jìn)行排序;

7、步驟s2.2、再次人臉識(shí)別:將步驟s2.1中得到的分?jǐn)?shù)最高6張人臉庫(kù)中原始數(shù)據(jù)進(jìn)行暗原色增亮后再次和增亮后的當(dāng)前待識(shí)別人臉進(jìn)行第二角度空間域人臉識(shí)別模型和第三角度空間域人臉識(shí)別模型,完成后將得到每個(gè)角度空間域的最高得分人臉庫(kù)數(shù)據(jù)輸送到下一步驟;

8、步驟s3、身份id判斷:將取到三個(gè)角度空間域的得分最高數(shù)據(jù),進(jìn)行唯一身份id判斷,判斷是否滿足兩個(gè)或者兩個(gè)以上的角度空間域是同一個(gè)個(gè)體,若滿足條件則轉(zhuǎn)到步驟s4,若不滿足條件則轉(zhuǎn)到步驟s6;

9、步驟s4、閾值分?jǐn)?shù)判斷:

10、步驟s4.1、第一閾值分?jǐn)?shù)判斷:基于步驟s3的條件進(jìn)行第一閾值分?jǐn)?shù)判斷,判斷所有角度空間域的最高得分是否滿足都大于或等于第一閾值分?jǐn)?shù),同一個(gè)人的人臉要具備每個(gè)角度空間域的相似度都能大于或等于第一閾值的能力,若滿足條件則轉(zhuǎn)到步驟s4.2,若不滿足條件則轉(zhuǎn)到步驟s6;

11、步驟s4.2、第二閾值分?jǐn)?shù)判斷:基于步驟s4.1得到的結(jié)果再次進(jìn)行第二閾值判斷,判斷是否滿足有兩個(gè)或者兩個(gè)以上的角度空間域的最高得分(top1得分)大于或等于第二分?jǐn)?shù)閾值,若滿足條件則轉(zhuǎn)到步驟s5,若不滿足條件則轉(zhuǎn)到步驟s6;

12、步驟s5:輸出識(shí)別成功結(jié)果:對(duì)步驟s4.2得到滿足多個(gè)角度空間域的結(jié)果,進(jìn)行輸出并進(jìn)行語(yǔ)音提醒人臉識(shí)別成功;

13、步驟s6:輸出識(shí)別失敗結(jié)果:對(duì)不符合條件的結(jié)果進(jìn)行輸出,語(yǔ)音提示人臉識(shí)別失敗,并轉(zhuǎn)到步驟s1。

14、優(yōu)選地,步驟s2.1中,所述第一角度空間域人臉識(shí)別模型中算法是基于開(kāi)源代碼adaface算法架構(gòu)基礎(chǔ)上進(jìn)行修改優(yōu)化算法結(jié)構(gòu),整個(gè)算法以特征編碼形式進(jìn)行構(gòu)造,由mobilefacenet和head兩部分組成,mobilefacenet的輸出通道為1024;?gdc模型塊結(jié)構(gòu)中,在conv_sep塊內(nèi)部輸出1024個(gè)輸出維度,通道數(shù)為1024,并在輸入之前進(jìn)行了歸一化數(shù)據(jù)從操作,限制特征數(shù)據(jù)在指定的數(shù)值范圍0到1之內(nèi);head部分則是采用了原始的adaface角度最大化類別方式;經(jīng)過(guò)修改后的算法訓(xùn)練后得到目標(biāo)模型第一角度空間域人臉識(shí)別模型;步驟s2.1中第一角度空間域人臉識(shí)別模型內(nèi)的矩陣運(yùn)算公式是,假設(shè)n行?*?d?列的矩陣與一個(gè)d?行*?n列的矩陣相乘,結(jié)果是一個(gè)n行?*?n列的矩陣,記作s;表示結(jié)果矩陣s中的第i行第j列的元素,那么,其中表示經(jīng)過(guò)模型輸出的每一個(gè)特征向量矩陣集合,表示該集合的轉(zhuǎn)置集合,“·”表示向量的點(diǎn)積運(yùn)算;公式中表示向量的第k個(gè)元素,表示向量的第k個(gè)元素。

15、優(yōu)選地,步驟s2.2中,第二角度空間域人臉識(shí)別模型的算法是基于insightface框架下的arcface進(jìn)行優(yōu)化,整個(gè)算法以特征編碼形式進(jìn)行構(gòu)造;算法主干采用輕量化的shufflenet_v2_x1_5作為主干網(wǎng)絡(luò)進(jìn)行特征提取輸出通道按1280通道數(shù)進(jìn)行輸出;基于優(yōu)化后的算法進(jìn)行訓(xùn)練得到目標(biāo)模型第二角度空間域人臉識(shí)別模型;步驟s2.2中,第三角度空間域人臉識(shí)別模型的算法是基于adaface算法框架進(jìn)行魔改,使用的主干網(wǎng)絡(luò)是res2net18作為主干;經(jīng)過(guò)訓(xùn)練后得到目標(biāo)模型第三空間域人臉識(shí)別模型。

16、更優(yōu)選地,步驟s3中,唯一身份id判斷,根據(jù)圖片名稱或者目錄名稱作為判斷,同一個(gè)個(gè)體應(yīng)該具備同一個(gè)體數(shù)據(jù)存放于相同目錄下或者唯一的身份id,根據(jù)唯一的身份id進(jìn)行判斷限制。

17、更優(yōu)選地,步驟s4.1中,第一閾值分?jǐn)?shù)設(shè)定為0.39;步驟s4.2中,第二個(gè)閾值分?jǐn)?shù)設(shè)定為0.515。

18、本發(fā)明還提供一種多模型人臉識(shí)別系統(tǒng),包括:

19、圖片獲取及圖片增亮單元,用于獲取待識(shí)別人臉圖片數(shù)據(jù)和所有人臉庫(kù)數(shù)據(jù),并對(duì)獲取的待識(shí)別人臉圖片數(shù)據(jù)和所有人臉庫(kù)數(shù)據(jù)進(jìn)行暗原色增亮處理;

20、人臉識(shí)別單元,用于對(duì)增亮后的待識(shí)別人臉圖片數(shù)據(jù)和所有人臉庫(kù)數(shù)據(jù)利用第一角度空間域模型、第二角度空間域模型和第三角度空間域模型進(jìn)行人臉識(shí)別;

21、身份id判斷單元,用于對(duì)取到的三個(gè)角度空間域的得分最高數(shù)據(jù),進(jìn)行唯一身份id判斷;

22、閾值分?jǐn)?shù)判斷單元,用于對(duì)具有唯一身份id的圖片進(jìn)行閾值分?jǐn)?shù)判斷;

23、結(jié)果輸出單元,用于對(duì)滿足多個(gè)角度空間域的圖片進(jìn)行輸出并語(yǔ)音提醒人臉識(shí)別成功,對(duì)不滿足的圖片進(jìn)行輸出并語(yǔ)音提示人臉識(shí)別失敗。

24、優(yōu)選地,所述圖片獲取及圖片增亮單元中,采用攝像頭獲取待識(shí)別人臉圖片數(shù)據(jù);所述人臉識(shí)別單元中,增亮后的待識(shí)別人臉和增亮后的人臉庫(kù)數(shù)據(jù)進(jìn)行輸送到第一角度空間域人臉識(shí)別模型,將編碼結(jié)果進(jìn)行矩陣運(yùn)算,經(jīng)過(guò)矩陣運(yùn)算后得到每個(gè)人臉得分,根據(jù)得分情況進(jìn)行排序,得到的分?jǐn)?shù)最高6張人臉庫(kù)中原始數(shù)據(jù)進(jìn)行暗原色增亮后再次和增亮后的當(dāng)前待識(shí)別人臉進(jìn)行第二角度空間域人臉識(shí)別模型和第三角度空間域人臉識(shí)別模型,完成后將得到每個(gè)角度空間域的最高得分人臉庫(kù)數(shù)據(jù);矩陣運(yùn)算的公式為,假設(shè)n行?*?d?列的矩陣與一個(gè)d?行*?n列的矩陣相乘,結(jié)果是一個(gè)n行?*?n列的矩陣,記作s;表示結(jié)果矩陣s中的第i行第j列的元素,那么,其中表示經(jīng)過(guò)模型輸出的每一個(gè)特征向量矩陣集合,表示該集合的轉(zhuǎn)置集合,“·”表示向量的點(diǎn)積運(yùn)算;公式中表示向量的第k個(gè)元素,表示向量的第k個(gè)元素。

25、更優(yōu)選地,所述身份id判斷單元中將取到三個(gè)角度空間域的得分最高數(shù)據(jù),進(jìn)行唯一身份id判斷,判斷是否滿足兩個(gè)或者兩個(gè)以上的角度空間域是同一個(gè)個(gè)體,根據(jù)圖片名稱或者目錄名稱作為判斷,同一個(gè)個(gè)體應(yīng)該具備同一個(gè)體數(shù)據(jù)存放于相同目錄下或者唯一的身份id,根據(jù)唯一的身份id進(jìn)行判斷限制。

26、優(yōu)選地,所述閾值分?jǐn)?shù)判斷單元中,先判斷所有角度空間域的最高得分圖片是否滿足都大于或等于第一閾值分?jǐn)?shù),再判斷超過(guò)第一閾值分?jǐn)?shù)的圖片是否滿足有兩個(gè)或者兩個(gè)以上的角度空間域的最高得分大于或等于第二閾值分?jǐn)?shù);第一閾值分?jǐn)?shù)設(shè)定為0.39;第二個(gè)閾值分?jǐn)?shù)設(shè)定為0.515。

27、本發(fā)明還提供一種計(jì)算機(jī)可讀存儲(chǔ)介質(zhì),其上存儲(chǔ)有計(jì)算機(jī)程序,所述計(jì)算機(jī)程序被處理器執(zhí)行時(shí)實(shí)現(xiàn)所述多模型人臉識(shí)別方法。

28、與現(xiàn)有技術(shù)相比,本發(fā)明的有益效果在于:本發(fā)明提供的一種多模型人臉識(shí)別方法,采用多個(gè)模型進(jìn)行聯(lián)合的人臉識(shí)別,降低因外界場(chǎng)景不同導(dǎo)致人臉識(shí)別失敗率,應(yīng)用多個(gè)研究方向的結(jié)果聯(lián)合判定識(shí)別結(jié)果,降低因單一閾值導(dǎo)致人臉識(shí)別失敗率,有效提升了人臉識(shí)別的準(zhǔn)確率,更大力度的抑制并攔截了未入庫(kù)人臉的誤識(shí)別成功率,有效提升了人臉識(shí)別于更多場(chǎng)景的識(shí)別成功率。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問(wèn)留言 已有0條留言
  • 還沒(méi)有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1