亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于深度學習模型的隱寫圖像檢測方法及系統(tǒng)與流程

文檔序號:12126067閱讀:701來源:國知局
一種基于深度學習模型的隱寫圖像檢測方法及系統(tǒng)與流程

本發(fā)明涉及數字圖像隱寫技術領域,尤其涉及一種基于深度學習模型的隱寫圖像檢測方法及系統(tǒng)。



背景技術:

信息隱藏是上世紀90年代開始興起的信息安全新技術,并成為信息安全技術研究的熱點。傳統(tǒng)通信領域為了保證傳遞的信息能夠不被竊聽或破壞,常采用密碼來保護信息,即讓竊聽者無法看到或聽懂,但是這種技術的缺點是告訴竊聽者這就是秘密信息,特別是隨著計算機技術的發(fā)展,密碼的安全性受到很大挑戰(zhàn)。而數字隱寫是將需要傳遞的秘密信息,隱藏在一個普通的非秘密消息當中,再進行傳輸,這樣即使竊聽者竊聽了傳輸的信息,也只會將其當成普通的消息,而不會懷疑或者無法得知是否有秘密信息的存在。

在檢測隱藏信息、監(jiān)控和阻截非法隱蔽通信方面,各國軍方和安全部門表現出了十分迫切的需求,隱寫分析術應運而生。隱寫分析術是對數字媒體信號進行統(tǒng)計分析,判斷其中是否藏有秘密信息的技術。更高層次的隱寫分析術可以對秘密信息的長度、隱藏位置等進行判斷。隱寫分析的目的是檢測、阻截和破壞隱蔽通信。隱寫分析術和隱寫術是兩種相互對抗且相互促進的技術。其中,隱寫分析有主動隱寫分析和被動隱寫分析兩種類型,現在一般研究的隱寫分析方法都是指被動隱寫分析,主要用于判別待測載體是否隱藏有秘密信息。

現有技術中主流的頻率域隱寫算法有J-UNIWARD,主流的空域隱寫算法有HUGO、WOW、S-UNIWARD等。這些算法都具有很高的安全性,但它們還存在諸如信息的嵌入未避開單一方向的邊緣,信息可能分散于一些平滑區(qū)中等。

其中圖像隱寫分析算法過程類似于模式識別問題,一般分為兩步。第一步,特征提取(Feature Extraction),提取一些具有區(qū)分載體圖像和隱密圖像統(tǒng)計特性的集合作為特征空間向量;第二部,分類操作(Classification),該過程主要通過如支持向量機、集成分類器等經過訓練構造出來的分類器進行特征分類,分類完成后一般采用Testing error(測試錯誤率)來表征該隱寫分析算法的性能。通用隱寫分析方法中,最重要對性能影響最大的是特征提取階段。

在上述隱寫分析算法中,空域特征以Fridrich等提出的基于SRM(Spatial Rich models)的特征最具有代表性,該方法通過39個濾波器建立106個模型,最后得到34671維特征;頻率域特征以V.Holub等提出的基于DCT余量圖像的DCTR特征最具代表性,該方法通過64個8x8的DCT基核對圖像卷積產生64個DCT余量圖像,從每個DCT余量圖像中提取320維的一階統(tǒng)計特征,最后通過對稱合并等操作得到8000維的特征?,F有技術中的隱寫分析算法特征都具有較高的維數,使得提取特征與特征分類的時間大大增加,不利于實際應用,而且增加了圖像隱寫分析技術的時間成本。

因此,現有技術還有待于改進和發(fā)展。



技術實現要素:

鑒于現有技術的不足,本發(fā)明目的在于提供一種基于深度學習模型的隱寫圖像檢測方法及系統(tǒng),旨在解決現有技術中有技術中的隱寫分析算法特征都具有較高的維數,使得提取特征與特征分類的時間大大增加,增加了圖像隱寫分析技術的時間成本的技術問題。

本發(fā)明的技術方案如下:

一種基于深度學習模型的隱寫圖像檢測方法,其中,方法包括:

A、預先設置擬合分析數字圖像隱寫富模型特征的初始深度學習模型;

B、選取有監(jiān)督的預訓練算法對初始深度學習模型進行預訓練后得到預訓練深度學習模型;

C、整合預訓練深度學習模型和深度分類網絡生成整合深度學習模型,根據預先獲取的訓練數據集對整合深度學習模型進行訓練后生成最終深度學習模型,根據最終深度學習模型對隱寫圖像進行檢測,輸出檢測結果。

所述的基于深度學習模型的隱寫圖像檢測方法,其中,所述深度學習模型為深度卷積神經網絡CNN。

所述的基于深度學習模型的隱寫圖像檢測方法,其中,所述步驟A具體包括步驟:

A1、預先根據DCTR生成余量圖像的子模型,設計DCTR模型的N個DCT卷積核的CNN的卷積層,生成余量CNN子模型,其中N為自然數;

A2、根據DCTR量化和截斷操作的子模型,設計能對輸入進行給定步長量化操作和給定閾值截斷操作的CNN層,生成量化截斷操作CNN子模型;

A3、根據DCTR一階統(tǒng)計量獲取與整合的子模型,通過若干個卷積層、正則化層和池化層的組合CNN模型,生成一階統(tǒng)計量獲取與整合CNN子模型。

所述的基于深度學習模型的隱寫圖像檢測方法,其中,所述步驟B具體包括步驟:

B1、預先獲取預定數量的隱密圖像與載體圖像對,根據DCTR富模型中的N個DCT卷積核對隱密圖像與載體圖像中的一幅圖像進行卷積后生成N幅余量圖像,并根據對應余量圖像的DCTR富模型對應DCT卷積核特征作為標識;

B2、依次連接量化截斷操作CNN子模型和一階統(tǒng)計量獲取與整合CNN子模型組成組合CNN模型;

B3、利用歐式距離作為誤差方程,使用預先獲取預定數量的隱密圖像與載體圖像對來對組合CNN模型進行預訓練后生成預訓練CNN模型。

所述的基于深度學習模型的隱寫圖像檢測方法,其中,所述步驟C具體包括步驟:

C1、預先獲取用于預訓練的隱密圖像與載體圖像數據,對隱秘圖像標記為0,載體圖像標記為1;

C2、依次連接生成余量圖像的CNN子模型、N個組合CNN模型與CNN分類模型得到整合CNN模型;

C3、根據預訓練的隱密圖像與載體圖像數據對整合CNN模型訓練后生成最終CNN模型;

C4、將待測圖像作為最終CNN模型的輸入,若最終CNN模型輸出為0,則判定待測圖像為隱密圖像,若為1則判定待測圖像為未經隱密的載體圖像,并輸出檢測結果。

一種基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,系統(tǒng)包括:

初始模型設計模塊,用于預先設置擬合分析數字圖像隱寫富模型特征的初始深度學習模型;

預訓練模塊,用于選取有監(jiān)督的預訓練算法對初始深度學習模型進行預訓練后得到預訓練深度學習模型;

訓練與檢測模塊,用于整合預訓練深度學習模型和深度分類網絡生成整合深度學習模型,根據預先獲取的訓練數據集對整合深度學習模型進行訓練后生成最終深度學習模型,根據最終深度學習模型對隱寫圖像進行檢測,輸出檢測結果。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述系深度學習模型為深度卷積神經網絡CNN。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述初始模型設計模塊具體包括:

余量子模型生成單元,用于預先根據DCTR生成余量圖像的子模型,設計DCTR模型的N個DCT卷積核的CNN的卷積層,生成余量CNN子模型,其中N為自然數;

量化截斷操作CNN子模型生成單元,用于根據DCTR量化和截斷操作的子模型,設計能對輸入進行給定步長量化操作和給定閾值截斷操作的CNN層,生成量化截斷操作CNN子模型;

一階統(tǒng)計量獲取與整合CNN子模型生成單元,用于根據DCTR一階統(tǒng)計量獲取與整合的子模型,通過若干個卷積層、正則化層和池化層的組合CNN模型,生成一階統(tǒng)計量獲取與整合CNN子模型。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述預訓練模塊具體包括:

余量圖像生成單元,用于預先獲取預定數量的隱密圖像與載體圖像對,根據DCTR富模型中的N個DCT卷積核對隱密圖像與載體圖像中的一幅圖像進行卷積后生成N幅余量圖像,并根據對應余量圖像的DCTR富模型對應DCT卷積核特征作為標識;

組合CNN模型生成單元,用于依次連接量化截斷操作CNN子模型和一階統(tǒng)計量獲取與整合CNN子模型組成組合CNN模型;

預訓練單元,用于利用歐式距離作為誤差方程,使用預先獲取預定數量的隱密圖像與載體圖像對來對組合CNN模型進行預訓練后生成預訓練CNN模型。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述訓練與檢測模塊具體包括:

圖像標記單元,用于預先獲取用于預訓練的隱密圖像與載體圖像數據,對隱秘圖像標記為0,載體圖像標記為1;

整合CNN模型生成單元,用于依次連接生成余量圖像的CNN子模型、N個組合CNN模型與CNN分類模型得到整合CNN模型;

模型訓練單元,用于根據預訓練的隱密圖像與載體圖像數據對整合CNN模型訓練后生成最終CNN模型;

檢測單元,用于將待測圖像作為最終CNN模型的輸入,若最終CNN模型輸出為0,則判定待測圖像為隱密圖像,若為1則判定待測圖像為未經隱密的載體圖像,并輸出檢測結果。

本發(fā)明提供了一種基于深度學習模型的隱寫圖像檢測方法及系統(tǒng),本發(fā)明通過對模型進行預訓練,使得該深度學習模型能夠具有類似數字圖像隱寫分析富模型提取特征的能力,并由深度學習在大數據下的優(yōu)勢,獲得比數字圖像隱寫分析富模型特征和集成分類器組合使用更準確的區(qū)分隱密圖像和載體圖像能力,而且數據計算維度低,計算量小,提高了隱寫圖像檢測速度。

附圖說明

圖1為本發(fā)明的一種基于深度學習模型的隱寫圖像檢測方法的較佳實施例的流程圖。

圖2為本發(fā)明的一種基于深度學習模型的隱寫圖像檢測方法的具體應用實施例的預訓練CNN模型的輸出的DCTR示意圖。

圖3為本發(fā)明的一種基于深度學習模型的隱寫圖像檢測方法的具體應用實施例的整合CNN模型的模型示意圖。

圖4為本發(fā)明的一種基于深度學習模型的隱寫圖像檢測方法的具體應用實施例的擬合DCTR特征效果示意圖。

圖5為本發(fā)明的一種基于深度學習模型的隱寫圖像檢測系統(tǒng)的較佳實施例的功能原理框圖。

具體實施方式

為使本發(fā)明的目的、技術方案及效果更加清楚、明確,以下對本發(fā)明進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。

本發(fā)明提供了一種基于深度學習模型的隱寫圖像檢測方法的較佳實施例的流程圖,如圖1所示,其中,方法包括:

步驟S100、預先設置擬合分析數字圖像隱寫富模型特征的初始深度學習模型。

具體實施時,深度學習模型為深度卷積神經網絡CNN。的模型設計階段主要依照DCTR特征進行設計,也可以根據其他隱寫分析特征如SRM特征等進行設計,這里具體對DCTR特征的設計方法進行講述。模型設計階段主要包括設計擬合DCTR富模型生成余量圖像、量化和截斷操作、一階統(tǒng)計量獲取與整合三個DCTR子模型對應的三個卷積神經網絡子模型。

進一步的實施例中,結合圖1可知,步驟S100具體包括:

步驟S101、預先根據DCTR生成余量圖像的子模型,設計DCTR模型的N個DCT卷積核的CNN的卷積層,生成余量CNN子模型,其中N為自然數;

步驟S102、根據DCTR量化和截斷操作的子模型,設計能對輸入進行給定步長量化操作和給定閾值截斷操作的CNN層,生成量化截斷操作CNN子模型;

步驟S103、根據DCTR一階統(tǒng)計量獲取與整合的子模型,通過若干個卷積層、正則化層和池化層的組合CNN模型,生成一階統(tǒng)計量獲取與整合CNN子模型。

具體實施時,步驟S101中主要是生成余量圖像。依照DCTR生成余量圖像的子模型,設計給定DCTR富模型64個DCT卷積核的CNN的卷積層,獲得具有生成64個DCT余量圖像功能的CNN子模型,即余量CNN子模型。其中余量圖像是由原始圖像通過卷積核卷積得到的圖像。

這里DCTR生成余量圖像所使用的卷積核是8x8的DCT卷積核,一共有64個卷積核:

則若有圖像其使用上述64個DCT卷積核得到的64個余量圖像為:

U(k,l)=X*B(k,l),0≤k,l≤7。

步驟S102依照DCTR量化和截斷操作的子模型,設計能對輸入進行給定步長(Step)量化操作和給定閾值(Threshold)截斷操作的CNN層,獲得對上述DCT余量圖像具有量化和截斷操作功能的CNN子模型,即量化截斷操作CNN子模型。

步驟S103中依照DCTR一階統(tǒng)計量獲取與整合的子模型,通過多個卷積層、正則化層和池化層的組合CNN模型,獲得具有對量化和截斷后的圖像進行一階統(tǒng)計量獲取與整合功能的CNN子模型,即一階統(tǒng)計量獲取與整合CNN子模型。

步驟S200、選取有監(jiān)督的預訓練算法對初始深度學習模型進行預訓練后得到預訓練深度學習模型。

具體實施時,通過使用載體圖像和隱密圖像以及其對應的DCTR特征對上一階段設計的卷積神經網絡模型進行預訓練,使得上一階段設計的卷積神經網絡具有對應DCTR特征生成余量圖像、量化和截斷操作、一階統(tǒng)計量獲取與整合等功能,并盡可能地使預訓練網絡的輸入輸出與DCTR特征提取階段的輸入輸出相近。其中載體圖像和隱密圖像采用JPEG格式的圖像。

進一步的實施例中,步驟S200具體包括:

步驟S201、預先獲取預定數量的隱密圖像與載體圖像對,根據DCTR富模型中的N個DCT卷積核對隱密圖像與載體圖像中的一幅圖像進行卷積后生成N幅余量圖像,并根據對應余量圖像的DCTR富模型對應DCT卷積核特征作為標識;

步驟S202、依次連接量化截斷操作CNN子模型和一階統(tǒng)計量獲取與整合CNN子模型組成組合CNN模型;

步驟S203、利用歐式距離作為誤差方程,使用預先獲取預定數量的隱密圖像與載體圖像對來對組合CNN模型進行預訓練后生成預訓練CNN模型。

具體實施時,步驟S201中準備預訓練數據。準備一定數量用于預訓練的隱密圖像與載體圖像數據,使用DCTR富模型中給定的64個DCT卷積核對一幅上述圖像進行卷積得到64幅余量圖像,并使用對應余量圖像的DCTR富模型對應DCT卷積核特征作為標識。

步驟S202中依次連接量化截斷操作CNN子模型和一階統(tǒng)計量獲取與整合CNN子模型組成組合CNN模型,CNN組合模型的輸入為余量圖像,輸出為DCTR富模型對應DCT卷積核特征。

步驟S203中用歐式距離(Euclidean Loss)作為卷積神經網絡訓練的目標函數,使用預訓練數據對組合CNN模型進行訓練。使得預訓練得到輸入為余量圖像,輸出與DCTR富模型中各個子模型特征(DCTR subfeatures)相似的CNN模型。其中誤差方程為這是公知的公式:計算兩個輸入的差的平方和。

圖2中虛線框部分為設計好的擬合DCTR功能的CNN子模型。其中依次對余量圖像進行第一次卷積后,進行第一次均值池化處理,然后進行第二次卷積,第二次均值池他操作,最后進行第三次卷積操作后,執(zhí)行一次線性激活,再進行第三均值池化處理操作后生成設計好的擬合DCTR功能的CNN子模型,并與DCTR子模型特征通過歐式距離誤差公式進行整合。

步驟S300、整合預訓練深度學習模型和深度分類網絡生成整合深度學習模型,根據預先獲取的訓練數據集對整合深度學習模型進行訓練后生成最終深度學習模型,根據最終深度學習模型對隱寫圖像進行檢測,輸出檢測結果。

具體實施時,通過上述兩個階段得到了具有與DCTR富模型特征提取相似功能的CNN模型,接下來將對該CNN模型進行整合,并通過訓練使其對載體圖像和隱密圖像進行分類。本實施例中并不需要事先知道隱密圖像所使用的隱寫算法,通過訓練不同的載體圖像和隱密圖像來對特定的隱寫算法進行排查檢測,具有通用性。通過提取待測圖像的余量圖像,可以獲得載體圖像和隱密圖像統(tǒng)計特性上的細微差別,再通過深度學習方法對這種細微差別的學習,達到分辨載體圖像和隱密圖像的目的。本發(fā)明方法主要對抗的是圖像頻率域隱寫算法,圖像頻率域隱寫是通過對圖像進行離散余弦變換(DCT)得到其系數,在其系數上實現秘密信息的隱藏。

進一步的實施例中,步驟S300具體包括:

步驟S301、預先獲取用于預訓練的隱密圖像與載體圖像數據,對隱秘圖像標記為0,載體圖像標記為1;

步驟S302、依次連接生成余量圖像的CNN子模型、N個組合CNN模型與CNN分類模型得到整合CNN模型;

步驟S303、根據預訓練的隱密圖像與載體圖像數據對整合CNN模型訓練后生成最終CNN模型;

步驟S304、將待測圖像作為最終CNN模型的輸入,若最終CNN模型輸出為0,則判定待測圖像為隱密圖像,若為1則判定待測圖像為未經隱密的載體圖像,并輸出檢測結果。

具體實施時,步驟S301中準備一定數量用于預訓練的隱密圖像與載體圖像數據,其中圖像數據為JPEG格式的圖像。對隱秘圖像標記為0,載體圖像標記為1。

步驟S302中依次連接生成余量圖像的CNN子模型、64個組合CNN模型與CNN分類模型得到整合CNN模型,其中CNN分類模型是由若干個全連接層和正則化層構成的輸入為64個組合CNN模型的輸出、輸出為0和1標識的CNN模型。

步驟S303中使用訓練數據對最終隱寫分析CNN模型進行訓練,生成最終的CNN模型。

步驟S304中用待測圖像作為最終隱寫分析CNN模型的輸入,若最終隱寫分析CNN模型輸出為0則判定待測圖像為經過隱密的圖像,若為1則判定待測圖像為未經隱密的載體圖像,并輸出檢測結果。

圖3中給出了模型整合訓練分類階段得到的最終用于隱寫分析的CNN模型。其中Q&T Layer為卷積神經網絡中對應量化和截斷操作層,具體地,對獲取經過解壓縮的待測JPEG圖像,其中待測JPGE圖像為隱密圖像或未經隱密的載體圖像,經過對應生成64個DCT余量圖像的卷積操作層處理后輸出到對應量化和截斷操作層,通過對應量化和截斷操作層進行量化和截斷操作后,再經過預訓練得到64個子模型處理后,經過整合子模型操作層進行處理后,輸出到卷積神經網絡全連接操作層,全連接操作層輸出檢測結果,最后對應的輸出0和1,若輸出為0則判定待測圖像為經過隱密的圖像,若為1則判定待測圖像為未經隱密的載體圖像,并輸出檢測結果。

在實驗中我們對預訓練網絡的輸出與DCTR子模型特征進行了對比,結果如圖4所示。圖4擬合DCTR特征效果柱狀圖中,白色柱形為本發(fā)明方法的預訓練網絡輸出,黑色柱形為對應的DCTR子模型特征,兩者之間幾乎一致。說明預訓練網絡很好地擬合了DCTR子模型特征的輸出。

從結果可以看出,本發(fā)明方法能夠得到與數字圖像隱寫分析富模型的輸出幾乎一致的深度學習模型,通過對模型進行預訓練,使得該深度學習模型能夠具有類似數字圖像隱寫分析富模型提取特征的能力。并由深度學習在大數據下的優(yōu)勢,獲得比數字圖像隱寫分析富模型特征和集成分類器組合使用更準確的區(qū)分隱密圖像和載體圖像能力。

在進一步的實施例中,可以通過改變模型設計階段的對象,如對擬合SRM富模型卷積神經網絡的設計,獲得具有更豐富特征信息的卷積神經網絡,以適應空域圖像、頻率域圖像等各種應用場景。

由以上實施例可知,本發(fā)明提供了一種基于深度學習模型的隱寫圖像檢測方法,通過深度學習預訓練上述隱寫分析算法的特征提取階段,得到能夠對應上述隱寫算法各個步驟功能的卷積神經網絡,通過整合這些預訓練得到的卷積神經網絡,通過訓練使最終的卷積神經網絡具有分類載體圖像與隱密圖像的能力。本發(fā)明方法通過一個卷積神經網絡完成了特征提取與特征分類的過程,同時提高了分類性能,比現有方法更為高效可靠。

本發(fā)明還提供了一種基于深度學習模型的隱寫圖像檢測系統(tǒng)的較佳實施例的功能原理框圖,如圖5所示,系統(tǒng)包括:

初始模型設計模塊100,用于預先設置擬合分析數字圖像隱寫富模型特征的初始深度學習模型;具體如方法實施例所示。

預訓練模塊200,用于選取有監(jiān)督的預訓練算法對初始深度學習模型進行預訓練后得到預訓練深度學習模型;具體如方法實施例所示。

訓練與檢測模塊300,用于整合預訓練深度學習模型和深度分類網絡生成整合深度學習模型,根據預先獲取的訓練數據集對整合深度學習模型進行訓練后生成最終深度學習模型,根據最終深度學習模型對隱寫圖像進行檢測,輸出檢測結果;具體如方法實施例所示。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述系深度學習模型為深度卷積神經網絡CNN;具體如方法實施例所示。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述初始模型設計模塊具體包括:

余量子模型生成單元,用于預先根據DCTR生成余量圖像的子模型,設計DCTR模型的N個DCT卷積核的CNN的卷積層,生成余量CNN子模型,其中N為自然數;具體如方法實施例所示。

量化截斷操作CNN子模型生成單元,用于根據DCTR量化和截斷操作的子模型,設計能對輸入進行給定步長量化操作和給定閾值截斷操作的CNN層,生成量化截斷操作CNN子模型;具體如方法實施例所示。

一階統(tǒng)計量獲取與整合CNN子模型生成單元,用于根據DCTR一階統(tǒng)計量獲取與整合的子模型,通過若干個卷積層、正則化層和池化層的組合CNN模型,生成一階統(tǒng)計量獲取與整合CNN子模型;具體如方法實施例所示。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述預訓練模塊具體包括:

余量圖像生成單元,用于預先獲取預定數量的隱密圖像與載體圖像對,根據DCTR富模型中的N個DCT卷積核對隱密圖像與載體圖像中的一幅圖像進行卷積后生成N幅余量圖像,并根據對應余量圖像的DCTR富模型對應DCT卷積核特征作為標識;具體如方法實施例所示。

組合CNN模型生成單元,用于依次連接量化截斷操作CNN子模型和一階統(tǒng)計量獲取與整合CNN子模型組成組合CNN模型;具體如方法實施例所示。

預訓練單元,用于利用歐式距離作為誤差方程,使用預先獲取預定數量的隱密圖像與載體圖像對來對組合CNN模型進行預訓練后生成預訓練CNN模型;具體如方法實施例所示。

所述的基于深度學習模型的隱寫圖像檢測系統(tǒng),其中,所述訓練與檢測模塊具體包括:

圖像標記單元,用于預先獲取用于預訓練的隱密圖像與載體圖像數據,對隱秘圖像標記為0,載體圖像標記為1;具體如方法實施例所示。

整合CNN模型生成單元,用于依次連接生成余量圖像的CNN子模型、N個組合CNN模型與CNN分類模型得到整合CNN模型;具體如方法實施例所示。

模型訓練單元,用于根據預訓練的隱密圖像與載體圖像數據對整合CNN模型訓練后生成最終CNN模型;具體如方法實施例所示。

檢測單元,用于將待測圖像作為最終CNN模型的輸入,若最終CNN模型輸出為0,則判定待測圖像為隱密圖像,若為1則判定待測圖像為未經隱密的載體圖像,并輸出檢測結果;具體如方法實施例所示。

綜上所述,本發(fā)明提供了一種基于深度學習模型的隱寫圖像檢測方法及系統(tǒng),方法包括:預先設置擬合分析數字圖像隱寫富模型特征的初始深度學習模型;選取有監(jiān)督的預訓練算法對初始深度學習模型進行預訓練后得到預訓練深度學習模型;整合預訓練深度學習模型和深度分類網絡生成整合深度學習模型,根據預先獲取的訓練數據集對整合深度學習模型進行訓練后生成最終深度學習模型,根據最終深度學習模型對隱寫圖像進行檢測,輸出檢測結果。本發(fā)明可以準確的區(qū)分隱密圖像和載體圖像能力,而且數據計算維度低,計算量小,提高了隱寫圖像檢測速度。

應當理解的是,本發(fā)明的應用不限于上述的舉例,對本領域普通技術人員來說,可以根據上述說明加以改進或變換,所有這些改進和變換都應屬于本發(fā)明所附權利要求的保護范圍。

當前第1頁1 2 3 
網友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1