技術(shù)總結(jié)
本發(fā)明中提出的一種基于生成對抗網(wǎng)絡(luò)的視覺顯著性預(yù)測方法,其主要內(nèi)容包括:基于兩個深層卷積神經(jīng)網(wǎng)絡(luò)(DCNN)模塊的顯著生成對抗網(wǎng)絡(luò)(SalGAN)架構(gòu)和訓(xùn)練,其過程為,基于兩個深層卷積神經(jīng)網(wǎng)絡(luò)(DCNN)模塊的顯著生成對抗網(wǎng)絡(luò)(SalGAN)架構(gòu),包括發(fā)生器和鑒別器,其組合旨在預(yù)測給定輸入圖像的視覺顯著圖;SalGAN中的過濾器權(quán)重通過將內(nèi)容損失和對抗性損失組合而導(dǎo)致的感知損失進行訓(xùn)練。本發(fā)明中的損失函數(shù)是來自鑒別器的誤差和相對于標定好的真實數(shù)據(jù)的交叉熵的組合,提高了對抗訓(xùn)練的穩(wěn)定性和收斂率;與之前單獨的交叉熵的進一步訓(xùn)練相比,對抗訓(xùn)練改善了其性能,使其更加快速高效。
技術(shù)研發(fā)人員:夏春秋
受保護的技術(shù)使用者:深圳市唯特視科技有限公司
文檔號碼:201710090470
技術(shù)研發(fā)日:2017.02.20
技術(shù)公布日:2017.06.13