技術(shù)編號(hào):6547618
提示:您尚未登錄,請(qǐng)點(diǎn) 登 陸 后下載,如果您還沒有賬戶請(qǐng)點(diǎn) 注 冊(cè) ,登陸完成后,請(qǐng)刷新本頁查看技術(shù)詳細(xì)信息。本發(fā)明公開了,該方法包括根據(jù)數(shù)據(jù)集規(guī)模與圖像內(nèi)容設(shè)計(jì)卷積神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu);使用給定分類數(shù)據(jù)集對(duì)卷積神經(jīng)網(wǎng)絡(luò)模型進(jìn)行訓(xùn)練;使用訓(xùn)練后的卷積神經(jīng)網(wǎng)絡(luò)對(duì)訓(xùn)練集圖像提取特征表達(dá);將測試圖像輸入訓(xùn)練后的卷積神經(jīng)網(wǎng)絡(luò),并進(jìn)行分類。本發(fā)明方法基于非線性卷積特征學(xué)習(xí),可以以數(shù)據(jù)驅(qū)動(dòng)的方式實(shí)現(xiàn)模型對(duì)數(shù)據(jù)集的自適應(yīng),從而更好的描述特定的數(shù)據(jù)集,通過任務(wù)驅(qū)動(dòng)的方式直接對(duì)K近鄰的誤差進(jìn)行優(yōu)化,使其能夠在K近鄰任務(wù)上取得更好的性能;并且在訓(xùn)練階段可以采用GPU進(jìn)行高效訓(xùn)練,在測試階段只...
注意:該技術(shù)已申請(qǐng)專利,請(qǐng)尊重研發(fā)人員的辛勤研發(fā)付出,在未取得專利權(quán)人授權(quán)前,僅供技術(shù)研究參考不得用于商業(yè)用途。
該專利適合技術(shù)人員進(jìn)行技術(shù)研發(fā)參考以及查看自身技術(shù)是否侵權(quán),增加技術(shù)思路,做技術(shù)知識(shí)儲(chǔ)備,不適合論文引用。
請(qǐng)注意,此類技術(shù)沒有源代碼,用于學(xué)習(xí)研究技術(shù)思路。