亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種網(wǎng)絡(luò)暴力視頻的識別方法

文檔序號:6402293閱讀:487來源:國知局
專利名稱:一種網(wǎng)絡(luò)暴力視頻的識別方法
技術(shù)領(lǐng)域
本發(fā)明涉及模式識別和計算機網(wǎng)絡(luò)內(nèi)容安全領(lǐng)域,特別涉及視頻分類問題。
背景技術(shù)
隨著互聯(lián)網(wǎng)技術(shù)和應(yīng)用的迅速發(fā)展,人們對互聯(lián)網(wǎng)的認識和使用已越來越深入,通過互聯(lián)網(wǎng)人們可以獲得豐富的信息與知識,可以便捷地交流,并享受到多樣的娛樂活動。然而互聯(lián)網(wǎng)是開放性的,它承載的海量信息也必然含有不良影響的,如色情、暴力、恐怖等有害信息也隨著互聯(lián)網(wǎng)廣 泛傳播。而未成年人群體的生理與心理都處在成長階段,容易受到外界的不良影響,有些甚至走上了犯罪道路并由此引發(fā)了很多社會問題,比如流行的古惑仔電影,導(dǎo)致不少的青少年走上了錯誤的道路。視頻網(wǎng)站如雨后春筍般出現(xiàn),網(wǎng)絡(luò)視頻用戶增幅明顯,是中國網(wǎng)民繼即時通信、搜索、音樂、新聞之后的第五大應(yīng)用。網(wǎng)絡(luò)視頻已經(jīng)成為網(wǎng)民娛樂的主要方式之一,也成為不良信息的重要傳播途徑。網(wǎng)絡(luò)暴力視頻識別過濾具有重要的意義。網(wǎng)絡(luò)上的暴力視頻信息嚴重危害青少年的身心健康,還會引發(fā)青少年犯罪。因此,有效地對互聯(lián)網(wǎng)中的暴力視頻信息進行過濾,對于保護青少年的健康成長,降低青少年犯罪,維護社會穩(wěn)定,都具有重要的實際意義。目前暴力視頻的識別方法主要基于視頻信息與音頻信息,使用單一模態(tài)或雙模態(tài)特征。Datta等利用加速運動矢量來檢測電影中打斗的暴力場景。Giannakopoulos等中提出了基于頻域和時域的七種不同音頻特征的視頻分類方法。Nam等在檢測時不但使用音頻特征而且結(jié)合了視頻特征來檢測暴力場景中的典型的火焰、血液發(fā)生的等圖像與聲音。Smeaton等同樣把視頻與音頻特征相結(jié)合來檢測動作片中的暴力場景。這些暴力視頻識別方法的研究對象多是一部電影或幾部電影的視頻片段,數(shù)據(jù)量較小,而針對網(wǎng)絡(luò)海量的視頻數(shù)據(jù),這些方法的性能與處理速度都不同程度的下降。本方法引入文本信息,同時利用文本、視頻、音頻三種模態(tài)的信息,對網(wǎng)絡(luò)海量的視頻數(shù)據(jù)的處理具有不錯的性能和速度。

發(fā)明內(nèi)容
有鑒于此,本發(fā)明的主要目的是提供一種自動的暴力視頻識別的方法。為達到上述目的,本發(fā)明提供了一種有效的暴力視頻識別的方法,該方法包括:步驟1:從視頻共享網(wǎng)站上抓取暴力視頻與非暴力視頻及其評論、簡介構(gòu)建一個視頻數(shù)據(jù)訓(xùn)練集;步驟2:從訓(xùn)練集的文本信息中提取文本特征組成文本特征向量來訓(xùn)練文本預(yù)分類器,該預(yù)分類器篩選出候選的暴力視頻;步驟3:采用基于自適應(yīng)雙閾值的鏡頭分割算法對所述候選的暴力視頻的視頻片段進行分割,對每一個鏡頭提取相關(guān)的視覺特征、音頻特征來表示該鏡頭,每一個鏡頭是多示例學(xué)習(xí)的一個示例,視頻片段是一個包,該包映射到示例空間;步驟4:使用MILES算法將所述包轉(zhuǎn)化為單示例,包由單示例的特征向量表達,采用該特征向量訓(xùn)練分類器模型,采用該分類器模型對候選暴力視頻進行分類。優(yōu)選地,將視頻與簡介、評論這樣的文本信息同時作為一個視頻樣本的組成部分。優(yōu)選地,將視頻分類問題轉(zhuǎn)化為多示例問題,鏡頭對應(yīng)于示例,視頻片段對應(yīng)于包。優(yōu)選地,使用改進的MILES算法進行示例選擇,使多示例問題轉(zhuǎn)換為單示例監(jiān)督學(xué)習(xí)問題。優(yōu)選地,改進的MILES算法,是將每一個包只選擇與正包相似度最高的示例,即選擇包中最有用的示例來表達該包。利用本發(fā)明的方案,從三個方面來提取視頻的特征:文本特征、視覺特征、音頻特征,三模態(tài)特征較為完整的描述了視頻場景的語義內(nèi)容,我們首次將三個模態(tài)特征融合在一起來識別網(wǎng)絡(luò)暴力視頻。通過觀察所收集的暴力視頻和非暴力視頻發(fā)現(xiàn):暴力視頻片段中至少包含一個暴力視頻鏡頭;非暴力視頻片段不包含暴力視頻鏡頭,因此本發(fā)明將視頻鏡頭作為示例,視頻片段當(dāng)做示例包,這樣我們把暴力視頻識別問題轉(zhuǎn)化為多示例學(xué)習(xí)問題。本發(fā)明使用改進的MILES算法將包轉(zhuǎn)化為單示例,降低了示例空間的維度和空間復(fù)雜度。


圖1為本發(fā)明的網(wǎng)絡(luò)暴力視頻的識別方法流程圖。
具體實施例方式為使本發(fā)明的目的、技術(shù)方案和優(yōu)點更加清楚明白,以下結(jié)合具體實施例,并參照附圖,對本發(fā)明進一步詳細說明。本發(fā)明提出了一種網(wǎng)絡(luò)暴力視頻的識別方法。在該方法中,收集視頻共享網(wǎng)站中的暴力和非暴力視頻及其簡介、評論作為樣本,建立視頻訓(xùn)練集,從該訓(xùn)練集的文本信息中提取訓(xùn)練集視頻相關(guān)的文 本特征,從而利用文本特征向量訓(xùn)練預(yù)分類器模型,采用該預(yù)分類器對新視頻樣本進行分類得到候選暴力視頻,將訓(xùn)練集中的視頻片段進行鏡頭分割,提取鏡頭的視頻、音頻等底層特征組成特征向量來表示鏡頭,把鏡頭看作示例,把視頻片段映射到示例空間,視頻識別問題就成為多示例問題,使用改進的MILES算法將包轉(zhuǎn)化為單示例,包由單示例的特征向量來表達,采用該特征向量來訓(xùn)練分類器模型,采用該分類器模型對候選暴力視頻進行分類。該方法的關(guān)鍵步驟是:1)鏡頭分割,對訓(xùn)練集中的視頻進行鏡頭分割得到一組鏡頭;2)特征提取,對訓(xùn)練集中的文本信息提取文本特征;對視頻鏡頭提取視覺、音頻特征,將視頻片段映射到示例空間,使用改進的MILES算法將包轉(zhuǎn)化為單示例,包由單示例的特征向量來表達;3)模型訓(xùn)練及分類,利用文本特征向量對文本預(yù)分類器模型進行訓(xùn)練,分類后得到候選暴力視頻。利用表達視頻片段的視覺、音頻特征向量對分類器模型進行訓(xùn)練,對候選暴力視頻進行分類。圖1是本發(fā)明網(wǎng)絡(luò)暴力視頻的識別方法的詳細流程圖。參照圖1,該方法包括以下各步驟:步驟101:收集視頻共享網(wǎng)站中的暴力視頻與非暴力視頻及其簡介、評論,建立網(wǎng)絡(luò)視頻訓(xùn)練集。此步驟盡可能多地收集各種類型的暴力視頻和非暴力視頻。步驟102:對該網(wǎng)絡(luò)視頻訓(xùn)練集的文本信息進行預(yù)處理后,以互信息(MutualInformation,簡稱Ml)作為文本特征,互信息特征的公式如下:
一個詞條t對類別c的MI值的計算公式如下:
權(quán)利要求
1.一種基于多示例多特征的網(wǎng)絡(luò)暴力視頻識別方法,該方法包括: 步驟1:從視頻共享網(wǎng)站上抓取暴力視頻與非暴力視頻及其評論、簡介構(gòu)建一個視頻數(shù)據(jù)訓(xùn)練集; 步驟2:從訓(xùn)練集的文本信息中提取文本特征組成文本特征向量來訓(xùn)練文本預(yù)分類器,該預(yù)分類器篩選出候選的暴力視頻; 步驟3:采用基于自適應(yīng)雙閾值的鏡頭分割算法對所述候選的暴力視頻的視頻片段進行分割,對每一個鏡頭提取相關(guān)的視覺特征、音頻特征來表示該鏡頭,每一個鏡頭是多示例學(xué)習(xí)的一個示例,視頻片段是一個包,該包映射到示例空間; 步驟4:使用MILES算法將所述包轉(zhuǎn)化為單示例,包由單示例的特征向量表達,采用該特征向量訓(xùn)練分類器模型,采用該分類器模型對候選暴力視頻進行分類。
2.根據(jù)權(quán)利要求1所述的方法,其特征在于,在步驟I中,將視頻與簡介、評論這樣的文本信息同時作為一個視頻樣本的組成部分。
3.根據(jù)權(quán)利要求1所述的方法,其特征在于,將視頻分類問題轉(zhuǎn)化為多示例問題,鏡頭對應(yīng)于示例,視頻片段對應(yīng)于包。
4.根據(jù)權(quán)利要求1所述的方法,其特征在于,使用改進的MILES算法進行示例選擇,使多示例問題轉(zhuǎn)換為單示例監(jiān)督學(xué)習(xí)問題。
5.根據(jù)權(quán)利要求5所述的 方法,其特征在于,所述改進的MILES算法,是將每一個包只選擇與正包相似度最高的示例,即選擇包中最有用的示例來表達該包。
全文摘要
本發(fā)明公開了一種基于多示例多特征的網(wǎng)絡(luò)暴力視頻識別方法,包括從視頻共享網(wǎng)站上抓取暴力視頻與非暴力視頻及其評論、簡介構(gòu)建一個視頻數(shù)據(jù)訓(xùn)練集;從訓(xùn)練集的文本信息中提取文本特征組成文本特征向量來訓(xùn)練文本預(yù)分類器,該預(yù)分類器篩選出候選的暴力視頻;采用基于自適應(yīng)雙閾值的鏡頭分割算法對所述候選的暴力視頻的視頻片段進行分割,對每一個鏡頭提取相關(guān)的視覺特征、音頻特征來表示該鏡頭,每一個鏡頭是多示例學(xué)習(xí)的一個示例,視頻片段是一個包;使用MILES算法將所述包轉(zhuǎn)化為單示例,采用該特征向量訓(xùn)練分類器模型,采用該分類器模型對候選暴力視頻進行分類。利用本發(fā)明,大大減輕了網(wǎng)絡(luò)暴力視頻不受限制傳播的不良影響。
文檔編號G06K9/00GK103218608SQ20131013955
公開日2013年7月24日 申請日期2013年4月19日 優(yōu)先權(quán)日2013年4月19日
發(fā)明者胡衛(wèi)明, 鄒星宇, 吳偶 申請人:中國科學(xué)院自動化研究所
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1