本發(fā)明涉及增強(qiáng)現(xiàn)實(shí)領(lǐng)域,特別涉及一種分離介質(zhì)下顯示彈幕與視頻的方法及其系統(tǒng)。
背景技術(shù):
:彈幕(barrage),中文流行詞語(yǔ),原意指用大量或少量火炮提供密集炮擊,本發(fā)明所述彈幕是指大量以字幕彈出形式顯示的評(píng)論同時(shí)在屏幕上飄過(guò)的現(xiàn)象。彈幕可以給觀眾一種“實(shí)時(shí)互動(dòng)”的錯(cuò)覺(jué),雖然不同彈幕的發(fā)送時(shí)間有所區(qū)別,但是其只會(huì)在視頻中特定的一個(gè)時(shí)間點(diǎn)出現(xiàn),因此在相同時(shí)刻發(fā)送的彈幕基本上也具有相同的主題,在參與評(píng)論時(shí)就會(huì)有與其他觀眾同時(shí)評(píng)論的錯(cuò)覺(jué)。而傳統(tǒng)的播放器評(píng)論系統(tǒng)是獨(dú)立于播放器之外的,因此評(píng)論的內(nèi)容大多圍繞在整個(gè)視頻上,話題性不強(qiáng),也沒(méi)有“實(shí)時(shí)互動(dòng)”的感覺(jué)。但是彈幕也有遮擋視頻內(nèi)容的弊病,一些不合時(shí)宜的彈幕也會(huì)降低觀眾對(duì)于視頻的注意力。原本作為評(píng)論發(fā)送目標(biāo)的視頻反而成了配角,本末倒置。例如彈幕覆蓋了播放畫(huà)面的大半部分、彈幕信息移動(dòng)速度過(guò)快以及在屏幕小的終端上無(wú)法觀看,這些彈幕現(xiàn)象都會(huì)影響到觀看者的觀看體驗(yàn)。技術(shù)實(shí)現(xiàn)要素:發(fā)明目的:針對(duì)上述情況,為了克服
背景技術(shù):
中的缺點(diǎn),本發(fā)明實(shí)施例提供了一種分離介質(zhì)下顯示彈幕與視頻的方法及其系統(tǒng),能夠有效的解決上述
背景技術(shù):
中涉及的問(wèn)題。技術(shù)方案:一種分離介質(zhì)下顯示彈幕與視頻的系統(tǒng),包括用于顯示彈幕信息的終端以及AR眼鏡,所述終端包括:視頻幀獲取模塊,用于在檢測(cè)到視頻與位于視頻上圖層的彈幕信息同步顯示時(shí),獲取視頻對(duì)應(yīng)的視頻幀;視頻幀傳輸模塊,用于將視頻幀傳輸至與終端建立無(wú)線數(shù)據(jù)通信的AR眼鏡;所述AR眼鏡包括:解碼模塊,用于對(duì)接收到的視頻幀進(jìn)行解碼;現(xiàn)實(shí)影像攝取模塊,用于啟用第一攝像頭攝取現(xiàn)實(shí)影像;現(xiàn)實(shí)影像判斷模塊,用于判斷現(xiàn)實(shí)影像中是否存在播放與視頻幀對(duì)應(yīng)視頻內(nèi)容的終端畫(huà)面;虛擬畫(huà)面投射模塊,用于現(xiàn)實(shí)影像中存在播放與視頻幀對(duì)應(yīng)視頻內(nèi)容的終端畫(huà)面時(shí),將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,所述終端還包括時(shí)間點(diǎn)獲取模塊,用于獲取當(dāng)前顯示視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn);時(shí)間點(diǎn)傳輸模塊,用于將將當(dāng)前顯示視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn)傳輸至所述AR眼鏡,其中,每個(gè)視頻幀對(duì)應(yīng)一播放時(shí)間點(diǎn);所述虛擬畫(huà)面投射模塊還包括:視頻幀查找模塊,用于根據(jù)接收到的播放時(shí)間點(diǎn)找出與其對(duì)應(yīng)的視頻幀,解碼子模塊,用于從該視頻幀所處位置開(kāi)始,將其以及后續(xù)的視頻幀進(jìn)行解碼;虛擬畫(huà)面投射子模塊,用于將該視頻幀所處位置開(kāi)始以及后續(xù)的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,所述終端還包括聲音信號(hào)傳輸模塊,用于將視頻幀對(duì)應(yīng)的聲音信號(hào)傳輸給所述AR眼鏡;所述AR眼鏡還包括聲音信號(hào)播放模塊,用于在顯示作為虛擬畫(huà)面的視頻幀的同時(shí),利用揚(yáng)聲器對(duì)與視頻幀對(duì)應(yīng)的聲音信號(hào)進(jìn)行同步播放,并回傳聲音播放信號(hào)給所述終端;所述終端還包括媒體音量控制模塊,用于根據(jù)聲音播放信號(hào)關(guān)閉或減小媒體音量。作為本發(fā)明的一種優(yōu)選方式,所述AR眼鏡還包括:眼部影像攝取模塊,用于啟用第二攝像頭攝取攜帶有用戶(hù)眼部的影像;眨眼檢測(cè)模塊,用于對(duì)用戶(hù)眼部進(jìn)行眨眼檢測(cè),并在檢測(cè)到眨眼時(shí)判斷眨眼頻率是否達(dá)到預(yù)設(shè)頻率。作為本發(fā)明的一種優(yōu)選方式,所述終端還包括彈幕信息判斷模塊,用于判斷位于視頻上圖層的彈幕信息的移動(dòng)速度是否超出預(yù)設(shè)速度和∕或判斷彈幕信息在屏幕的占據(jù)面積是否超出預(yù)設(shè)面積。一種分離介質(zhì)下顯示彈幕與視頻的方法,使用權(quán)利要求6所述的顯示系統(tǒng),所述方法包括以下步驟:Step1、用于顯示彈幕信息的終端在檢測(cè)到視頻與位于視頻上圖層的彈幕信息同步顯示時(shí),獲取視頻對(duì)應(yīng)的視頻幀,并將視頻幀傳輸至與終端建立無(wú)線數(shù)據(jù)通信的AR眼鏡;Step2、所述AR眼鏡對(duì)接收到的視頻幀進(jìn)行解碼,啟用第一攝像頭攝取現(xiàn)實(shí)影像,判斷現(xiàn)實(shí)影像中是否存在播放與視頻幀對(duì)應(yīng)視頻內(nèi)容的終端畫(huà)面,若存在,則將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,在所述AR眼鏡對(duì)接收到的視頻幀進(jìn)行解碼之前,還包括:所述終端獲取當(dāng)前顯示視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn)并將其傳輸至所述AR眼鏡,其中,每個(gè)視頻幀對(duì)應(yīng)一播放時(shí)間點(diǎn);將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示,包括:所述終端根據(jù)接收到的播放時(shí)間點(diǎn)找出與其對(duì)應(yīng)的視頻幀,并從該視頻幀所處位置開(kāi)始,將其以及后續(xù)的視頻幀進(jìn)行解碼,并作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,所述的一種分離介質(zhì)下顯示彈幕與視頻的方法,還包括:所述終端將視頻幀對(duì)應(yīng)的聲音信號(hào)傳輸給所述AR眼鏡;所述AR眼鏡在顯示作為虛擬畫(huà)面的視頻幀的同時(shí),利用揚(yáng)聲器對(duì)與視頻幀對(duì)應(yīng)的聲音信號(hào)進(jìn)行同步播放,并回傳聲音播放信號(hào)給所述終端;所述終端根據(jù)聲音播放信號(hào)關(guān)閉或減小媒體音量。作為本發(fā)明的一種優(yōu)選方式,所述的一種分離介質(zhì)下顯示彈幕與視頻的方法,在將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示之前,還包括:所述AR眼鏡啟用第二攝像頭攝取攜帶有用戶(hù)眼部的影像;對(duì)用戶(hù)眼部進(jìn)行眨眼檢測(cè),并在檢測(cè)到眨眼時(shí)判斷眨眼頻率是否達(dá)到預(yù)設(shè)頻率;若達(dá)到,則繼續(xù)執(zhí)行步驟,否則將結(jié)束流程。作為本發(fā)明的一種優(yōu)選方式,所述的一種分離介質(zhì)下顯示彈幕與視頻的方法,在將視頻幀傳輸至與終端建立無(wú)線數(shù)據(jù)通信的AR眼鏡之前,還包括:所述終端判斷位于視頻上圖層的彈幕信息的移動(dòng)速度是否超出預(yù)設(shè)速度和∕或判斷彈幕信息在屏幕的占據(jù)面積是否超出預(yù)設(shè)面積;若超出,則繼續(xù)執(zhí)行步驟,否則將結(jié)束流程。本發(fā)明實(shí)現(xiàn)以下有益效果:通過(guò)所述終端的視頻幀獲取模塊,獲取視頻播放時(shí)對(duì)應(yīng)的視頻幀,然后將獲取的視頻幀信息發(fā)送給與終端建立無(wú)線數(shù)據(jù)通信的AR眼鏡,由AR眼鏡對(duì)接收到的視頻幀進(jìn)行解碼后的虛擬顯示。由此看出本發(fā)明避免了彈幕信息在視頻畫(huà)面上移動(dòng)速度過(guò)快、占據(jù)面積較大以及無(wú)法在屏幕小的顯示終端上觀看清楚的情況,從而減少了彈幕信息對(duì)觀看者的不良觀看影響。附圖說(shuō)明此處的附圖被并入說(shuō)明書(shū)中并構(gòu)成本說(shuō)明書(shū)的一部分,示出了符合本公開(kāi)的實(shí)施例,并于說(shuō)明書(shū)一起用于解釋本公開(kāi)的原理。圖1為本發(fā)明提供的一種分離介質(zhì)下顯示彈幕與視頻的系統(tǒng)結(jié)構(gòu)示意圖;圖2為本發(fā)明提供的一種分離介質(zhì)下顯示彈幕與視頻的方法流程示意圖。具體實(shí)施方式下面將結(jié)合本發(fā)明實(shí)施例中的附圖,對(duì)本發(fā)明實(shí)施例中的技術(shù)方案進(jìn)行清楚、完整地描述,顯然,所描述的實(shí)施例僅僅是本發(fā)明一部分實(shí)施例,而不是全部的實(shí)施例。實(shí)施例一請(qǐng)參考圖1,圖1為本發(fā)明提供的一種分離介質(zhì)下顯示彈幕與視頻的系統(tǒng)結(jié)構(gòu)示意圖。具體的,本實(shí)施例提供一種分離介質(zhì)下顯示彈幕與視頻的系統(tǒng),包括用于顯示彈幕信息的終端1以及AR眼鏡2,所述終端1包括:視頻幀獲取模塊3,用于在檢測(cè)到視頻與位于視頻上圖層的彈幕信息同步顯示時(shí),獲取視頻對(duì)應(yīng)的視頻幀;視頻幀傳輸模塊4,用于將視頻幀傳輸至與終端1建立無(wú)線數(shù)據(jù)通信的AR眼鏡2;所述AR眼鏡2包括:解碼模塊5,用于對(duì)接收到的視頻幀進(jìn)行解碼;現(xiàn)實(shí)影像攝取模塊6,用于啟用第一攝像頭攝取現(xiàn)實(shí)影像;現(xiàn)實(shí)影像判斷模塊7,用于判斷現(xiàn)實(shí)影像中是否存在播放與視頻幀對(duì)應(yīng)視頻內(nèi)容的終端畫(huà)面;虛擬畫(huà)面投射模塊8,用于現(xiàn)實(shí)影像中存在播放與視頻幀對(duì)應(yīng)視頻內(nèi)容的終端畫(huà)面時(shí),將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,所述終端還包括時(shí)間點(diǎn)獲取模塊9,用于獲取當(dāng)前顯示視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn);時(shí)間點(diǎn)傳輸模塊10,用于將將當(dāng)前顯示視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn)傳輸至所述AR眼鏡2,其中,每個(gè)視頻幀對(duì)應(yīng)一播放時(shí)間點(diǎn);所述虛擬畫(huà)面投射模塊還包括:視頻幀查找模塊11,用于根據(jù)接收到的播放時(shí)間點(diǎn)找出與其對(duì)應(yīng)的視頻幀;解碼子模塊12,用于從該視頻幀所處位置開(kāi)始,將其以及后續(xù)的視頻幀進(jìn)行解碼;虛擬畫(huà)面投射子模塊13,用于將該視頻幀所處位置開(kāi)始以及后續(xù)的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,所述終端還包括聲音信號(hào)傳輸模塊14,用于將視頻幀對(duì)應(yīng)的聲音信號(hào)傳輸給所述AR眼鏡2;所述AR眼鏡2還包括聲音信號(hào)播放模塊15,用于在顯示作為虛擬畫(huà)面的視頻幀的同時(shí),利用揚(yáng)聲器對(duì)與視頻幀對(duì)應(yīng)的聲音信號(hào)進(jìn)行同步播放,并回傳聲音播放信號(hào)給所述終端;所述終端還包括媒體音量控制模塊16,用于根據(jù)聲音播放信號(hào)關(guān)閉或減小媒體音量。作為本發(fā)明的一種優(yōu)選方式,所述AR眼鏡2還包括:眼部影像攝取模塊17,用于啟用第二攝像頭攝取攜帶有用戶(hù)眼部的影像;眨眼檢測(cè)模塊18,用于對(duì)用戶(hù)眼部進(jìn)行眨眼檢測(cè),并在檢測(cè)到眨眼時(shí)判斷眨眼頻率是否達(dá)到預(yù)設(shè)頻率。作為本發(fā)明的一種優(yōu)選方式,所述終端還包括彈幕信息判斷模塊19,用于判斷位于視頻上圖層的彈幕信息的移動(dòng)速度是否超出預(yù)設(shè)速度和∕或判斷彈幕信息在屏幕的占據(jù)面積是否超出預(yù)設(shè)面積。具體的,首先在用戶(hù)使用所述終端1進(jìn)行視頻觀看時(shí),所述終端1的包括的彈幕信息判斷模塊19,對(duì)于終端1顯示視頻上圖層的彈幕信息進(jìn)行實(shí)時(shí)的監(jiān)控判斷,當(dāng)彈幕信息的移動(dòng)速度或者在屏幕上占據(jù)的面積超出預(yù)設(shè)值時(shí),將視頻與彈幕信息使用AR眼鏡2進(jìn)行虛擬顯示。在實(shí)際的實(shí)施過(guò)程中,對(duì)于彈幕信息或者在屏幕中占據(jù)的面積判斷可以通過(guò)依據(jù)單位時(shí)間內(nèi)包含彈幕信息的視頻幀數(shù)量進(jìn)行判斷,例如,設(shè)定1秒鐘內(nèi)的視頻幀數(shù)不得超過(guò)20個(gè),超過(guò)20個(gè)就認(rèn)為終端1在進(jìn)行彈幕顯示時(shí),彈幕的移動(dòng)速度或者占據(jù)面積就超過(guò)了預(yù)設(shè)值。進(jìn)一步的,當(dāng)彈幕信息判斷模塊19在判斷彈幕信息的移動(dòng)速度或者占據(jù)面積超出預(yù)設(shè)值時(shí),所述終端1包括的視頻幀獲取模塊3,檢測(cè)到視頻與位于視頻上圖層的彈幕信息后,獲取對(duì)應(yīng)的視頻幀,并通過(guò)視頻幀傳輸模塊4將其發(fā)送至與終端1建立無(wú)線數(shù)據(jù)源通信的AR眼鏡2。值得提出的是,本實(shí)施例中,視頻幀獲取模塊3,依據(jù)彈幕信息判斷模塊19的判斷信息進(jìn)行對(duì)相應(yīng)的視頻幀獲取。即對(duì)超出預(yù)設(shè)彈幕移動(dòng)速度或占據(jù)面積的時(shí)間范圍進(jìn)行檢測(cè),其他不超出部分不進(jìn)行相應(yīng)的檢測(cè)及獲取,以減少工作量。例如,彈幕信息判斷模塊19,判斷52秒至57秒內(nèi)的彈幕信息占據(jù)屏幕面積超出預(yù)設(shè)值,則視頻幀獲取模塊就會(huì)檢測(cè)及獲取該播放時(shí)間內(nèi)的視頻幀。進(jìn)一步的,所述終端1還包括,時(shí)間點(diǎn)獲取模塊9及聲音信號(hào)傳輸模塊14,分別用于獲取當(dāng)前顯示視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn)和獲取視頻幀對(duì)應(yīng)的聲音信號(hào),然后分別利用時(shí)間點(diǎn)傳輸模塊10及聲音信息傳輸模塊14,將上述兩種信號(hào)傳輸給AR眼鏡2。其中,對(duì)于時(shí)間點(diǎn)獲取模塊9獲取當(dāng)前視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn)的實(shí)施方式,可以是根據(jù)當(dāng)前終端1播放畫(huà)面對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn)判斷獲取。例如,當(dāng)前終端畫(huà)面播放的視頻對(duì)應(yīng)的視頻幀播放時(shí)間節(jié)點(diǎn)為52秒,即將這一信息利用時(shí)間點(diǎn)傳輸模塊10所述AR眼鏡2。以此類(lèi)推,發(fā)送給AR眼鏡2的視頻幀都對(duì)應(yīng)一播放時(shí)間點(diǎn)。具體如下表所示:視頻幀名稱(chēng)對(duì)應(yīng)播放時(shí)間點(diǎn)視頻幀152秒視頻幀253秒視頻幀356秒視頻幀41分20秒而對(duì)于聲音信號(hào)的獲取,即將每個(gè)視頻幀對(duì)應(yīng)的聲音信號(hào)同步發(fā)送給AR眼鏡2。具體如下表所示:視頻幀名稱(chēng)對(duì)應(yīng)的聲音信號(hào)視頻幀1聲音信號(hào)1視頻幀2聲音信號(hào)2視頻幀3聲音信號(hào)3視頻幀4聲音信號(hào)4進(jìn)一步的,當(dāng)所述AR眼鏡2接收到上述的視頻幀時(shí),所述AR眼鏡包含的解碼模塊5,將接收到的視頻幀進(jìn)行解碼。詳細(xì)的,即根據(jù)接收的視頻幀,生成與該視頻幀對(duì)應(yīng)的畫(huà)面。例如本實(shí)施例中解碼后的視頻幀信息對(duì)照表,具體如下表所示:視頻幀名稱(chēng)對(duì)應(yīng)播放時(shí)間點(diǎn)解碼后生成畫(huà)面視頻幀152秒畫(huà)面1視頻幀253秒畫(huà)面2視頻幀356秒畫(huà)面3視頻幀41分20秒畫(huà)面4進(jìn)一步的,當(dāng)解碼模塊5在解碼進(jìn)行完成后,所述AR眼鏡2包含的現(xiàn)實(shí)影像攝取模塊6,啟用第一攝像頭攝取現(xiàn)實(shí)影像。即第一攝像頭對(duì)終端1的顯示屏幕畫(huà)面進(jìn)行實(shí)時(shí)的掃描錄入。當(dāng)每次攝取完終端屏幕顯示畫(huà)面后,將攝取的畫(huà)面與解碼后生成的畫(huà)面通過(guò)現(xiàn)實(shí)影像判斷模塊7進(jìn)行比對(duì)。進(jìn)一步的,當(dāng)發(fā)現(xiàn)第一攝像頭攝取的現(xiàn)實(shí)影像畫(huà)面與解碼生成后的畫(huà)面相同時(shí),視頻幀查找模塊11根據(jù)上述解碼后的視頻幀信息對(duì)照表,找到視頻幀名稱(chēng),及相對(duì)應(yīng)的播放時(shí)間點(diǎn)。例如攝取現(xiàn)實(shí)影像與畫(huà)面1相同,即根據(jù)上述對(duì)照表即可得到,視頻幀名稱(chēng)為視頻幀1,對(duì)應(yīng)播放時(shí)間點(diǎn)為52秒。進(jìn)一步的,當(dāng)獲取完上述信息后,根據(jù)視頻名稱(chēng)在聲音信號(hào)表中找對(duì)對(duì)應(yīng)的聲音信號(hào)。例如本實(shí)施例中,與攝取現(xiàn)實(shí)影像畫(huà)面一致的解碼后畫(huà)面對(duì)應(yīng)的視頻幀名稱(chēng)為視頻幀1,根據(jù)上述聲音信息表可得到對(duì)應(yīng)的聲音信息為聲音信息1。最后虛擬畫(huà)面投射模塊8,將與攝取現(xiàn)實(shí)影像畫(huà)面一致的解碼生成的畫(huà)面作為虛擬畫(huà)面進(jìn)行投射在終端1的上方進(jìn)行顯示。另外將視頻幀對(duì)應(yīng)的聲音信號(hào)同步發(fā)送至AR眼鏡2包括的聲音信號(hào)播放模塊15。即在對(duì)虛擬畫(huà)面投放的同時(shí),將其對(duì)應(yīng)的聲音進(jìn)行同步的播放。此外,在AR眼鏡2播放聲音信號(hào)同時(shí),向終端反饋聲音播放信號(hào),終端中包含的媒體音量控制模塊16,根據(jù)反饋信息將終端的播放聲音減小或者關(guān)閉。實(shí)施例二請(qǐng)參考圖1,圖1為本發(fā)明提供的一種分離介質(zhì)下顯示彈幕與視頻的系統(tǒng)結(jié)構(gòu)示意圖。具體的,實(shí)施例二位本發(fā)明提供的第二實(shí)施例與實(shí)施例一中提供的第一實(shí)施例大體上類(lèi)似,不同之處在于,眼部影像攝取模塊17,用于啟用第二攝像頭攝取攜帶有用戶(hù)眼部的影像;眨眼檢測(cè)模塊18,用于對(duì)用戶(hù)眼部進(jìn)行眨眼檢測(cè),并在檢測(cè)到眨眼時(shí)判斷眨眼頻率是否達(dá)到預(yù)設(shè)頻率。具體的,即實(shí)施例二不同于實(shí)施例一在于,所述AR眼鏡更包括了眼部影像攝取模塊17及眨眼檢測(cè)模塊18。作用在于,眼部影像攝取模塊17通過(guò)第二攝像頭攝取用戶(hù)眼部影像,鎖定眼部影像,然后眨眼檢測(cè)模塊18對(duì)眼部影像進(jìn)行眨眼頻率判斷。若眨眼頻率超過(guò)預(yù)設(shè)值的眨眼頻率時(shí),將所述視頻幀對(duì)應(yīng)的視頻畫(huà)面及聲音通過(guò)AR眼鏡2進(jìn)行虛擬的顯示。實(shí)施例三請(qǐng)參考圖2,圖2為本發(fā)明提供的一種分離介質(zhì)下顯示彈幕與視頻的方法流程示意圖。具體的本實(shí)施例提供一種分離介質(zhì)下顯示彈幕與視頻的方法,使用權(quán)利要求6所述的顯示系統(tǒng),所述方法包括以下步驟:Step1、用于顯示彈幕信息的終端在檢測(cè)到視頻與位于視頻上圖層的彈幕信息同步顯示時(shí),獲取視頻對(duì)應(yīng)的視頻幀,并將視頻幀傳輸至與終端建立無(wú)線數(shù)據(jù)通信的AR眼鏡;Step2、所述AR眼鏡對(duì)接收到的視頻幀進(jìn)行解碼,啟用第一攝像頭攝取現(xiàn)實(shí)影像,判斷現(xiàn)實(shí)影像中是否存在播放與視頻幀對(duì)應(yīng)視頻內(nèi)容的終端畫(huà)面,若存在,則將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,在所述AR眼鏡對(duì)接收到的視頻幀進(jìn)行解碼之前,還包括:所述終端獲取當(dāng)前顯示視頻對(duì)應(yīng)視頻幀的播放時(shí)間點(diǎn)并將其傳輸至所述AR眼鏡,其中,每個(gè)視頻幀對(duì)應(yīng)一播放時(shí)間點(diǎn);將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示,包括:所述終端根據(jù)接收到的播放時(shí)間點(diǎn)找出與其對(duì)應(yīng)的視頻幀,并從該視頻幀所處位置開(kāi)始,將其以及后續(xù)的視頻幀進(jìn)行解碼,并作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示。作為本發(fā)明的一種優(yōu)選方式,所述的一種分離介質(zhì)下顯示彈幕與視頻的方法,還包括:所述終端將視頻幀對(duì)應(yīng)的聲音信號(hào)傳輸給所述AR眼鏡;所述AR眼鏡在顯示作為虛擬畫(huà)面的視頻幀的同時(shí),利用揚(yáng)聲器對(duì)與視頻幀對(duì)應(yīng)的聲音信號(hào)進(jìn)行同步播放,并回傳聲音播放信號(hào)給所述終端;所述終端根據(jù)聲音播放信號(hào)關(guān)閉或減小媒體音量。作為本發(fā)明的一種優(yōu)選方式,所述的一種分離介質(zhì)下顯示彈幕與視頻的方法,在將解碼后的視頻幀作為虛擬畫(huà)面投射在終端的上方進(jìn)行顯示之前,還包括:所述AR眼鏡啟用第二攝像頭攝取攜帶有用戶(hù)眼部的影像;對(duì)用戶(hù)眼部進(jìn)行眨眼檢測(cè),并在檢測(cè)到眨眼時(shí)判斷眨眼頻率是否達(dá)到預(yù)設(shè)頻率;若達(dá)到,則繼續(xù)執(zhí)行步驟,否則將結(jié)束流程。作為本發(fā)明的一種優(yōu)選方式,所述的一種分離介質(zhì)下顯示彈幕與視頻的方法,在將視頻幀傳輸至與終端建立無(wú)線數(shù)據(jù)通信的AR眼鏡之前,還包括:所述終端判斷位于視頻上圖層的彈幕信息的移動(dòng)速度是否超出預(yù)設(shè)速度和∕或判斷彈幕信息在屏幕的占據(jù)面積是否超出預(yù)設(shè)面積;若超出,則繼續(xù)執(zhí)行步驟,否則將結(jié)束流程。應(yīng)理解實(shí)施例三具體實(shí)現(xiàn)的過(guò)程可與實(shí)施例一、實(shí)施例二的描述相對(duì)應(yīng),此處不再詳細(xì)描述。上述實(shí)施例只為說(shuō)明本發(fā)明的技術(shù)構(gòu)思及特點(diǎn),其目的是讓熟悉該
技術(shù)領(lǐng)域:
的技術(shù)人員能夠了解本發(fā)明的內(nèi)容并據(jù)以實(shí)施,并不能以此來(lái)限制本發(fā)明的保護(hù)范圍。凡根據(jù)本發(fā)明精神實(shí)質(zhì)所作出的等同變換或修飾,都應(yīng)涵蓋在本發(fā)明的保護(hù)范圍之內(nèi)。當(dāng)前第1頁(yè)1 2 3