亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種信息處理方法及電子設(shè)備與流程

文檔序號:11844217閱讀:198來源:國知局
一種信息處理方法及電子設(shè)備與流程

本發(fā)明涉及控制領(lǐng)域,尤其涉及一種信息處理方法及電子設(shè)備。



背景技術(shù):

目前,在通過電子設(shè)備進行多人視頻聊天時,能夠通過顯示屏觀察到當(dāng)前正在進行視頻聊天的用戶所應(yīng)用的電子設(shè)備的攝像頭所采集到的圖像。

然而,電子設(shè)備的攝像頭的取景范圍及位置是固定的,除非移動電子設(shè)備的攝像頭,這就造成,當(dāng)用戶不在攝像頭的取景范圍內(nèi)時,攝像頭無法采集到用戶的圖像,則與該用戶進行視頻聊天的其他用戶無法觀察到該用戶的當(dāng)前狀態(tài),降低了用戶體驗。



技術(shù)實現(xiàn)要素:

有鑒于此,本發(fā)明提供一種信息處理方法及電子設(shè)備,以解決現(xiàn)有技術(shù)中電子設(shè)備的攝像頭取景范圍及位置固定,當(dāng)用戶不在攝像頭的取景范圍內(nèi)時,攝像頭無法采集到用戶的圖像,降低了用戶體驗的問題,其具體方案如下:

一種信息處理方法,包括:

檢測第一信息,所述第一信息為目標聲音信息;

當(dāng)檢測到第一信息時,確定發(fā)出所述第一信息的目標所在位置;

獲取所述目標所在位置處的圖像,并進行顯示。

進一步的,所述獲取所述目標所在位置處的圖像,并進行顯示,包括:

獲取所述目標所在位置處的圖像,對所述目標所在位置處的圖像進行面部識別;

當(dāng)在所述目標所在位置處的圖像中識別到面部信息時,對所述目標所在位置處的圖像進行顯示。

進一步的,所述獲取所述目標所在位置處的圖像,并進行顯示,包括:

獲取所述目標所在位置處的圖像,對所述目標所在位置處的圖像進行面部識別;

當(dāng)在所述目標所在位置處的圖像中識別到面部信息時,截取所述目標所在位置處的圖像中的面部信息圖像;

對所述面部信息圖像進行顯示。

進一步的,所述對所述面部信息圖像進行顯示,包括:

對所述面部信息圖像進行放大并顯示。

進一步的,所述獲取所述目標所在位置處的圖像,包括:

獲取所述目標所在位置處的圖像,所述圖像為高于預(yù)定分辨率標準的圖像。

進一步的,所述對所述面部信息圖像進行放大并顯示,包括:

確定發(fā)出所述第一信息的目標是否為一個;

若是,對所述面部信息圖像進行放大并顯示,否則,對所述目標所在位置處的圖像進行顯示。

進一步的,還包括:

當(dāng)所述發(fā)出第一信息的目標的位置發(fā)生變化時,獲取所述目標變化后的位置處的圖像,進行顯示,并調(diào)節(jié)所述第一信息的音量。

一種電子設(shè)備,包括:顯示器及處理器,其中:

所述處理器用于檢測第一信息,所述第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出所述第一信息的目標所在位置,獲取所述目標所在位置處的圖像,并發(fā)送至所述顯示器;

所述顯示器用于顯示所述目標所在位置處的圖像。

進一步的,所述處理器獲取所述目標所在位置處的圖像,并發(fā)送至所述顯示器,包括:

所述處理器獲取所述目標所在位置處的圖像,對所述目標所在位置處的圖像進行面部識別,當(dāng)在所述目標所在位置處的圖像中識別到面部信息時,將所述目標所在位置處的圖像發(fā)送至所述顯示器。

進一步的,所述處理器獲取所述目標所在位置處的圖像,并發(fā)送至所述顯示器,包括:

所述處理器獲取所述標所在位置處的圖像,對所述目標所在位置處的圖像進行面部識別,當(dāng)在所述目標所在位置處的圖像中識別到面部信息時,截取所述目標所在位置處的圖像中的面部信息圖像,將所述目標信息圖像發(fā)送至所述顯示器。

進一步的,所述處理器將所述目標信息圖像發(fā)送至所述顯示器,包括:

所述處理器對所述面部信息圖像進行放大并發(fā)送至所述顯示器進行顯示。

進一步的,所述處理器獲取所述目標所在位置處的圖像,包括:

所述處理器獲取所述目標所在位置處的圖像,所述圖像為高于預(yù)定分辨率標準的圖像。

進一步的,所述處理器對所述面部信息圖像進行放大并發(fā)送至所述顯示器進行顯示,包括:

所述處理器確定發(fā)出所述第一信息的目標是否為一個,若是,對所述面部信息圖像進行放大并發(fā)送至所述顯示器進行顯示,否則,將所述目標所在位置處的圖像發(fā)送至所述顯示器進行顯示。

進一步的,所述處理器還用于:

當(dāng)所述發(fā)出第一信息的目標的位置發(fā)生變化時,獲取所述目標變化后的位置處的圖像,發(fā)送至所述顯示器進行顯示,并調(diào)節(jié)所述第一信息的音量。

從上述技術(shù)方案可以看出,本申請公開的信息處理方法及電子設(shè)備,通過檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

附圖說明

為了更清楚地說明本發(fā)明實施例或現(xiàn)有技術(shù)中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動的前提下,還可以根據(jù)這些附圖獲得其他的附圖。

圖1為本發(fā)明實施例公開的一種信息處理方法的流程圖;

圖2為本發(fā)明實施例公開的一種信息處理方法的流程圖;

圖3為本發(fā)明實施例公開的一種信息處理方法的流程圖;

圖4為本發(fā)明實施例公開的一種信息處理方法的流程圖;

圖5為本發(fā)明實施例公開的一種信息處理方法的流程圖;

圖6為本發(fā)明實施例公開的一種信息處理方法的流程圖;

圖7為本發(fā)明實施例公開的一種電子設(shè)備的結(jié)構(gòu)示意圖。

具體實施方式

下面將結(jié)合本發(fā)明實施例中的附圖,對本發(fā)明實施例中的技術(shù)方案進行清楚、完整地描述,顯然,所描述的實施例僅僅是本發(fā)明一部分實施例,而不是全部的實施例?;诒景l(fā)明中的實施例,本領(lǐng)域普通技術(shù)人員在沒有做出創(chuàng)造性勞動前提下所獲得的所有其他實施例,都屬于本發(fā)明保護的范圍。

本發(fā)明公開了一種信息處理方法,其流程圖如圖1所示,包括:

步驟S11、檢測第一信息,第一信息為目標聲音信息;

實時對目標聲音信息進行檢測,或者,首先開啟第一應(yīng)用,在第一應(yīng)用開啟狀態(tài)下,實時對目標聲音信息進行檢測,其中,第一應(yīng)用可以為視頻聊天應(yīng)用,如:QQ視頻、微信視頻或會議視頻聊天應(yīng)用,在此不做具體限定。

其中,檢測第一信息可以為:通過電子設(shè)備的麥克風(fēng)進行第一信息的檢測,當(dāng)麥克風(fēng)有聲音信息錄入時,則檢測到第一信息。

目標聲音信息可以為:人發(fā)出的聲音信息,如:人的說話聲或唱歌聲,而其他動物發(fā)出的聲音則不能認為是目標聲音信息:另外,目標聲音信息也可以為:麥克風(fēng)能夠檢測到的所有聲音信息,例如:將電子設(shè)備設(shè)置在家中,而當(dāng)家中沒有人時,通過麥克風(fēng)檢測家中是否有聲音信息,從而確定家中的狀況。

步驟S12、當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置;

確定發(fā)出第一信息的目標所在位置,可以為:通過兩個麥克風(fēng)來確定發(fā)出第一信息的目標所在位置,例如:通過每一個麥克風(fēng)均可以確定發(fā)出第一信息的目標與該麥克風(fēng)之間的距離及大概方向,那么,每一個麥克風(fēng)所能夠確定的目標的可能位置為一個圓,而兩個麥克風(fēng)之間的距離已知,則兩個麥克風(fēng)就確定了該目標的確切位置;

另外,確定發(fā)出第一信息的目標所在位置,也可以為:通過超聲波確定發(fā)出第一信息的目標所在位置。

步驟S13、獲取目標所在位置處的圖像,并進行顯示。

對目標所在位置處的圖像進行顯示,以便于在進行視頻聊天時,能夠根據(jù)聲音確定發(fā)出聲音的用戶所在的位置,從而移動攝像頭;也可以為:在家中無人時,通過聲音確定發(fā)出聲音的目標所在位置,從而對目標所在位置的圖像進行顯示,以便移動攝像頭,以確定家中具體狀況。

本實施例公開的信息處理方法,通過檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

本實施例公開了一種信息處理方法,其流程圖如圖2所示,包括:

步驟S21、檢測第一信息,第一信息為目標聲音信息;

步驟S22、當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置;

步驟S23、獲取目標所在位置處的圖像,對目標所在位置處的圖像進行面部識別;

對目標所在位置處的圖像進行面部識別,以確定發(fā)出第一信息的目標是人還是錄音播放裝置,或者其他動物或物體。

步驟S24、當(dāng)在目標所在位置處的圖像中識別到面部信息時,對目標所在位置處的圖像進行顯示。

只有在目標所在位置處的圖像中識別到面部信息時,才對該圖像進行顯示,即只有在該圖像中有人時,才對圖像進行顯示,若該圖像中沒有人,只是錄音播放裝置,則無需對該圖像進行顯示,或者圖像中是其他動物或物體,也無需對該圖像進行顯示,以保證在用戶通過應(yīng)用該信息處理方法的電子設(shè)備與親友進行視頻聊天或視頻會議時,親友能夠看到的是用戶,而非其他動物或物體。

本實施例公開的信息處理方法,通過檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

本實施例公開了一種信息處理方法,其流程圖如圖3所示,包括:

步驟S31、檢測第一信息,第一信息為目標聲音信息;

步驟S32、當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置;

步驟S33、獲取目標所在位置處的圖像,對目標所在位置處的圖像進行面部識別;

步驟S34、當(dāng)在目標所在位置處的圖像中識別到面部信息時,截取目標所在位置處的圖像中的面部信息圖像;

步驟S35、對面部信息圖像進行顯示。

當(dāng)目標所在位置處的圖像中識別到面部信息時,則只需要截取該圖像中的面部信息圖像即可,同時只對截取到的面部信息圖像進行顯示,無需對目標所在位置處的圖像中除面部信息圖像外的其他圖像進行顯示,以保證與使用該電子設(shè)備的用戶進行視頻聊天的用戶看到的畫面中只包括面部信息圖像,而無需其他物體或背景圖像,使得畫面中重點突出。

進一步的,在對面部信息圖像進行顯示時,可以為:首先對面部信息圖像進行放大,并對放大后的圖像進行顯示。

由于從目標所在位置處的圖像中截取的面部信息圖像較小,因此,在進行顯示時,首先將面部信息圖像進行放大,以使得觀看該面部信息圖像的用戶或親友能夠清晰的看到該面部信息圖像。

本實施例公開的信息處理方法,通過檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

本實施例公開了一種信息處理方法,其流程圖如圖4所示,包括:

步驟S41、檢測第一信息,第一信息為目標聲音信息;

步驟S42、當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置;

步驟S43、獲取目標所在位置處的圖像,圖像為高于預(yù)定分辨率標準的圖像,對目標所在位置處的圖像進行面部識別;

基于目前民用網(wǎng)絡(luò)寬帶較低的情況,通常視頻聊天軟件會限制其視頻分辨率處于較低狀態(tài),如:320*240,或640*480,而攝像頭所支持的分辨率可以達到1280*720。

由于本實施例所公開的方案中需要對目標所在位置處的圖像中的面部信息圖像進行截取,因此,在獲取目標所在位置處的圖像時,可以直接采用攝像頭的最大分辨率1280*720,以保證在對目標所在位置處的圖像中的面部信息圖像進行截取后,不需要進行插值算法或僅需較少的插值像素即可達到視頻聊天軟件所要求的分辨率,同時,也保證了該面部信息圖像的分辨率不會處于較低的狀態(tài),從而保證了影像質(zhì)量。

步驟S44、當(dāng)在目標所在位置處的圖像中識別到面部信息時,截取目標所在位置處的圖像中的面部信息圖像;

步驟S45、對面部信息圖像進行放大并顯示。

本實施例公開的信息處理方法,通過檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

本實施例公開了一種信息處理方法,其流程圖如圖5所示,包括:

步驟S51、檢測第一信息,第一信息為目標聲音信息;

步驟S52、當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置;

步驟S53、獲取目標所在位置處的圖像,對目標所在位置處的圖像進行面部識別;

步驟S54、當(dāng)在目標所在位置處的圖像中識別到面部信息時,截取目標所在位置處的圖像中的面部信息圖像;

步驟S55、確定發(fā)出第一信息的目標是否為一個;

確定發(fā)出第一信息的目標是否為一個,即可以通過:判斷面部信息圖像中有幾個人像,若為一個,則確定發(fā)出第一信息的目標為一個,若為多個,則確定發(fā)出第一信息的目標至少為兩個。

步驟S56、若是,對面部信息圖像進行放大并顯示;

當(dāng)面部信息圖像中的目標只有一個時,對面部信息圖像進行放大,以確保觀看該圖像的用戶或親友能夠較為清楚的看到面部信息圖像中的目標。

步驟S57、否則,對目標所在位置處的圖像進行顯示。

當(dāng)面部信息圖像中的目標不為一個時,則至少為兩個,此時,無需對該目標所在位置處的圖像進行面部信息圖像的截取,可以直接顯示目標所在位置處的圖像,以保證圖像中的目標均能夠出現(xiàn)在顯示的畫面中。

本實施例公開的信息處理方法,通過檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

本實施例公開了一種信息處理方法,其流程圖如圖6所示,包括:

步驟S61、檢測第一信息,第一信息為目標聲音信息;

步驟S62、當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置;

步驟S63、獲取目標所在位置處的圖像,并進行顯示;

步驟S64、當(dāng)發(fā)出第一信息的目標的位置發(fā)生變化時,獲取目標變化后的位置處的圖像,進行顯示,并調(diào)節(jié)第一信息的音量。

當(dāng)檢測到發(fā)出第一信息的目標發(fā)生變化時,重新獲取變化后的目標所在位置處的圖像,例如:在視頻聊天過程中,已檢測到目標所在位置處的圖像,進行了顯示,之后由于目標發(fā)生了移動,顯示的畫面中不再出現(xiàn)該目標,此時,通過麥克風(fēng)或超聲波檢測到目標當(dāng)前所在位置,則重新獲取目標當(dāng)前所在位置,對當(dāng)前位置的圖像進行顯示,以確保畫面中始終有發(fā)出第一信息的目標;另外,在目標的位置發(fā)生移動后,其與該電子設(shè)備的距離發(fā)生了變化,尤其與麥克風(fēng)的距離發(fā)生了變化,此時,對音量進行調(diào)整,以使得播放的第一信息的音量始終處于較為正常的狀態(tài),不會出現(xiàn)第一信息音量太大或太小的狀況。

本實施例公開的信息處理方法,通過檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

本實施例公開了一種電子設(shè)備,其結(jié)構(gòu)示意圖如圖7所示,包括:

顯示器71及處理器72。

處理器72用于檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并發(fā)送至顯示器71。

顯示器71用于顯示目標所在位置處的圖像。

實時對目標聲音信息進行檢測,或者,首先開啟第一應(yīng)用,在第一應(yīng)用開啟狀態(tài)下,實時對目標聲音信息進行檢測,其中,第一應(yīng)用可以為視頻聊天應(yīng)用,如:QQ視頻、微信視頻或會議視頻聊天應(yīng)用,在此不做具體限定。

其中,檢測第一信息可以為:通過電子設(shè)備的麥克風(fēng)進行第一信息的檢測,當(dāng)麥克風(fēng)有聲音信息錄入時,則檢測到第一信息。

目標聲音信息可以為:人發(fā)出的聲音信息,如:人的說話聲或唱歌聲,而其他動物發(fā)出的聲音則不能認為是目標聲音信息:另外,目標聲音信息也可以為:麥克風(fēng)能夠檢測到的所有聲音信息,例如:將電子設(shè)備設(shè)置在家中,而當(dāng)家中沒有人時,通過麥克風(fēng)檢測家中是否有聲音信息,從而確定家中的狀況。

確定發(fā)出第一信息的目標所在位置,可以為:通過兩個麥克風(fēng)來確定發(fā)出第一信息的目標所在位置,例如:通過每一個麥克風(fēng)均可以確定發(fā)出第一信息的目標與該麥克風(fēng)之間的距離及大概方向,那么,每一個麥克風(fēng)所能夠確定的目標的可能位置為一個圓,而兩個麥克風(fēng)之間的距離已知,則兩個麥克風(fēng)就確定了該目標的確切位置;

另外,確定發(fā)出第一信息的目標所在位置,也可以為:通過超聲波確定發(fā)出第一信息的目標所在位置。

對目標所在位置處的圖像進行顯示,以便于在進行視頻聊天時,能夠根據(jù)聲音確定發(fā)出聲音的用戶所在的位置,從而移動攝像頭;也可以為:在家中無人時,通過聲音確定發(fā)出聲音的目標所在位置,從而對目標所在位置的圖像進行顯示,以便移動攝像頭,以確定家中具體狀況。

處理器72獲取目標所在位置處的圖像,并發(fā)送至顯示器71,包括:

處理器72獲取目標所在位置處的圖像,對目標所在位置處的圖像進行面部識別,當(dāng)在目標所在位置處的圖像中識別到面部信息時,將目標所在位置處的圖像發(fā)送至顯示器71。

對目標所在位置處的圖像進行面部識別,以確定發(fā)出第一信息的目標是人還是錄音播放裝置,或者其他動物或物體。

只有在目標所在位置處的圖像中識別到面部信息時,才對該圖像進行顯示,即只有在該圖像中有人時,才對圖像進行顯示,若該圖像中沒有人,只是錄音播放裝置,則無需對該圖像進行顯示,或者圖像中是其他動物或物體,也無需對該圖像進行顯示,以保證在用戶通過應(yīng)用該信息處理方法的電子設(shè)備與親友進行視頻聊天或視頻會議時,親友能夠看到的是用戶,而非其他動物或物體。

處理器72獲取目標所在位置處的圖像,并發(fā)送至顯示器71,包括:

處理器72獲取目標所在位置處的圖像,對目標所在位置處的圖像進行面部識別,當(dāng)在目標所在位置處的圖像中識別到面部信息時,截取目標所在位置處的圖像中的面部信息圖像,將面部信息圖像發(fā)送至顯示器71。

當(dāng)目標所在位置處的圖像中識別到面部信息時,則只需要截取該圖像中的面部信息圖像即可,同時只對截取到的面部信息圖像進行顯示,無需對目標所在位置處的圖像中除面部信息圖像外的其他圖像進行顯示,以保證與使用該電子設(shè)備的用戶進行視頻聊天的用戶看到的畫面中只包括面部信息圖像,而無需其他物體或背景圖像,使得畫面中重點突出。

進一步的,在對面部信息圖像進行顯示時,可以為:首先對面部信息圖像進行放大,并對放大后的圖像進行顯示。

由于從目標所在位置處的圖像中截取的面部信息圖像較小,因此,在進行顯示時,首先將面部信息圖像進行放大,以使得觀看該面部信息圖像的用戶或親友能夠清晰的看到該面部信息圖像。

其中,獲取目標所在位置處的圖像,目標所在位置處的圖像為高于預(yù)定分辨率標準的圖像。

基于目前民用網(wǎng)絡(luò)寬帶較低的情況,通常視頻聊天軟件會限制其視頻分辨率處于較低狀態(tài),如:320*240,或640*480,而攝像頭所支持的分辨率可以達到1280*720。

由于本實施例所公開的方案中需要對目標所在位置處的圖像中的面部信息圖像進行截取,因此,在獲取目標所在位置處的圖像時,可以直接采用攝像頭的最大分辨率1280*720,以保證在對目標所在位置處的圖像中的面部信息圖像進行截取后,不需要進行插值算法或僅需較少的插值像素即可達到視頻聊天軟件所要求的分辨率,同時,也保證了該面部信息圖像的分辨率不會處于較低的狀態(tài),從而保證了影像質(zhì)量。

處理器72對面部信息圖像進行放大并發(fā)送至顯示器71進行顯示,包括:

處理器72確定發(fā)出第一信息的目標是否為一個,若是,則對面部信息圖像進行放大并發(fā)送至顯示器進行顯示,否則,將目標所在位置處的圖像發(fā)送至顯示器進行顯示。

確定發(fā)出第一信息的目標是否為一個,即可以通過:判斷面部信息圖像中有幾個人像,若為一個,則確定發(fā)出第一信息的目標為一個,若為多個,則確定發(fā)出第一信息的目標至少為兩個。

當(dāng)面部信息圖像中的目標只有一個時,對面部信息圖像進行放大,以確保觀看該圖像的用戶或親友能夠較為清楚的看到面部信息圖像中的目標。

當(dāng)面部信息圖像中的目標不為一個時,則至少為兩個,此時,無需對該目標所在位置處的圖像進行面部信息圖像的截取,可以直接顯示目標所在位置處的圖像,以保證圖像中的目標均能夠出現(xiàn)在顯示的畫面中。

處理器72還用于:當(dāng)發(fā)出第一信息的目標的位置發(fā)生變化時,獲取目標變化后的位置處的圖像,發(fā)送至顯示器進行顯示,并調(diào)節(jié)第一信息的音量。

當(dāng)檢測到發(fā)出第一信息的目標發(fā)生變化時,重新獲取變化后的目標所在位置處的圖像,例如:在視頻聊天過程中,已檢測到目標所在位置處的圖像,進行了顯示,之后由于目標發(fā)生了移動,顯示的畫面中不再出現(xiàn)該目標,此時,通過麥克風(fēng)或超聲波檢測到目標當(dāng)前所在位置,則重新獲取目標當(dāng)前所在位置,對當(dāng)前位置的圖像進行顯示,以確保畫面中始終有發(fā)出第一信息的目標;另外,在目標的位置發(fā)生移動后,其與該電子設(shè)備的距離發(fā)生了變化,尤其與麥克風(fēng)的距離發(fā)生了變化,此時,對音量進行調(diào)整,以使得播放的第一信息的音量始終處于較為正常的狀態(tài),不會出現(xiàn)第一信息音量太大或太小的狀況。

本實施例公開的電子設(shè)備,通過處理器檢測第一信息,第一信息為目標聲音信息,當(dāng)檢測到第一信息時,確定發(fā)出第一信息的目標所在位置,獲取目標所在位置處的圖像,并發(fā)送至顯示器進行顯示。本方案通過首先確定發(fā)出第一信息的目標的位置,并獲取該位置處的圖像,以便于在進行視頻聊天時,能夠根據(jù)發(fā)出聲音的用戶所在的位置,獲取相應(yīng)的圖像,避免了當(dāng)用戶不在攝像頭的取景范圍時,無法采集到用戶的圖像的情況,提高了用戶體驗。

本說明書中各個實施例采用遞進的方式描述,每個實施例重點說明的都是與其他實施例的不同之處,各個實施例之間相同相似部分互相參見即可。對于實施例公開的裝置而言,由于其與實施例公開的方法相對應(yīng),所以描述的比較簡單,相關(guān)之處參見方法部分說明即可。

專業(yè)人員還可以進一步意識到,結(jié)合本文中所公開的實施例描述的各示例的單元及算法步驟,能夠以電子硬件、計算機軟件或者二者的結(jié)合來實現(xiàn),為了清楚地說明硬件和軟件的可互換性,在上述說明中已經(jīng)按照功能一般性地描述了各示例的組成及步驟。這些功能究竟以硬件還是軟件方式來執(zhí)行,取決于技術(shù)方案的特定應(yīng)用和設(shè)計約束條件。專業(yè)技術(shù)人員可以對每個特定的應(yīng)用來使用不同方法來實現(xiàn)所描述的功能,但是這種實現(xiàn)不應(yīng)認為超出本發(fā)明的范圍。

結(jié)合本文中所公開的實施例描述的方法或算法的步驟可以直接用硬件、處理器執(zhí)行的軟件模塊,或者二者的結(jié)合來實施。軟件模塊可以置于隨機存儲器(RAM)、內(nèi)存、只讀存儲器(ROM)、電可編程ROM、電可擦除可編程ROM、寄存器、硬盤、可移動磁盤、CD-ROM、或技術(shù)領(lǐng)域內(nèi)所公知的任意其它形式的存儲介質(zhì)中。

對所公開的實施例的上述說明,使本領(lǐng)域?qū)I(yè)技術(shù)人員能夠?qū)崿F(xiàn)或使用本發(fā)明。對這些實施例的多種修改對本領(lǐng)域的專業(yè)技術(shù)人員來說將是顯而易見的,本文中所定義的一般原理可以在不脫離本發(fā)明的精神或范圍的情況下,在其它實施例中實現(xiàn)。因此,本發(fā)明將不會被限制于本文所示的這些實施例,而是要符合與本文所公開的原理和新穎特點相一致的最寬的范圍。

當(dāng)前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1