亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

好友推薦方法及裝置的制造方法

文檔序號:8935035閱讀:287來源:國知局
好友推薦方法及裝置的制造方法
【技術(shù)領(lǐng)域】
[0001]本發(fā)明屬于信息技術(shù)領(lǐng)域,尤其涉及好友推薦方法及裝置。
【背景技術(shù)】
[0002]人們在悲傷時,往往希望與有相同遭遇或者相同情緒的人相互溝通;人們在開心時,往往希望與有相同情緒的人分享快樂。如果與相反情緒的人溝通,則有可能使悲傷的人更加悲傷,使原本開心的人覺得掃興。然而,現(xiàn)有的好友推薦方式的靈活性較差,不能為用戶推薦具有相同情緒的好友。

【發(fā)明內(nèi)容】

[0003]鑒于此,本發(fā)明實施例提供了一種好友推薦方法及裝置,以解決現(xiàn)有的好友推薦方式的靈活性較差,不能為用戶推薦具有相同情緒的好友的問題。
[0004]第一方面,本發(fā)明實施例提供了一種好友推薦方法,包括:
[0005]獲取用戶的音頻信息,從所述音頻信息中獲取所述用戶的N種類型的聲音參數(shù)的值,并獲取所述N種類型的聲音參數(shù)對應的N個基準值,其中,N為大于或等于I的整數(shù);
[0006]將所述N種類型的聲音參數(shù)的值分別與所述N個基準值進行比對,得到第一比對結(jié)果;
[0007]根據(jù)所述第一比對結(jié)果確定所述用戶的情緒信息;
[0008]根據(jù)所述用戶的情緒信息向所述用戶推薦好友。
[0009]第二方面,本發(fā)明實施例提供了一種好友推薦裝置,包括:
[0010]第一獲取單元,用于獲取用戶的音頻信息,從所述音頻信息中獲取所述用戶的N種類型的聲音參數(shù)的值,并獲取所述N種類型的聲音參數(shù)對應的N個基準值,其中,N為大于或等于I的整數(shù);
[0011]第一比對單元,用于將所述N種類型的聲音參數(shù)的值分別與所述N個基準值進行比對,得到第一比對結(jié)果;
[0012]情緒信息確定單元,用于根據(jù)所述第一比對結(jié)果確定所述用戶的情緒信息;
[0013]好友推薦單元,用于根據(jù)所述用戶的情緒信息向所述用戶推薦好友。
[0014]本發(fā)明實施例與現(xiàn)有技術(shù)相比存在的有益效果是:本發(fā)明實施例通過獲取用戶的音頻信息,從音頻信息中獲取用戶的N種類型的聲音參數(shù)的值,根據(jù)N種類型的聲音參數(shù)確定用戶的情緒信息,再根據(jù)用戶的情緒信息向用戶推薦好友,由此在向用戶推薦好友時考慮用戶的情緒,快速為用戶找到具有相同情緒的好友,從而提高了好友推薦的靈活性。
【附圖說明】
[0015]為了更清楚地說明本發(fā)明實施例中的技術(shù)方案,下面將對實施例或現(xiàn)有技術(shù)描述中所需要使用的附圖作簡單地介紹,顯而易見地,下面描述中的附圖僅僅是本發(fā)明的一些實施例,對于本領(lǐng)域普通技術(shù)人員來講,在不付出創(chuàng)造性勞動性的前提下,還可以根據(jù)這些附圖獲得其他的附圖。
[0016]圖1是本發(fā)明實施例提供的好友推薦方法的實現(xiàn)流程圖;
[0017]圖2是本發(fā)明另一實施例提供的好友推薦方法的實現(xiàn)流程圖;
[0018]圖3是本發(fā)明另一實施例提供的好友推薦方法的實現(xiàn)流程圖;
[0019]圖4是本發(fā)明另一實施例提供的好友推薦方法的實現(xiàn)流程圖;
[0020]圖5是本發(fā)明另一實施例提供的好友推薦方法的實現(xiàn)流程圖;
[0021]圖6是本發(fā)明實施例提供的好友推薦裝置的結(jié)構(gòu)框圖。
【具體實施方式】
[0022]為了使本發(fā)明的目的、技術(shù)方案及優(yōu)點更加清楚明白,以下結(jié)合附圖及實施例,對本發(fā)明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發(fā)明,并不用于限定本發(fā)明。
[0023]圖1示出了本發(fā)明實施例提供的好友推薦方法的實現(xiàn)流程圖,詳述如下:
[0024]在步驟SlOl中,獲取用戶的音頻信息,從音頻信息中獲取用戶的N種類型的聲音參數(shù)的值,并獲取N種類型的聲音參數(shù)對應的N個基準值,其中,N為大于或等于I的整數(shù)。
[0025]需要說明的是,本發(fā)明實施例的執(zhí)行主體可以為手機和平板電腦等移動終端,還可以為智能手表等穿戴式智能設(shè)備,在此不作限定。
[0026]在本發(fā)明實施例中,通過麥克風獲取用戶錄入的音頻信息,從音頻信息中獲取用戶的N種類型的聲音參數(shù)的值,并從存儲器中獲取N種類型的聲音參數(shù)對應的N個基準值。
[0027]優(yōu)選地,所述聲音參數(shù)包括語速、平均基頻、基頻范圍、聲音強度和/或清晰度。
[0028]其中,基頻指的是基因的頻率。
[0029]在步驟S102中,將N種類型的聲音參數(shù)的值分別與N個基準值進行比對,得到第一比對結(jié)果。
[0030]在步驟S103中,根據(jù)第一比對結(jié)果確定用戶的情緒信息。
[0031]在這里,用戶的情緒信息的類型可以包括喜、怒、驚和/或悲,在此不作限定。
[0032]作為本發(fā)明的一個實施例,根據(jù)第一比對結(jié)果確定用戶的情緒信息具體為:根據(jù)第一比對結(jié)果確定各種類型的情緒信息的權(quán)重,將權(quán)重最大的情緒信息的類型確定為用戶的情緒信息。
[0033]例如,第一類型的聲音參數(shù)為語速,語速對應的基準值為第一基準值,根據(jù)第一基準值確定第一區(qū)間、第二區(qū)間、第三區(qū)間和第四區(qū)間,其中,第一區(qū)間的平均值大于第二區(qū)間的平均值,第二區(qū)間的平均值大于第三區(qū)間的平均值,第三區(qū)間的平均值大于第四區(qū)間的平均值,第一區(qū)間對應的情緒信息為喜,第二區(qū)間對應的情緒信息為怒,第三區(qū)間對應的情緒信息為驚,第四區(qū)間對應的情緒信息為悲。若獲取的第一類型的聲音參數(shù)的值在第一區(qū)間內(nèi),則將情緒信息為喜的權(quán)重加I ;若獲取的第一類型的聲音參數(shù)的值在第二區(qū)間內(nèi),則將情緒信息為怒的權(quán)重加I ;若獲取的第一類型的聲音參數(shù)的值在第三區(qū)間內(nèi),則將情緒信息為驚的權(quán)重加I ;若獲取的第一類型的聲音參數(shù)的值在第四區(qū)間內(nèi),則將情緒信息為悲的權(quán)重加I。
[0034]再例如,第二類型的聲音參數(shù)為平均基頻,平均基頻對應的基準值為第二基準值,根據(jù)第二基準值確定第五區(qū)間、第六區(qū)間、第七區(qū)間和第八區(qū)間,其中,第六區(qū)間的平均值大于第五區(qū)間的平均值,第七區(qū)間的平均值大于第五區(qū)間的平均值,第五區(qū)間的平均值大于第八區(qū)間的平均值,第五區(qū)間對應的情緒信息為喜,第六區(qū)間對應的情緒信息為怒,第七區(qū)間對應的情緒信息為驚,第八區(qū)間對應的情緒信息為悲。若獲取的第二類型的聲音參數(shù)的值在第五區(qū)間內(nèi),則將情緒信息為喜的權(quán)重加I ;若獲取的第二類型的聲音參數(shù)的值在第六區(qū)間內(nèi),則將情緒信息為怒的權(quán)重加I ;若獲取的第二類型的聲音參數(shù)的值在第七區(qū)間內(nèi),則將情緒信息為驚的權(quán)重加I;若獲取的第二類型的聲音參數(shù)的值在第八區(qū)間內(nèi),則將情緒信息為悲的權(quán)重加I。
[0035]再例如,第三類型的聲音參數(shù)為基頻范圍,基頻范圍對應的基準值為第三基準值,根據(jù)第三基準值確定第九區(qū)間、第十區(qū)間、第十一區(qū)間和第十二區(qū)間,其中,第九區(qū)間的區(qū)間長度大于第十二區(qū)間的區(qū)間長度,第十區(qū)間的區(qū)間長度大于第十二區(qū)間的區(qū)間長度,第十一區(qū)間的區(qū)間長度大于第十二區(qū)間的區(qū)間長度,第九區(qū)間對應的情緒信息為喜,第十區(qū)間對應的情緒信息為怒,第十一區(qū)間對應的情緒信息為驚,第十二區(qū)間對應的情緒信息為悲。若獲取的第三類型的聲音參數(shù)的值在第九區(qū)間內(nèi),則將情緒信息為喜的權(quán)重加I;若獲取的第三類型的聲音參數(shù)的值在第十區(qū)間內(nèi),則將情緒信息為怒的權(quán)重加I;若獲取的第三類型的聲音參數(shù)的值在第十一區(qū)間內(nèi),則將情緒信息為驚的權(quán)重加I ;若獲取的第三類型的聲音參數(shù)的值在第十二區(qū)間內(nèi),則將情緒信息為悲的權(quán)重加I。
[0036]再例如,第四類型的聲音參數(shù)為聲音強度,聲音強度對應的基準值為第四基準值,根據(jù)第四基準值確定第十三區(qū)間、第十四區(qū)間、第十五區(qū)間和第十六區(qū)間,其中,第十四區(qū)間的平均值大于第十三區(qū)間的平均值,第十三區(qū)間的平均值大于第十五區(qū)間的平均值,第十五區(qū)間的平均值大于第十六區(qū)間的平均值,第十三區(qū)間對應的情緒信息為喜,第十四區(qū)間對應的情緒信息為怒,第十五區(qū)間對應的情緒信息為驚,第十六區(qū)間對應的情緒信息為悲。若獲取的第四類型的聲音參數(shù)的值在第十三區(qū)間內(nèi),則將情緒信息為喜的權(quán)重加I ;若獲取的第四類型的聲音參數(shù)的值在第十四區(qū)間內(nèi),則將情緒信息為怒的權(quán)重加I ;若獲取的第四類型的聲音參數(shù)的值在第十五區(qū)間內(nèi),則將情緒信息為驚的權(quán)重加I ;若獲取的第四類型的聲音參數(shù)的值在第十六區(qū)間內(nèi),則將情緒信息為悲的權(quán)重加I。
[0037]再例如,第五類型的聲音參數(shù)為清晰度,清晰度對應的基準值為第五基準值,根據(jù)第五基準值確定第十七區(qū)間、第十八區(qū)間、第十九區(qū)間和第二十區(qū)間,其中,第十九區(qū)間的平均值大于第十七區(qū)間的平均值,第十七區(qū)間的平均值大于第十八區(qū)間的平均值,第十八區(qū)間的平均值大于第二十區(qū)間的平均值,第十七區(qū)間對應的情緒信息為喜,第十八區(qū)間對應的情緒信息為怒,第十九區(qū)間對應的情緒信息為驚,第二十區(qū)間對應的情緒信息為悲。若獲取的第五類型的聲音參數(shù)的值在第十七區(qū)間內(nèi),則將情緒信息為喜
當前第1頁1 2 3 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評論。精彩留言會獲得點贊!
1