亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

視頻業(yè)務(wù)中基于多層神經(jīng)網(wǎng)絡(luò)的用戶體驗(yàn)質(zhì)量的預(yù)測方法與流程

文檔序號(hào):11480117閱讀:418來源:國知局
視頻業(yè)務(wù)中基于多層神經(jīng)網(wǎng)絡(luò)的用戶體驗(yàn)質(zhì)量的預(yù)測方法與流程

本發(fā)明涉及用戶體驗(yàn)質(zhì)量預(yù)測,特別涉及視頻業(yè)務(wù)中基于多層神經(jīng)網(wǎng)絡(luò)的用戶體驗(yàn)質(zhì)量預(yù)測方法。



背景技術(shù):

互聯(lián)網(wǎng)技術(shù)的快速發(fā)展使得人們可以訪問各種多媒體服務(wù),特別地,現(xiàn)在iptv提供各種服務(wù),使得人們的生活變得豐富多彩。但另一方面,服務(wù)提供商和網(wǎng)絡(luò)運(yùn)營商則更加關(guān)心所提供視頻服務(wù)的質(zhì)量,即所觀看視頻的iptv用戶體驗(yàn)究竟如何。這使得用戶體驗(yàn)質(zhì)量的預(yù)測評(píng)價(jià)成為服務(wù)提供商和網(wǎng)絡(luò)運(yùn)營商所關(guān)注的熱點(diǎn)。用戶體驗(yàn)質(zhì)量(qoe)的定義是“終端用戶感知的應(yīng)用或服務(wù)的總體可接受性”。qoe不僅受到服務(wù)本身的影響,而且還受用戶所處的環(huán)境的影響。由于機(jī)器學(xué)習(xí)具有智能化地解決大數(shù)據(jù)信息處理的能力,其可以應(yīng)用于iptv用戶體驗(yàn)質(zhì)量的預(yù)測。然而,傳統(tǒng)的機(jī)器學(xué)習(xí)方法,如支持向量機(jī)、決策樹等的預(yù)測性能十分有限,無法準(zhǔn)確地完成該任務(wù),因而需要設(shè)計(jì)新型的模型及預(yù)測方法,完成iptv用戶體驗(yàn)質(zhì)量的預(yù)測及提升。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明的目的在于針對(duì)上述問題,提出一種基于多層神經(jīng)網(wǎng)絡(luò)的用戶體驗(yàn)質(zhì)量的預(yù)測方法,以準(zhǔn)確、高效地預(yù)測iptv用戶體驗(yàn)質(zhì)量。

為此目的,本發(fā)明采用的技術(shù)方案為視頻業(yè)務(wù)中基于多層神經(jīng)網(wǎng)絡(luò)的用戶體驗(yàn)質(zhì)量的預(yù)測方法,具體包括如下步驟:

步驟1:數(shù)據(jù)預(yù)處理:選擇視頻業(yè)務(wù)中影響用戶體驗(yàn)的特征參數(shù),根據(jù)用戶的報(bào)障/非報(bào)障,將其映射為用戶的qoe,當(dāng)qoe為1時(shí),表示用戶對(duì)所用業(yè)務(wù)滿意,而當(dāng)qoe為0時(shí),用戶不滿意;

步驟2:建立多層神經(jīng)網(wǎng)絡(luò)的qoe預(yù)測模型:該神經(jīng)網(wǎng)絡(luò)包含五層,從低到高依次為:輸入層—第一隱層—第二隱層—第三隱層—輸出層,多層神經(jīng)網(wǎng)絡(luò)的第l層的第i個(gè)神經(jīng)元的輸出為:

在上式中,表示神經(jīng)網(wǎng)絡(luò)的第l層的第i個(gè)神經(jīng)元的輸出,表示神經(jīng)網(wǎng)絡(luò)的第l-1層的輸出,表示第l層的第i個(gè)神經(jīng)元的權(quán)重,表示第l層第i個(gè)神經(jīng)元的的偏差,f(·)表示激活函數(shù);

步驟3:訓(xùn)練qoe預(yù)測模型:輸入預(yù)處理后的數(shù)據(jù),獲得模型的最佳參數(shù)值,訓(xùn)練步驟2建立好的神經(jīng)網(wǎng)絡(luò)模型;

步驟4:完成用戶體驗(yàn)質(zhì)量qoe預(yù)測,具體包含:

(4-1)對(duì)于未知用戶體驗(yàn)質(zhì)量的數(shù)據(jù),首先根據(jù)步驟1完成預(yù)處理,得到需要的特征數(shù)據(jù)集;

(4-2)將該特征數(shù)據(jù)集作為輸入,代入訓(xùn)練好的多層神經(jīng)網(wǎng)絡(luò)分類器,得到預(yù)測結(jié)果。

進(jìn)一步,作為優(yōu)選,上述特征參數(shù)可以包含警告次數(shù)、損失率、出口下載帶寬、媒介速率、延時(shí)、媒體丟失率、cpu使用率、視頻傳輸質(zhì)量。

作為優(yōu)選,上述五層神經(jīng)網(wǎng)絡(luò)各自包含的神經(jīng)元數(shù)量各自為:輸入層有10個(gè)神經(jīng)元,第一隱層有30個(gè)神經(jīng)元,第二隱層有100個(gè)神經(jīng)元,第三隱層有50個(gè)神經(jīng)元,輸出層是1個(gè)神經(jīng)元。

上述激活函數(shù)采用的是relu函數(shù):

其中,z是輸入數(shù)值。

步驟3的具體過程如下:

(3-1)確定dropdout比例為0.2,

其中,是服從概率為p的伯努利分布,此處p也就是dropout比例,則,第l-1層的輸出變?yōu)?imgfile="bda0001281901830000026.gif"wi="411"he="70"img-content="drawing"img-format="gif"orientation="portrait"inline="no"/>所以第l層的第i個(gè)神經(jīng)元的輸出為

(3-2)確定學(xué)習(xí)率α為0.1,其是用來控制sgd算法的步長;

(3-3)初始化每一層輸入數(shù)據(jù)的權(quán)重,即說明第l-1層有m個(gè)輸出,初始化每一層偏差,其中,n為第l層神經(jīng)元的個(gè)數(shù),均服從正態(tài)分布,此外,令迭代次數(shù)m=1,設(shè)定總迭代次數(shù)為m;

(3-4)開始迭代,每次選取每個(gè)樣本,采用基于隨機(jī)梯度下降法的后向傳播算法得到步驟2確定的模型中的參數(shù),訓(xùn)練得出新的模型,該模型的輸出為0或1;

(3-5)計(jì)算上述樣本在當(dāng)前模型中的損失函數(shù):

其中,表示神經(jīng)網(wǎng)絡(luò)的第l層的第i個(gè)神經(jīng)元的輸出,表示實(shí)際的輸出值,m表示樣本總個(gè)數(shù);

(3-6)更新權(quán)重w'j,其計(jì)算公式如下:

其中,α表示學(xué)習(xí)率,即用于控制wj更新的步長,調(diào)整合適的學(xué)習(xí)率,可以實(shí)現(xiàn)對(duì)模型的優(yōu)化,此模型中,學(xué)習(xí)率設(shè)為0.2;

(3-7)判斷是否終止迭代,如果m<m,則跳轉(zhuǎn)到步驟(3-3),迭代次數(shù)加1(m=m+1),繼續(xù)下一次迭代;否則,終止迭代,輸出權(quán)重w,偏差b;完成多層神經(jīng)網(wǎng)絡(luò)分類器的訓(xùn)練過程。

本發(fā)明具有以下有益效果:

1.本發(fā)明對(duì)數(shù)據(jù)進(jìn)行預(yù)處理,選取重要的特征屬性,綜合考慮各種參數(shù),可以使模型預(yù)測的視頻質(zhì)量真正接近用戶對(duì)視頻質(zhì)量的主觀體驗(yàn),有助于更好的預(yù)測用戶體驗(yàn)質(zhì)量,有利于及時(shí)準(zhǔn)確反饋結(jié)果,從而幫助服務(wù)提供商和網(wǎng)絡(luò)運(yùn)營商不斷完善視頻業(yè)務(wù)和傳輸服務(wù)。

2.本發(fā)明提出的多層神經(jīng)網(wǎng)絡(luò)模型,高效處理非均衡數(shù)據(jù)集,有效提高預(yù)測的準(zhǔn)確度。

附圖說明

圖1為基于多層神經(jīng)網(wǎng)絡(luò)的用戶體驗(yàn)質(zhì)量的預(yù)測方法流程圖。

圖2為多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖。

圖3為加入dropout后的多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)圖。

圖4為yeast1數(shù)據(jù)集下,mnn,svm,dt三種算法的qoe預(yù)測準(zhǔn)確度對(duì)比圖。

圖5為qoe預(yù)測數(shù)據(jù)集下,mnn,svm,dt三種算法的qoe預(yù)測準(zhǔn)確率對(duì)比圖。

圖6為不同的sgd學(xué)習(xí)率下的準(zhǔn)確率示意圖。

具體實(shí)施方式

下面結(jié)合說明書附圖和具體實(shí)例對(duì)本發(fā)明作進(jìn)一步的詳細(xì)說明。

視頻業(yè)務(wù)中基于多層神經(jīng)網(wǎng)絡(luò)的用戶體驗(yàn)質(zhì)量的預(yù)測方法,本方法,如圖1所示,包括如下步驟:

步驟1:數(shù)據(jù)預(yù)處理:選擇視頻業(yè)務(wù)中影響用戶體驗(yàn)的的特征參數(shù),其包含警告次數(shù)、損失率、出口下載帶寬、媒介速率、延時(shí)、媒體丟失率、cpu使用率、視頻傳輸質(zhì)量。此外,根據(jù)視頻業(yè)務(wù)中用戶的報(bào)障/非報(bào)障,將其映射為用戶的qoe,當(dāng)qoe為1時(shí),表示用戶對(duì)所用業(yè)務(wù)滿意,而當(dāng)qoe為0時(shí),用戶不滿意;

步驟2:建立qoe預(yù)測模型:這里采用的是多層神經(jīng)網(wǎng)絡(luò)模型。該神經(jīng)網(wǎng)絡(luò)包含五層,如圖2所示,從低到高排序:輸入層—第一隱層—第二隱層—第三隱層—輸出層,其中,輸入層有10個(gè)神經(jīng)元,第一隱層有30個(gè)神經(jīng)元,第二隱層有100個(gè)神經(jīng)元,第三隱層有50個(gè)神經(jīng)元,輸出層是1個(gè)神經(jīng)元。多層神經(jīng)網(wǎng)絡(luò)的第l層的第i個(gè)神經(jīng)元的輸出為:

在上式中,表示神經(jīng)網(wǎng)絡(luò)的第l層的第i個(gè)神經(jīng)元的輸出,表示神經(jīng)網(wǎng)絡(luò)的第l-1層的輸出,表示第l層的第i個(gè)神經(jīng)元的權(quán)重,表示第l層第i個(gè)神經(jīng)元的的偏差。f(·)表示激活函數(shù),在這里采用的是relu函數(shù):

其中,z是輸入數(shù)值,即

步驟3:訓(xùn)練qoe預(yù)測模型:輸入預(yù)處理后的數(shù)據(jù),采用基于隨機(jī)梯度下降(stochasticgradientdescent,簡稱sgd)的后向傳播(backpropagation,簡稱bp)方法獲得模型的最佳參數(shù)值,訓(xùn)練步驟2建立好的神經(jīng)網(wǎng)絡(luò)模型,加入dropout后的多層神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)如圖3所示,其具體過程如下:

(3-1)確定dropdout比例為0.2,

其中,是服從概率為p的伯努利分布,此處p也就是dropout比例,則第l-1層的輸出變?yōu)?imgfile="bda0001281901830000053.gif"wi="417"he="70"img-content="drawing"img-format="gif"orientation="portrait"inline="no"/>所以第l層的第i個(gè)神經(jīng)元的輸出為

(3-2)確定學(xué)習(xí)率α為0.1,其是用來控制sgd算法的步長;

(3-3)初始化每一層輸入數(shù)據(jù)的權(quán)重,即說明第l-1層有m個(gè)輸出。初始化每一層偏差,其中,n為第l層神經(jīng)元的個(gè)數(shù)。均服從正態(tài)分布。此外,令迭代次數(shù)m=1,設(shè)定總迭代次數(shù)為m;

(3-4)開始迭代,每次選取每個(gè)樣本,采用基于隨機(jī)梯度下降法(sgd)的后向傳播(bp)算法得到步驟2確定的模型中的參數(shù),訓(xùn)練得出新的模型,需要說明的是該模型的輸出為0或1;

(3-5)計(jì)算上述樣本在當(dāng)前模型中的損失函數(shù):

其中,表示神經(jīng)網(wǎng)絡(luò)的第l層的第i個(gè)神經(jīng)元的輸出,表示實(shí)際的輸出值,m表示樣本總個(gè)數(shù)。

(3-6)更新權(quán)重w'j,其計(jì)算公式如下:

其中,α表示學(xué)習(xí)率,即用于控制wj更新的步長,調(diào)整合適的學(xué)習(xí)率,可以實(shí)現(xiàn)對(duì)模型的優(yōu)化。此模型中,學(xué)習(xí)率設(shè)為0.2;

(3-7)判斷是否終止迭代。如果m<m,則跳轉(zhuǎn)到步驟(3-3),迭代次數(shù)加1(m=m+1),繼續(xù)下一次迭代;否則,終止迭代,輸出權(quán)重w,偏差b;完成多層神經(jīng)網(wǎng)絡(luò)分類器的訓(xùn)練過程;

步驟4:完成用戶體驗(yàn)質(zhì)量qoe預(yù)測。

(4-1)對(duì)于未知用戶體驗(yàn)質(zhì)量的數(shù)據(jù),首先根據(jù)步驟1完成預(yù)處理,得到需要的特征數(shù)據(jù)集;

(4-2)將特征數(shù)據(jù)集作為輸入,帶入訓(xùn)練好的多層神經(jīng)網(wǎng)絡(luò)分類器,得到預(yù)測結(jié)果。

按上述流程進(jìn)行實(shí)驗(yàn),首先進(jìn)行數(shù)據(jù)預(yù)處理,確定特征屬性參數(shù),而后建立模型,再采用多層神經(jīng)網(wǎng)絡(luò)模型完成訓(xùn)練和預(yù)測。所采用的數(shù)據(jù)集包括標(biāo)準(zhǔn)數(shù)據(jù)集yeast1,及機(jī)頂盒采集的不同用戶的數(shù)據(jù)記錄。通過步驟3完成模型的訓(xùn)練,根據(jù)基于sgd的bp算法,獲取模型中所需的最佳參數(shù)——權(quán)重w與偏差b,從而訓(xùn)練出預(yù)測模型。同時(shí),在訓(xùn)練階段采用dropout的方法,隨機(jī)適當(dāng)?shù)年P(guān)閉一些神經(jīng)元節(jié)點(diǎn)。通過步驟4進(jìn)行預(yù)測。利用十折交叉驗(yàn)證法,輪流使用其中的9組數(shù)據(jù)做訓(xùn)練樣本,其余一個(gè)為測試樣本。最后得到模型的準(zhǔn)確率。為了分析結(jié)果,采用準(zhǔn)確率來對(duì)比本發(fā)明方法和兩種具有代表性的現(xiàn)有方法——支持向量機(jī)(svm)和決策樹(dt)預(yù)測性能。

圖4對(duì)比了多層神經(jīng)網(wǎng)絡(luò)(本發(fā)明方法),svm,和dt算法在不平衡數(shù)據(jù)集yeast1下的準(zhǔn)確率,yeast1數(shù)據(jù)集包含1484個(gè)樣本集,每個(gè)樣本包含8個(gè)特征,采用的不平衡率為2.46。從圖中可看出,本方法采用的算法比其他兩種算法的性能更好,其準(zhǔn)確率更高。這說明本發(fā)明方法在一定程度上提高了不平衡數(shù)據(jù)集的預(yù)測準(zhǔn)確度。

圖5對(duì)比了多層神經(jīng)網(wǎng)絡(luò)mnn(本發(fā)明方法),svm,和dt算法在機(jī)頂盒采集的不平衡數(shù)據(jù)集下的準(zhǔn)確率,在該算法中,采用五層網(wǎng)絡(luò),(從低到高排序:輸入層—第一隱層—第二隱層—第三隱層—輸出層),其中,輸入層有10個(gè)神經(jīng)元,第一隱層有30個(gè)神經(jīng)元,第二隱層有100個(gè)神經(jīng)元,第三隱層有50個(gè)神經(jīng)元,輸出層是1個(gè)神經(jīng)元。在輸入層和第一隱層設(shè)置dropout的比率為0.2。與svm,dt方法相比,本方法的預(yù)測準(zhǔn)確率更高。

圖6顯示了不同的sgd學(xué)習(xí)率,會(huì)導(dǎo)致預(yù)測的準(zhǔn)確率變化,由圖中可看出,當(dāng)學(xué)習(xí)率為0.1時(shí),準(zhǔn)確率達(dá)到最高,為80.5%。

需要說明的是,以上實(shí)施方式僅用以說明本發(fā)明的技術(shù)方案而非限制,盡管通過上述優(yōu)選實(shí)施例已經(jīng)對(duì)本發(fā)明進(jìn)行了詳細(xì)的描述,但本領(lǐng)域技術(shù)人員應(yīng)當(dāng)理解,可以在形式上和細(xì)節(jié)上對(duì)其作出各種各樣的改變,而不偏離本發(fā)明所限定的范圍。

當(dāng)前第1頁1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1