亚洲成年人黄色一级片,日本香港三级亚洲三级,黄色成人小视频,国产青草视频,国产一区二区久久精品,91在线免费公开视频,成年轻人网站色直接看

一種基于色選機(jī)的物料分類方法與流程

文檔序號(hào):11666555閱讀:603來源:國(guó)知局

本發(fā)明屬于圖像處理技術(shù)領(lǐng)域,具體涉及一種基于色選機(jī)的物料分類方法。



背景技術(shù):

傳統(tǒng)的塑料、礦石、小麥等分揀利用人工或操作半自動(dòng)設(shè)備將異物或品質(zhì)較差的物體分揀出來。但是由于人眼對(duì)物體的選擇具有局限性,且衛(wèi)生質(zhì)量得不到保障,不能滿足人們對(duì)產(chǎn)品質(zhì)量和衛(wèi)生的追求,所以色選技術(shù)應(yīng)運(yùn)產(chǎn)生。色選技術(shù)是指利用產(chǎn)品自身的光學(xué)特性,在光源的照射下,其反光特性或透光特性隨農(nóng)產(chǎn)品好壞的不同而不同,通過光學(xué)鏡頭后,產(chǎn)品的圖像信息被ccd或光電二極管接收,利用控制芯片及微處理器進(jìn)行信號(hào)進(jìn)行放大處理、轉(zhuǎn)換與傳輸?shù)?,并與標(biāo)準(zhǔn)信號(hào)進(jìn)行對(duì)比,分析出該產(chǎn)品的品質(zhì)優(yōu)劣,再利用噴氣閥將不合格、劣質(zhì)產(chǎn)品進(jìn)行分級(jí)剔除。

決策樹是一種應(yīng)用比較廣泛的數(shù)據(jù)挖掘分類方法,因其具有分類精度高、速度快、生成的決策規(guī)則易于理解等優(yōu)點(diǎn)而受到廣泛關(guān)注。決策樹的概念最早出現(xiàn)在概念學(xué)習(xí)系統(tǒng)(cls,conceptlearningsystem)中,后來許多決策樹算法都是對(duì)cls算法的改進(jìn),在決策樹的發(fā)展中,id3算法最有影響、作用最大,根據(jù)信息增益進(jìn)行特征的選擇。以id3算法為基礎(chǔ),很多研究人員提出了對(duì)id3的更新的算法。

在1993年quinlan提出的c4.5算法是最有影響的一種決策樹生成算法,其思想是先把整個(gè)數(shù)據(jù)集作為樹的根節(jié)點(diǎn),利用信息論中的信息增益率來尋找數(shù)據(jù)集中具有最大信息增益率的特征作為節(jié)點(diǎn)分裂的依據(jù),而后根據(jù)特征的不同取值進(jìn)行分裂,建立節(jié)點(diǎn)的分枝,并在每個(gè)子節(jié)點(diǎn)中重復(fù)該操作,直至生成一棵完整的決策樹。

經(jīng)典的分類問題是在假設(shè)為各種分類錯(cuò)誤所要付出的代價(jià)相同的情況下,要求達(dá)到高的分類正確率。然而這種假設(shè)在實(shí)際應(yīng)用中很難滿足,如在礦石分類問題中,將有價(jià)值的一類礦石判斷為無價(jià)值的二類礦石與將二類礦石判斷為一類礦石,這兩種錯(cuò)誤的分類所要付出的代價(jià)一定是不相同的。



技術(shù)實(shí)現(xiàn)要素:

本發(fā)明所要解決的關(guān)鍵問題是,針對(duì)不同誤判代價(jià)的分類錯(cuò)誤,在兩分類問題中,保證分類正確率不受到較大影響的前提下,盡可能的減少誤分類代價(jià)大的分類錯(cuò)誤。為解決已有色選機(jī)系統(tǒng)的缺陷,本發(fā)明提出了一種基于色選機(jī)的物料分類方法,能夠自動(dòng)確定分類錯(cuò)誤的最優(yōu)誤判代價(jià),在保證分類正確率不受到較大影響的前提下,減少誤分類代價(jià)較大的分類錯(cuò)誤,也可以在人工模式下根據(jù)個(gè)人需求進(jìn)行不同純度品級(jí)的產(chǎn)品篩選。

本發(fā)明的一種基于色選機(jī)的物料分類方法,包括如下步驟:

步驟一:向色選機(jī)中分別投入有價(jià)值的一類物料和無價(jià)值的二類物料,采集物料樣本圖像,并對(duì)圖像進(jìn)行預(yù)處理,得到圖像特征以及特征值,將形成的樣本數(shù)據(jù)添加樣本類別標(biāo)簽,構(gòu)建訓(xùn)練集;

步驟二:選擇工作模式,根據(jù)上一步處理得到物料訓(xùn)練集,利用c4.5決策樹和代價(jià)敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型,具體步驟包括:

第1步、選擇工作模式:當(dāng)選擇自動(dòng)模式時(shí),執(zhí)行第2步至第12步;當(dāng)選擇人工模式時(shí),手動(dòng)輸入代價(jià)值cost后,執(zhí)行第13步到第14步;

第2步、假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價(jià)較大的錯(cuò)誤,設(shè)定代價(jià)值c(i)表示將其他樣本類別誤判為樣本類別ui的代價(jià),i=1,2;設(shè)定樣本類別u1的誤判代價(jià)初始值為;c(1)=1;樣本類別u2的誤判代價(jià)初始值為c(2)=1;

第3步、將訓(xùn)練集中的樣本數(shù)據(jù)作為決策樹當(dāng)前節(jié)點(diǎn)的數(shù)據(jù)集d;

第4步、計(jì)算第j個(gè)類別的類別權(quán)值w(j),j=1,2,公式如下:

其中,ni為訓(xùn)練集中樣本類別ui的個(gè)數(shù);

第5步、計(jì)算數(shù)據(jù)集d的熵info(d),公式如下:

info(d)=-∑ip(j)log2(p(j))

其中,p(j)的計(jì)算公式如下:

第6步、假設(shè)樣本數(shù)量為total,針對(duì)于樣本對(duì)應(yīng)的每個(gè)特征,將當(dāng)前節(jié)點(diǎn)上的對(duì)應(yīng)于該特征的數(shù)據(jù)樣本的特征值,按從小到大進(jìn)行排序,得到特征的取值序列{a1,a2,...,atotal},分別以a1,a2,...,a(total-1)為分割點(diǎn)對(duì)數(shù)據(jù)集d進(jìn)行分割,每一次分割均得到兩個(gè)數(shù)據(jù)子集d1和d2,計(jì)算每個(gè)分割點(diǎn)的熵,則第k個(gè)分割點(diǎn)ak的熵infoak(d)表示為:

其中,k=1,2,...,total-1,|d|為數(shù)據(jù)集d中的樣本個(gè)數(shù),|dj|為樣本子集dj中的樣本個(gè)數(shù),j=1,2;

第7步、計(jì)算分割點(diǎn)ak的信息增益率gainratio(ak),公式如下:

其中,

第8步、針對(duì)所有特征對(duì)應(yīng)的所有分割點(diǎn),找到信息增益率最大的分割點(diǎn),作為當(dāng)前層節(jié)點(diǎn)的分裂特征和分裂數(shù)值,將訓(xùn)練集按照該分裂特征并基于該分裂數(shù)值分為兩個(gè)子集;

第9步、對(duì)第8步產(chǎn)生的所述兩個(gè)子集分別進(jìn)行判斷:

當(dāng)兩個(gè)子集的樣本個(gè)數(shù)過少或只有一類樣本時(shí),當(dāng)前兩個(gè)子集即作為決策樹的最終分類結(jié)果,執(zhí)行步驟10;

當(dāng)其中一個(gè)子集的樣本個(gè)數(shù)過少或只有一類樣本,但另一個(gè)子集的樣本個(gè)數(shù)較多,判定該另一個(gè)子集需要繼續(xù)進(jìn)行分裂,并將該另一個(gè)子集為新的訓(xùn)練集,形成決策樹當(dāng)前層節(jié)點(diǎn)的下一層節(jié)點(diǎn),決策樹當(dāng)前節(jié)點(diǎn)的一個(gè)分支,重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

當(dāng)兩個(gè)子集的樣本個(gè)數(shù)均較多時(shí),則兩個(gè)子集均需要繼續(xù)分裂,兩個(gè)子集分別形成新訓(xùn)練集,并形成決策樹當(dāng)前層節(jié)點(diǎn)的下一層的兩個(gè)節(jié)點(diǎn),即當(dāng)前節(jié)點(diǎn)的兩個(gè)分支,該兩個(gè)節(jié)點(diǎn)分別重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

第10步、利用生成的決策樹模型對(duì)訓(xùn)練集進(jìn)行測(cè)試,計(jì)算分類正確率accuracy和準(zhǔn)確率precision,綜合考慮兩個(gè)評(píng)估指標(biāo),并認(rèn)為準(zhǔn)確率precision的重要性為正確率accuracy的兩倍,計(jì)算該模型得分score:

第11步、令誤判代價(jià)c(1)增大0.1,c(2)保持不變,使用步驟一得到的訓(xùn)練集,執(zhí)行第3步到第10步,建立新的決策樹模型并獲得其得分score;

第12步、重復(fù)第3步到第11步,直到得分score較c(1)=1的得分score有明顯下降,取目前獲得的所有得分score中最大值對(duì)應(yīng)的決策樹模型為最終結(jié)果,執(zhí)行步驟三;

第13步、假設(shè)樣本數(shù)量為total,假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價(jià)較大的錯(cuò)誤,設(shè)定代價(jià)值c(i)表示將其他樣本類別誤判為樣本類別ui的代價(jià),i=1,2;設(shè)定樣本類別u1的誤判代價(jià)值為c(1)=cost;樣本類別u2的誤判代價(jià)初始值為c(2)=1;

第14步、執(zhí)行步驟3至步驟9,得到?jīng)Q策樹模型,執(zhí)行步驟三;

步驟三:根據(jù)上一步得到的決策樹模型,對(duì)后續(xù)的混合物料進(jìn)行分類,分類篩選出有價(jià)值的一類物料和無價(jià)值的二類物料。

較佳的,步驟一具體步驟包括:

第1步、取部分物料,進(jìn)行人工分類篩選,分為有價(jià)值的一類物料樣本和無價(jià)值的二類物料樣本;

第2步、將兩類物料樣本分別投入色選機(jī)中,采集圖像數(shù)據(jù);

第3步、將圖像的r、g、b三個(gè)通道的值作為特征,根據(jù)物料與背景色在r、g、b三個(gè)通道的較大差異,利用閾值法去除背景,并利用中值濾波去噪;

第4步、為得到的物料數(shù)據(jù)添加類別標(biāo)簽,構(gòu)建訓(xùn)練集。

較佳的,步驟三中,得到分類結(jié)果后,將分類結(jié)果傳輸給噴氣閥的控制電路,通過控制各個(gè)噴氣閥的開閉完成對(duì)物料的分類。

本發(fā)明具有如下有益效果:

本發(fā)明是基于色選機(jī)的物料分類方法,首先,向色選機(jī)中分別投入有價(jià)值的一類物料樣本和無價(jià)值的二類物料樣本,利用閾值法和中值濾波的方法,對(duì)色選機(jī)采集的圖像進(jìn)行預(yù)處理,即消除背景和噪聲,有利于提高后續(xù)分類篩選的正確率。利用c4.5決策樹和代價(jià)敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型,能夠高效、實(shí)時(shí)地實(shí)現(xiàn)物料的分類,并且能夠在保證分類正確率不受到較大影響的前提下,盡可能的提高有價(jià)值的一類物料的純度,即其精確度,也可以在人工模式下根據(jù)個(gè)人需求進(jìn)行不同純度品級(jí)的產(chǎn)品篩選。

本發(fā)明還具有較高的商業(yè)使用價(jià)值,實(shí)現(xiàn)了對(duì)有價(jià)值物料純度的提高,從而提高產(chǎn)品的質(zhì)量和價(jià)值,節(jié)省了大量人力資源和時(shí)間成本。

附圖說明

圖1為本發(fā)明實(shí)施例的分類方法流程示意圖。

具體實(shí)施方式

下面結(jié)合附圖并舉實(shí)施例,對(duì)本發(fā)明進(jìn)行詳細(xì)描述。

本發(fā)明提供了一種基于色選機(jī)的物料分類方法,用于解決對(duì)物料的分類篩選問題,包含如下步驟:

步驟一:向色選機(jī)中分別投入有價(jià)值的一類物料和無價(jià)值的二類物料,采集集物料樣本圖像,利用閾值法和中值濾波的方法,對(duì)色選機(jī)的圖像進(jìn)行預(yù)處理,即消除背景和噪聲,對(duì)兩類物料數(shù)據(jù)添加類別標(biāo)簽,構(gòu)建訓(xùn)練集,具體步驟包括:

第1步、取部分物料,進(jìn)行人工分類篩選,分為有價(jià)值的一類物料樣本和無價(jià)值的二類物料樣本;

第2步、將兩類物料樣本分別投入色選機(jī)中,采集圖像數(shù)據(jù);

第3步、根據(jù)物料與背景色在r、g、b三個(gè)通道的較大差異,利用閾值法去除背景,并利用中值濾波去噪;

第4步、為得到的物料數(shù)據(jù)添加標(biāo)簽,構(gòu)建訓(xùn)練集。

步驟二:選擇工作模式,根據(jù)上一步處理得到物料訓(xùn)練集,利用c4.5決策樹和代價(jià)敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型,具體步驟包括:

第1步、選擇工作模式,共自動(dòng)模式和人工模式兩種。自動(dòng)模式可以自動(dòng)完成代價(jià)值確定和決策樹模型構(gòu)建;人工模式手動(dòng)輸入代價(jià)值,可根據(jù)需求更進(jìn)一步地提高篩選純度,輸入代價(jià)值越高,獲得純度越高。例如,一千噸物料自動(dòng)模式可篩選出一百噸有價(jià)值的一類物料,而在輸入高代價(jià)值時(shí),人工模式僅能篩選出十噸有價(jià)值的一類物料,但純度更高,從而是篩選出的物料具有更高的價(jià)值。用戶可根據(jù)需求自行選擇。選擇自動(dòng)模式進(jìn)行第2步到第12步,選擇人工模式,手動(dòng)輸入代價(jià)值cost,進(jìn)行第13步到第14步;

第2步、假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價(jià)較大的錯(cuò)誤,即不希望出現(xiàn)的錯(cuò)誤,設(shè)定代價(jià)值c(i)(i=1,2)表示將其他樣本類別誤判為樣本類別ui的代價(jià),設(shè)定初始值為c(1)=1,c(2)=1,即兩種誤判代價(jià)相同;

第3步、將訓(xùn)練集中的樣本數(shù)據(jù)作為決策樹的節(jié)點(diǎn)數(shù)據(jù)集d;

第4步、計(jì)算類別權(quán)值w(j),公式如下:

其中,ni為訓(xùn)練集中樣本類別ui的個(gè)數(shù),j=1,2;

第5步、計(jì)算d的熵info(d),公式如下:

info(d)=-∑ip(j)log2(p(j))

其中,p(j)的計(jì)算公式如下:

第6步、假設(shè)樣本數(shù)量為total,將該節(jié)點(diǎn)上的所有數(shù)據(jù)樣本按照該特征的具體數(shù)值,按從小到大進(jìn)行排序,得到該特征的取值序列{a1,a2,...,atotal},分別以a1,a2,...,a(total-1)為分割點(diǎn),將d分割為d1和d2,計(jì)算分割點(diǎn)ai(i=1,2,...,total-1)的熵infoai(d),公式如下:

其中,|d|為d中的樣本個(gè)數(shù),|dj|為dj中的樣本個(gè)數(shù),j=1,2;

第7步、計(jì)算分割點(diǎn)ai(i=1,2,...,total-1)的信息增益率gainratio(ai),公式如下:

其中,gain(ai)=info(d)-infoai(d),

第8步、針對(duì)所有特征對(duì)應(yīng)的所有分割點(diǎn),找到信息增益率最大的分割點(diǎn),作為當(dāng)前層節(jié)點(diǎn)的分裂特征和分裂數(shù)值,將訓(xùn)練集按照該分裂特征并基于該分裂數(shù)值分為兩個(gè)子集;如果最大分割點(diǎn)是特征r對(duì)應(yīng)的,確定特征值以后,對(duì)訓(xùn)練集中r值大于或等于該特征值的數(shù)據(jù)分成一個(gè)子集,r值小于該特征值的數(shù)據(jù)分成另一個(gè)子集,分裂時(shí)并不考慮另外兩個(gè)特征的特征值,即只按r特征進(jìn)行分裂。

第9步、對(duì)第8步產(chǎn)生的所述兩個(gè)子集分別進(jìn)行判斷:

當(dāng)兩個(gè)子集的樣本個(gè)數(shù)過少或只有一類樣本時(shí),說明數(shù)據(jù)分裂到當(dāng)前程度時(shí),已經(jīng)基本將兩類物料區(qū)分開來,不再需要繼續(xù)分裂了;則當(dāng)前兩個(gè)子集即作為決策樹的最終分類結(jié)果,執(zhí)行步驟10;

當(dāng)其中一個(gè)子集的樣本個(gè)數(shù)過少或只有一類樣本,說明該子集不再需要繼續(xù)分裂,但另一個(gè)子集的樣本個(gè)數(shù)較多,說明該子集中不止包含一種物料,還將其它物料錯(cuò)誤分裂到該子集中,因此,判定該另一個(gè)子集需要繼續(xù)進(jìn)行分裂,并將該另一個(gè)子集為新的訓(xùn)練集,形成決策樹當(dāng)前層節(jié)點(diǎn)的下一層節(jié)點(diǎn),決策樹當(dāng)前節(jié)點(diǎn)的一個(gè)分支,重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

當(dāng)兩個(gè)子集的樣本個(gè)數(shù)均較多時(shí),則兩個(gè)子集均需要繼續(xù)分裂,兩個(gè)子集分別形成新訓(xùn)練集,并形成決策樹當(dāng)前層節(jié)點(diǎn)的下一層的兩個(gè)節(jié)點(diǎn),即當(dāng)前節(jié)點(diǎn)的兩個(gè)分支,該兩個(gè)節(jié)點(diǎn)分別重復(fù)第3步到第9步,直至所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,執(zhí)行第10步;

第10步、利用生成決策樹模型對(duì)訓(xùn)練集進(jìn)行測(cè)試,計(jì)算分類正確率accuracy和準(zhǔn)確率precision,綜合考慮兩個(gè)評(píng)估指標(biāo),并認(rèn)為準(zhǔn)確率precision的重要性為正確率accuracy的兩倍,計(jì)算該模型得分score,公式如下:

第11步、令誤判代價(jià)c(1)增大0.1,c(2)不變,使用步驟一得到的訓(xùn)練集,重復(fù)第4步到第10步,建立新的決策樹模型并獲得其得分score;

第12步、重復(fù)第4步到第11步,直到得分score較c(1)=1時(shí)有明顯下降,取得分score最高的代價(jià)值對(duì)應(yīng)的決策樹模型為最終結(jié)果。

第12步、重復(fù)第3步到第11步,直到得分score較c(1)=1的得分score有明顯下降,取目前獲得的所有得分score中最大值對(duì)應(yīng)的決策樹模型為最終結(jié)果,執(zhí)行步驟三;

第13步、假設(shè)樣本數(shù)量為total,假設(shè)將樣本類別u2誤判為樣本類別u1是誤判代價(jià)較大的錯(cuò)誤,設(shè)定代價(jià)值c(i)(i=1,2)表示將其他樣本類別誤判為樣本類別ui的代價(jià),設(shè)定樣本類別u1的誤判代價(jià)值為c(1)=cost;樣本類別u2的誤判代價(jià)初始值為c(2)=1;

第14步、執(zhí)行步驟3至步驟9,得到?jīng)Q策樹模型,執(zhí)行步驟三;

步驟三:根據(jù)上一步得到的決策樹模型,對(duì)后續(xù)的混合物料進(jìn)行分類,分類篩選出有價(jià)值的一類物料和無價(jià)值的二類物料。

實(shí)施例:

步驟一:向色選機(jī)中分別投入有價(jià)值的一類礦石樣本和無價(jià)值的二類礦石樣本,利用閾值法和中值濾波的方法,對(duì)色選機(jī)采集的圖像進(jìn)行預(yù)處理,即消除背景和噪聲。

第1步、取部分混合石料,進(jìn)行人工分類篩選,分為有價(jià)值的一類礦石樣本和無價(jià)值的二類礦石樣本;

第2步、將兩類礦石樣本分別投入色選機(jī)料斗中,采集圖像數(shù)據(jù);

第3步、調(diào)節(jié)背景板,取背景色為黑色,設(shè)定閾值寬度為50,利用閾值法去除背景,即r、g、b三個(gè)通道數(shù)值與平均值差異均小于50的像素點(diǎn)判斷為背景,否則為礦石,并利用中值濾波去噪;

第4步、為得到的礦石數(shù)據(jù)添加標(biāo)簽,以r、g、b三個(gè)通道數(shù)值為特征,構(gòu)建訓(xùn)練集。

步驟二:選擇自動(dòng)模式,根據(jù)上一步處理得到礦石訓(xùn)練集,利用c4.5決策樹和代價(jià)敏感學(xué)習(xí)相結(jié)合的優(yōu)化算法,構(gòu)建決策樹模型。

第1步、二類礦石u2誤判為一類礦石u1是誤判代價(jià)較大的錯(cuò)誤,即不希望出現(xiàn)的錯(cuò)誤,令c(1)=1,c(2)=1,即兩種誤判代價(jià)相同,c(1)為將二類礦石u2誤判為一類礦石u1的誤判代價(jià),c(2)為將一類礦石u1誤判為二類礦石u2的誤判代價(jià);

第2步、將訓(xùn)練集中的樣本數(shù)據(jù)作為決策樹的節(jié)點(diǎn)數(shù)據(jù)集d;

第3步、計(jì)算類別權(quán)值w(j),公式如下:

其中,ni為訓(xùn)練集中樣本類別ui的個(gè)數(shù);

第4步、計(jì)算d的熵info(d),公式如下:

info(d)=-∑ip(j)log2(p(j))

其中,p(j)的計(jì)算公式如下:

第5步、假設(shè)樣本數(shù)量為total,將該節(jié)點(diǎn)上的所有數(shù)據(jù)樣本按照該特征的具體數(shù)值,按從小到大進(jìn)行排序,得到該特征的取值序列{a1,a2,...,atotal},分別以a1,a2,...,a(total-1)為分割點(diǎn),將d分割為d1和d2,計(jì)算分割點(diǎn)ai(i=1,2,...,total-1)的熵infoai(d),公式如下:

其中,|d|為d中的樣本個(gè)數(shù),|dj|為dj中的樣本個(gè)數(shù),j=1,2;

第6步、計(jì)算分割點(diǎn)ai(i=1,2,...,total-1)的信息增益率gainratio(ai),公式如下:

其中,gain(ai)=info(d)-infoai(d),

第7步、取各特征各分割點(diǎn)中信息增益率最大的點(diǎn)為該節(jié)點(diǎn)的分裂特征和數(shù)值,將訓(xùn)練集分為兩個(gè)子集;

第8步、對(duì)產(chǎn)生的子集進(jìn)行判斷,若其中樣本個(gè)數(shù)過少或只有一類樣本,則以個(gè)數(shù)較多的一類為該分支的分類結(jié)果,否則,以子集為新的訓(xùn)練集,形成新的葉節(jié)點(diǎn),重復(fù)第2步到第7步。當(dāng)所有分支均已得到分類結(jié)果,得到?jīng)Q策樹模型,進(jìn)行第9步;

第9步、利用生成決策樹模型對(duì)訓(xùn)練集進(jìn)行測(cè)試,計(jì)算分類正確率accuracy和準(zhǔn)確率precision,綜合考慮兩個(gè)評(píng)估指標(biāo),并認(rèn)為準(zhǔn)確率precision的重要性為正確率accuracy的兩倍,計(jì)算該模型得分score,公式如下:

第10步、令誤判代價(jià)c(1)增大0.1,c(2)不變,使用步驟一得到的訓(xùn)練集,重復(fù)第2步到第9步,建立新的決策樹模型并獲得其得分score;

第11步、重復(fù)第3步到第10步,直到得分score較c(1)=1時(shí)下降0.2,取得分score最高的代價(jià)值對(duì)應(yīng)的決策樹模型為最終結(jié)果。

步驟三:根據(jù)上一步得到的決策樹模型,對(duì)后續(xù)大量的混合石料進(jìn)行分類,分類篩選出有價(jià)值的一類礦石和無價(jià)值的二類礦石,將分類結(jié)果傳輸給噴氣閥的控制電路,通過控制各個(gè)噴氣閥的開閉完成對(duì)石料的分類。

自此,就實(shí)現(xiàn)了色選機(jī)分類篩選礦石的全部過程。實(shí)驗(yàn)驗(yàn)證,本發(fā)明能夠高效、實(shí)時(shí)地實(shí)現(xiàn)混合的分類篩選,并且能夠在保證分類正確率不受到較大影響的前提下,盡可能的提高有價(jià)值的一類礦石的純度,從而提高產(chǎn)品的質(zhì)量和價(jià)值。

綜上所述,以上僅為本發(fā)明的較佳實(shí)施例而已,并非用于限定本發(fā)明的保護(hù)范圍。凡在本發(fā)明的精神和原則之內(nèi),所作的任何修改、等同替換、改進(jìn)等,均應(yīng)包含在本發(fā)明的保護(hù)范圍之內(nèi)。

當(dāng)前第1頁(yè)1 2 
網(wǎng)友詢問留言 已有0條留言
  • 還沒有人留言評(píng)論。精彩留言會(huì)獲得點(diǎn)贊!
1