为机器学习占地13
是將若干個(gè)學(xué)習(xí)習(xí)
弱分類器間存在一定的差異性,這會(huì)導(dǎo)致分類的邊界不同,也就是說(shuō)可能存在錯(cuò)誤。那么將多個(gè)弱分類器合并后,就可以得到更加合理的邊界,減少整體的錯(cuò)誤率,實(shí)現(xiàn)更好的效果;
對(duì)于數(shù)據(jù)集過(guò)大或者過(guò)小,可以分別進(jìn)行劃分和有放回的操作產(chǎn)生不同的數(shù)據(jù)子集,然后使用數(shù)據(jù)子集訓(xùn)練不同的分類器,最終再合并成為一個(gè)大的分類器;
如果數(shù)據(jù)的劃分邊界過(guò)于復(fù)雜,使用線性模型很
————————————————
版權(quán)聲明:本文為CSDN博主「奔跑的大西吉」的原創(chuàng)文章,遵循 CC 4.0 BY-SA 版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/fenglepeng/article/details/104829362
總結(jié)
- 上一篇: 2台电脑一根网线传文件_「教程」如何快速
- 下一篇: 统计学基础知识(一)