【机器学习】算法面试知识点整理(持续更新中~)
1、監(jiān)督學(xué)習(xí)(SupervisedLearning):有類別標(biāo)簽的學(xué)習(xí),基于訓(xùn)練樣本的輸入、輸出訓(xùn)練得到最優(yōu)模型,再使用該模型預(yù)測(cè)新輸入的輸出;
代表算法:決策樹、樸素貝葉斯、邏輯回歸、KNN、SVM、神經(jīng)網(wǎng)絡(luò)、隨機(jī)森林、AdaBoost、遺傳算法;
2、半監(jiān)督學(xué)習(xí)(Semi-supervisedLearning):同時(shí)使用大量的未標(biāo)記數(shù)據(jù)和標(biāo)記數(shù)據(jù),進(jìn)行模式識(shí)別工作;
代表算法:self-training(自訓(xùn)練算法)、generative models生成模型、SVMs半監(jiān)督支持向量機(jī)、graph-basedmethods圖論方法、?multiviewlearing多視角算法等;
3、無監(jiān)督學(xué)習(xí)(UnsupervisedLearning):無類別標(biāo)簽的學(xué)習(xí),只給定樣本的輸入,自動(dòng)從中尋找潛在的類別規(guī)則;
代表算法:主成分分析方法PCA等,等距映射方法、局部線性嵌入方法、拉普拉斯特征映射方法、黑塞局部線性嵌入方法、局部切空間排列方法等;
4、HOG特征:全稱Histogram of Oriented Gradient(方向梯度直方圖),由圖像的局部區(qū)域梯度方向直方圖構(gòu)成特征;
5、LBP特征:全稱Local Binary Pattern(局部二值模式),通過比較中心與鄰域像素灰度值構(gòu)成圖像局部紋理特征;
6、Haar特征:描述圖像的灰度變化,由各模塊的像素差值構(gòu)成特征;
7、核函數(shù)(Kernels):從低維空間到高維空間的映射,把低維空間中線性不可分的兩類點(diǎn)變成線性可分的;
8、SVM:全稱Support Vector Machine(支持向量機(jī)),在特征空間上找到最佳的超平面使訓(xùn)練集正負(fù)樣本的間隔最大;是解決二分類問題的有監(jiān)督學(xué)習(xí)算法,引入核方法后也可用來解決非線性問題;
9、Adaboost:全稱Adaptive Boosting(自適應(yīng)增強(qiáng)),對(duì)同一個(gè)訓(xùn)練集訓(xùn)練不同的弱分類器,把這些弱分類器集合起來,構(gòu)成一個(gè)更強(qiáng)的強(qiáng)分類器;
10、決策樹算法(Decision Tree):處理訓(xùn)練數(shù)據(jù),構(gòu)建決策樹模型,再對(duì)新數(shù)據(jù)進(jìn)行分類;
11、隨機(jī)森林算法(Random Forest):使用基本單元(決策樹),通過集成學(xué)習(xí)將多棵樹集成;
12、樸素貝葉斯(Naive Bayes):根據(jù)事件的先驗(yàn)知識(shí)描述事件的概率,對(duì)聯(lián)合概率建模來獲得目標(biāo)概率值;
13、神經(jīng)網(wǎng)絡(luò)(Neural Networks):模仿動(dòng)物神經(jīng)網(wǎng)絡(luò)行為特征,將許多個(gè)單一“神經(jīng)元”聯(lián)結(jié)在一起,通過調(diào)整內(nèi)部大量節(jié)點(diǎn)之間相互連接的關(guān)系,進(jìn)行分布式并行信息處理。
總結(jié)
以上是生活随笔為你收集整理的【机器学习】算法面试知识点整理(持续更新中~)的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Window7新建文件夹后刷新才显示的解
- 下一篇: 【VS2005】error LNK200