第11章 支撑向量机SVM
生活随笔
收集整理的這篇文章主要介紹了
第11章 支撑向量机SVM
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
支持向量機(jī)(support vector machines)是一種二分類模型,它的目的是尋找一個(gè)超平面來對樣本進(jìn)行分割,分割的原則是間隔最大化,最終轉(zhuǎn)化為一個(gè)凸二次規(guī)劃問題來求解。由簡至繁的模型包括:
- 當(dāng)訓(xùn)練樣本線性可分時(shí),通過硬間隔最大化,學(xué)習(xí)一個(gè)線性可分支持向量機(jī);
- 當(dāng)訓(xùn)練樣本近似線性可分時(shí),通過軟間隔最大化,學(xué)習(xí)一個(gè)線性支持向量機(jī);
- 當(dāng)訓(xùn)練樣本線性不可分時(shí),通過核技巧和軟間隔最大化,學(xué)習(xí)一個(gè)非線性支持向量機(jī);
https://blog.csdn.net/sinat_20177327/article/details/79729551
Support?Vector?Machine
,?問題:如果決策邊界不唯一
,
,
?
,?
,?
,?
,?
?
,?
,?s.t.(such that):之前都是全局最優(yōu)化問題,這次是有條件的最優(yōu)化問題
hard?margin?svm:首先保證能正確的分類
,soft?margin?SVM:
,?若是這種更不行了,:因此需soft?margin?SVM
,?
,?
,此時(shí)稱L1正則
?scikit-learn中的SVM
?實(shí)際使用SVM:和kNN一樣,要做數(shù)據(jù)標(biāo)椎化處理!
涉及距離!!!
, def plot_decision_boundary(model, axis):x0, x1 = np.meshgrid(np.linspace(axis[0], axis[1], int((axis[1] - axis[0]) * 100)).reshape(-1,1),np.linspace(axis[2], axis[3], int((axis[3] - axis[2]) * 100)).reshape(-1,1))X_new = np.c_[x0.ravel(), x1.ravel()]y_predict = model.predict(X_new)zz = y_predict.reshape(x0.shape)from matplotlib.colors import ListedColormapcustom_cmp = ListedColormap(['#EF9A9A', '#FFF59D', '#90CAF9'])plt.contourf(x0, x1, zz,cmap=custom_cmp)plot_decision_boundary(svc,axis=[-3,3,-3,3]) plt.scatter(X_standard[y==0,0],X_standard[y==0,1]) plt.scatter(X_standard[y==1,0],X_standard[y==1,1]) plt.show() plot_decision_boundary?什么是核函數(shù)?
,
,
?
,,?
,?
高斯核函數(shù)亦稱徑向基函數(shù):
?
?
,?
,?
,?scikit-learn中的高斯核函數(shù):
?SVM思想解決回歸問題
?
總結(jié)
以上是生活随笔為你收集整理的第11章 支撑向量机SVM的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 第10章 评价分类结果
- 下一篇: 第12章 决策树