支持向量机SVM--线性
文章目錄
- SVM--線性
- 兩個問題:
- 定義
- 支持向量機的優化問題(凸優化問題、二次規劃問題)
- 二次規劃問題
- 梯度下降
支持向量機–SVM 支持向量機的發明人--Vapink 樣本數很少的情況下使用支持向量機算法會得到一個比較好的結果
SVM–線性
概念:能畫一條直線將訓練樣本集分為兩類,如下圖class1與class2 這樣的樣本集被稱為--線性可分樣本集(Linear Separable) 樣本集無法畫一條直線將其分開--非線性可分樣本集(Non-Linear Separable)
兩個問題:
1.有以下三條線,那條線是最好的? (2)號線,(2)號線的容錯率是最大的\\
2.怎么有一個標準來定義(2)號線? 定義一個標準(性能指標),(2)號線的性能指標最大 將線平行的向兩側移動,直到某個樣本在直線上為止,兩條線的距離為d,d為性能指標 使得樣本到直線最小距離的最大,且該直線到兩不同標簽樣本點最近距離一樣(處在中間,到兩側距離都為d/2)d:間隔(Margin)
直線向兩側移動擦到的向量(樣本點)叫支持向量(畫出直線的方法只與支持向量有關,這也就是為什么支持向量能應用在小樣本的訓練上)
定義
定義訓練數據與標簽 ( x 1 , y 1 ) , ( x 2 , y 2 ) , ( x 3 , y 3 ) . . . . ( x n , y n ) x 為向量, y 為標簽, X = [ x 11 x 12 x 13 ] x 1 , x 2 , x 3 為樣本特征 ( 通常在實際中樣本特征有很多,表示有很多維度 ) y i 表示標簽,為了推導方便 y i 取 ± 1 定義訓練數據與標簽(x_1,y_1),(x_2,y_2),(x_3,y_3)....(x_n,y_n)\hspace{50cm} \\ x為向量,y為標簽,X= \begin{equation} \begin{bmatrix} x_{11} \\ x_{12} \\ x_{13} \end{bmatrix} \end{equation} \\ x_1,x_2,x_3為樣本特征 \left( 通常在實際中樣本特征有很多,表示有很多維度 \right) \\ y_i表示標簽,為了推導方便y_i取\pm1 定義訓練數據與標簽(x1?,y1?),(x2?,y2?),(x3?,y3?)....(xn?,yn?)x為向量,y為標簽,X=? ??x11?x12?x13??? ????x1?,x2?,x3?為樣本特征(通常在實際中樣本特征有很多,表示有很多維度)yi?表示標簽,為了推導方便yi?取±1
2.
線性模型 : ( W , b ) , W ? X + b = 0 ( 超平面 ) W = [ w 11 w 12 w 13 ] , b 為常數 通過訓練的數據,在限定模型的下算出待定參數 W 和 b ,當確定 W 和 b 取值后這個算法就完成了 線性模型:\left( W,b\right),\mathbf{W}^\intercal X+b=0\left( 超平面\right)\hspace{50cm} \\W= \begin{equation} \begin{bmatrix} w_{11} \\ w_{12} \\ w_{13} \end{bmatrix} \end{equation},b為常數 \\ 通過訓練的數據,在限定模型的下算出待定參數W和b,當確定W和b取值后這個算法就完成了\hspace{50cm} 線性模型:(W,b),W?X+b=0(超平面)W=? ??w11?w12?w13??? ????,b為常數通過訓練的數據,在限定模型的下算出待定參數W和b,當確定W和b取值后這個算法就完成了
3.一個訓練集線性可分(Linear Separable)是指:
{ ( x i , y i ) } , i = 1 ~ n ? ( W , b ) , 使 : 對 ? i = 1 ~ n , 有 : ( 1 ) 若 y i = + 1 , 則 W ? X + b ≥ 0 ( 2 ) 若 y i = ? 1 , 則 W ? X + b < 0 即 , y i [ W ? X i + b ] ≥ 0 \left\{ (x_i,y_i)\right\},i=1\sim n\\ {\exists}(W,b),使: 對{\forall}i=1\sim n,有:\\ (1)若y_i=+1,則\mathbf{W}^\intercal X+b\ge0\\ (2)若y_i=-1,則\mathbf{W}^\intercal X+b<0\\ 即,y_i\begin{equation} \begin{bmatrix} \mathbf{W}^\intercal X_i+b \\ \end{bmatrix} \end{equation}\ge0 {(xi?,yi?)},i=1~n?(W,b),使:對?i=1~n,有:(1)若yi?=+1,則W?X+b≥0(2)若yi?=?1,則W?X+b<0即,yi?[W?Xi?+b?]??≥0
使得間隔最大的超平面是如何構造的?
支持向量機的優化問題(凸優化問題、二次規劃問題)
1. 最小化 ( 1 2 ) ∣ ∣ W ∣ ∣ 2 2. 限制條件 ( S u b j e c t t o ) : y i [ W ? x i + b ] ≥ 1 ( i = 1 ~ n ) ( 支持向量到超平面的距離為 1 ,則所有其他向量到超平面距離大于 1 ,標簽 y i 保證距離為正, y i = ± 1 ) 1.最小化(\frac{1}{2})||W||^2 \hspace{50cm} \\ 2.限制條件(Subject\ to):y_i\begin{equation} \begin{bmatrix} \mathbf{W}^\intercal x_i+b \\ \end{bmatrix} \end{equation}\ge1(i=1\sim n)(支持向量到超平面的距離為1,則所有其他向量到超平面距離大于1,標簽y_i保證距離為正,y_i=\pm1) 1.最小化(21?)∣∣W∣∣22.限制條件(Subject?to):yi?[W?xi?+b?]??≥1(i=1~n)(支持向量到超平面的距離為1,則所有其他向量到超平面距離大于1,標簽yi?保證距離為正,yi?=±1)
事實一 : W ? x + b = 0 與 a W ? x + b = 0 是在同一平面, a ∈ R + 若 ( W , b ) 滿足公式,則 ( a W , a b ) 也滿足公式 ( 1 ) 事實二 : 點到平面的距離公式 : 平面 : w 1 x + w 2 y + b = 0 ( w 1 x 1 + w 2 x 2 + b = 0 , 即 [ w 1 , w 2 ] [ x 1 x 2 ] + b = 0 ) , 則 ( x 0 , y 0 ) 到此平面的距離為 : d = ∣ w 1 x 0 + w 2 y 0 + b ∣ w 1 2 + w 2 2 向量 X 0 到超平面 W ? x + b = 0 ( [ w 1 , w 2 , . . . w n ] 向量 X 0 到超平面 W ? x + b = 0 ( [ w 1 , w 2 , . . . w n ] [ x 1 x 2 . . x n ] + b = 0 ) 的距離 : d = ∣ W ? X 0 + b ∣ ∣ ∣ W ∣ ∣ 事實一:\mathbf{W}^\intercal x+b=0與a\mathbf{W}^\intercal x+b=0是在同一平面,a\in R^+\hspace{50cm}\\ 若(W,b)滿足公式,則(aW,ab)也滿足公式(1)\hspace{50cm} \\ \\ 事實二:點到平面的距離公式: \hspace{50cm}\\ 平面:w_1x+w_2y+b=0(w_1x_1+w_2x_2+b=0,即[w1,w2] \begin{bmatrix} x_{1} \\ x_{2} \\ \end{bmatrix}+b=0), 則(x_0,y_0)到此平面的距離為: \hspace{50cm}\\ d=\frac{|w_1x_0+w_2y_0+b|}{\sqrt{w_1^2+w_2^2}}\\ \\ 向量X_0到超平面\mathbf{W}^\intercal x+b=0([w_1,w_2,...w_n]向量X_0到超平面\mathbf{W}^\intercal x+b=0([w_1,w_2,...w_n] \begin{bmatrix} x_{1} \\ x_{2}\\ .\\ .\\ x_{n} \end{bmatrix} +b=0 )的距離: \\ d=\frac{|\mathbf{W}^\intercal X_0+b|}{||W||} 事實一:W?x+b=0與aW?x+b=0是在同一平面,a∈R+若(W,b)滿足公式,則(aW,ab)也滿足公式(1)事實二:點到平面的距離公式:平面:w1?x+w2?y+b=0(w1?x1?+w2?x2?+b=0,即[w1,w2][x1?x2??]+b=0),則(x0?,y0?)到此平面的距離為:d=w12?+w22??∣w1?x0?+w2?y0?+b∣?向量X0?到超平面W?x+b=0([w1?,w2?,...wn?]向量X0?到超平面W?x+b=0([w1?,w2?,...wn?]? ??x1?x2?..xn??? ??+b=0)的距離:d=∣∣W∣∣∣W?X0?+b∣?
我們可以用 a 去縮放 ( W , b ) ? > ( a W , a b ) 最終使在 ( 所有 ) 支持向量 X 0 上有 : ∣ W ? X 0 + b ∣ = 1 ( 分子為 1 ) ,例如 : d = ∣ W 1 ? X 0 + b 1 ∣ ∣ ∣ W 1 ∣ ∣ = ∣ a W 1 ? X 0 + a b 1 ∣ = 1 ∣ ∣ a W 1 ∣ ∣ = 1 ∣ ∣ W ∣ ∣ 此時,支持向量機與平面的距離只與 ∣ ∣ W ∣ ∣ 有關 : d = 1 ∣ ∣ W ∣ ∣ 我們可以用a去縮放(W,b)->(aW,ab) 最終使在(所有)支持向量X_0上有:\hspace{50cm} \\ |\mathbf{W}^\intercal X_0+b|=1 (分子為1),例如:\\ d=\frac{|\mathbf{W_1}^\intercal X_0+b_1|}{||W_1||}=\frac{|\mathbf{aW_1}^\intercal X_0+ab_1|=1}{||aW_1||}=\frac{1}{||W||}\\ 此時,支持向量機與平面的距離只與||W||有關:\hspace{50cm} \\ d=\frac{1}{||W||} 我們可以用a去縮放(W,b)?>(aW,ab)最終使在(所有)支持向量X0?上有:∣W?X0?+b∣=1(分子為1),例如:d=∣∣W1?∣∣∣W1??X0?+b1?∣?=∣∣aW1?∣∣∣aW1??X0?+ab1?∣=1?=∣∣W∣∣1?此時,支持向量機與平面的距離只與∣∣W∣∣有關:d=∣∣W∣∣1?
二次規劃問題
二次規劃: 1.目標函數是二次項 2.限制條件一次項 (圖像為二元函數) 要么無解,要么只有一個極值梯度下降
我的另一篇博客–梯度下降
總結
以上是生活随笔為你收集整理的支持向量机SVM--线性的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: matplotlib:图形绘制常用增加修
- 下一篇: c语言答案-贾宗璞 许合利,C语言习题答