李宏毅深度学习——分类
?分類可用于信用得分、醫療診斷、臉部識別等
input是寶可夢精靈,output是屬性
能不能用這些得分來預測寶可夢的類別
屬性相克表
利用回歸,若數據input到regression的model里的數值接近于1就被分到第一類,若數據input到regression的model里的數值接近于0就被分到第二類里面
第二幅圖,若分界線仍然為綠線,右下角這些點input到regression的model里,數值會遠大于1。因此綠線會向下傾斜到紫線的位置上,這樣效果并不好
mutiple class:存在問題class2和class1比較近,class3和class2比較近,實際上如果不存在這樣的關系就會存在問題
損失函數就是指錯誤的次數
?
上面紅色框的這四個值,我們希望通過training data來估測出來?,接下去通過寶可夢的例子,來解釋四個方框里面的概率是如何求出來的
?
利用防御力和特殊防御力來表示精靈
假設這些點是從高斯分布里面采樣而來的
由正態分布推廣的n維正態分布的概率密度函數(n>=2)?
其中X為擁有兩個維度的隨機向量,μ為期待值向量,∑為協方差矩陣。
利用79個點估計出均值和協方差矩陣,將這個new x代入這個function里面,可以算出這個點屬于這個屬性的概率(不是一個點)
?關于如何求解這個均值和協方差矩陣,需要使用最大似然估計的方法
求L這個函數的最大值,由此求出Sigma和mu的值?
?
就算是使用了寶可夢的7個feature結果仍然是不理想的?
要對模型進行適當修正來找出原因
為了使得最終的準確率提升,比較常見的做法是不同的class可以使用相同的sigma,不同的class使用不同的sigma會讓參數變多,容易造成overfitting的情況
?
假設這些幾率分布是independent的話,我們可以做這樣的假設。
假設分開來都是一維的正態分布,那么原來那個高維度的高斯分布它的協方差矩陣的非對角線元素的值都是0,這樣簡化了模型,但是哦做出來的效果不好。
有個feature,是binary feature,就可以使用伯努利的分布
如果所有的維度都是獨立的,那就使用樸素貝葉斯
?Warning of Math
?最終的結論:這也可以解釋為什么sigma1=sigma2的時候,boundary是linear的
總結
以上是生活随笔為你收集整理的李宏毅深度学习——分类的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 李宏毅深度学习——优化方法
- 下一篇: 李宏毅深度学习——逻辑回归