机器学习实战读书笔记(1)
機器學習的主要任務:
分類:將實例數據劃分到合適的分類中
回歸:主要用于預測數值型數據
分類和回歸屬于監督學習,監督學習必須知道預測什么,即目標變量的分類信息
?
無監督學習:數據沒有類別信息,也不會給定目標值。
在無監督學習中,將數據集合分成由類似的對象組成的多個類的過程稱為聚類;
將尋找描述數據統計值的過程稱之為密度估計。
| ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?監督學習的用途 |
| k-近鄰算法? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?線性回歸 樸素貝葉斯算法? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 局部加權線性回歸 支持向量機? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ?Ridge回歸 決策樹? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? Lassso最小回歸系數估計 |
?
| 無監督學習的用途 |
| k-均值? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? 最大期望算法 DBSCAN? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? Parzen窗設計 |
1. 輸入任意數組:
from numpy import * print(random.rand(4,4))輸出:
[[0.83142886 0.37192316 0.25799572 0.01936341][0.70383839 0.10545903 0.31602348 0.26564487][0.62372209 0.8856153 0.04425143 0.09811542][0.03086031 0.70999438 0.50756522 0.89523833]]2. 矩陣
from numpy import * rd=random.rand(4,4) #打印隨機數組 print(rd) rm=mat(rd) #打印數組轉化后的矩陣 print(rm) #打印矩陣的逆運算 print(rm.I)輸出
[[0.32618362 0.88181772 0.73023717 0.71091901][0.75438306 0.55220343 0.21725572 0.83780348][0.48311814 0.99230996 0.75381116 0.23627349][0.22763927 0.70057059 0.81020161 0.88443622]] [[0.32618362 0.88181772 0.73023717 0.71091901][0.75438306 0.55220343 0.21725572 0.83780348][0.48311814 0.99230996 0.75381116 0.23627349][0.22763927 0.70057059 0.81020161 0.88443622]] [[-5.21507507 1.46536287 2.26699771 2.19821216][ 7.10337898 -0.59340981 -1.65174532 -4.70639109][-6.54479433 -0.26247007 2.55419703 4.8270615 ][ 1.71107913 0.33332533 -1.61493618 -0.12904628]]?
?
轉載于:https://www.cnblogs.com/davidwang456/p/8579277.html
總結
以上是生活随笔為你收集整理的机器学习实战读书笔记(1)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: No operations allowe
- 下一篇: 机器学习实战读书笔记(2)决策树