[机器学习]回归--Polinomial Regression 多项式回归
生活随笔
收集整理的這篇文章主要介紹了
[机器学习]回归--Polinomial Regression 多项式回归
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
首先我們需要明確一個概念,我們討論的線性或者非線性針對的是自變量的系數,而非自變量本身,所以這樣的話不管自變量如何變化,自變量的系數如果符合線性我們就說這是線性的。所以這里我們也就可以描述一下多項式線性回歸。
由此公式我們可以看出,自變量只有一個,就是x,只不過x的級數(degree)不同而已。
我們這次用的數據是公司內部不同的promotion level所對應的薪資
下面我們來看一下在Python中是如何實現的
import numpy as np import matplotlib.pyplot as plt import pandas as pddataset = pd.read_csv('Position_Salaries.csv') X = dataset.iloc[:, 1:2].values # 這里注意:1:2其實只有第一列,與1 的區別是這表示的是一個matrix矩陣,而非單一向量。 y = dataset.iloc[:, 2].values接下來,進入正題,開始多項式線性回歸:
from sklearn.preprocessing import PolynomialFeatures poly_reg = PolynomialFeatures(degree = 1) #degree 就是自變量需要的維度 X_poly = poly_reg.fit_transform(X) lin_reg_2 = LinearRegression() lin_reg_2.fit(X_poly, y)這個過程我們設置了一元一次的自變量:degree=1 意思是自變量只有一次,相當于簡單線性回歸
我們在圖像中表示一下:
此圖像與用簡單線性回歸表示的圖像是一樣的
# 簡單線性回歸 圖像中顯示 plt.scatter(X, y, color = 'red') plt.plot(X, lin_reg.predict(X), color = 'blue') plt.title('Truth or Bluff (Linear Regression)') plt.xlabel('Position level') plt.ylabel('Salary') plt.show()下面我們試著改變一下維度,將degree設置成2,其他不改變,執行一下代碼看看圖像:
我們可以發現整個趨勢符合數據的分布。
我們將degree改成3 和 4 看看結果
我們可以發現,當degree=4的時候,基本上已經符合所有點的分布了
我們通過拆分橫坐標將圖像變得平滑一些:
X_grid = np.arange(min(X), max(X), 0.1) X_grid = X_grid.reshape((len(X_grid), 1)) plt.scatter(X, y, color = 'red') plt.plot(X_grid, lin_reg_2.predict(poly_reg.fit_transform(X_grid)), color = 'blue') plt.title('Truth or Bluff (Polynomial Regression)') plt.xlabel('Position level') plt.ylabel('Salary') plt.show()下面我們給出一個測試值來試試結果 (6,10)
lin_reg_2.predict(poly_reg.fit_transform(6)) lin_reg_2.predict(poly_reg.fit_transform(10))與實際值還是比較接近的。
總結
以上是生活随笔為你收集整理的[机器学习]回归--Polinomial Regression 多项式回归的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 单调栈 洛谷 P3400仓鼠窝 P119
- 下一篇: 网友用 7 斤铜柱为 i9 被动散热,跑