吴恩达机器学习--单变量线性回归【学习笔记】
說明:本文是本人用于記錄學(xué)習(xí)吳恩達(dá)機器學(xué)習(xí)的學(xué)習(xí)筆記,如有不對之處請多多包涵.
作者:愛做夢的90后
一、模型的描述:
下面的這張圖片是對于課程中一些符號的基本的定義:
吳老師列舉的最簡單的單變量線性回歸方程:
二、代價函數(shù)
這節(jié)課的主要目標(biāo)是如何選擇這個模型的兩個參數(shù)
下圖是吳老師的分析怎么將模型轉(zhuǎn)化求解需要的兩個參數(shù):
h(x)的函數(shù)兩個參數(shù)O0設(shè)置為0,將函數(shù)設(shè)置為過原點的直線,之后斜率取不同的值,代入公式,繪制出下圖右邊的代價函數(shù)的圖形。(看了這一節(jié)的課程感覺回到了高中時代,當(dāng)年的數(shù)學(xué)好像就是有這樣的求解)
這次課程的主要目標(biāo)是找到最優(yōu)化的代價函數(shù)
h(x)的兩個參數(shù)取不同的數(shù)值,繪制j函數(shù)3D模式圖如下:
使用等高線圖繪制如下:
使用梯度下降算法來使我們要求解的j函數(shù)最小化,
梯度下降算法定義見下圖:α是學(xué)習(xí)率控制,梯度下降的速度,值越大下降的速度越快,需要注意的一點是θ0,θ1這兩個參數(shù)在更新的時候需要同時更新。
?
轉(zhuǎn)載于:https://www.cnblogs.com/zzb-Dream-90Time/p/9142679.html
總結(jié)
以上是生活随笔為你收集整理的吴恩达机器学习--单变量线性回归【学习笔记】的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 第6次cplus实验
- 下一篇: windows python3.7安装n