AI应用开发基础傻瓜书系列目录
AI應用開發基礎傻瓜書系列的目錄~
寫在前面,為啥要出這個系列的教程呢?
總的說來,我們現在有了很多非常厲害的深度學習框架,比如tensorflow,pytorch,paddlepaddle,caffe2等等等等。然而,我們用這些框架在搭建我們自己的深度學習模型的時候,到底做了一些什么樣的操作呢?我們試圖去閱讀框架的源碼來理解框架到底幫助我們做了些什么,但是……很難!很難!很難!因為深度學習是需要加速啦,分布式計算啦,所以框架做了很多很多的優化,也讓像我們這樣的小白難以理解這些框架的源碼。所以,為了幫助大家更進一步的了解神經網絡模型的具體內容,我們整理了這樣一個系列的教程。
對于這份教程的內容,如果沒有額外的說明,我們通常使用如下表格的命名約定
| X | 輸入樣本 |
| Y | 輸入樣本的標簽 |
| Z | 各層運算的結果 |
| A | 激活函數結果 |
| 大寫字母 | 矩陣或矢量,如A,W,B |
| 小寫字母 | 變量,標量,如a,w,b |
適用范圍
沒有各種基礎想學習卻無從下手哀聲嘆氣的玩家,請按時跟蹤最新博客,推導數學公式,跑通代碼,并及時提出問題,以求最高療效;
深度學習小白,有直觀的人工智能的認識,強烈的學習欲望和需求,請在博客的基礎上配合代碼食用,效果更佳;
調參師,訓練過模型,調過參數,想了解框架內各層運算過程,給玄學的調參之路添加一點心理保障;
超級高手,提出您寶貴的意見,給廣大初學者指出一條明路!
前期準備
環境:
windows(Linux也行),python(最好用3),anaconda(或者自己裝numpy之類的),tensorflow(嫌麻煩地請看這里《AI應用開發實戰 -
從零開始配置環境》,tools
for AI(按照鏈接教程走的就不用管這個了)。
自己:
清醒的頭腦(困了的同學請自覺泡茶),紙和筆(如果像跟著推公式的話),鬧鐘(防止久坐按時起來轉轉),厚厚的衣服(有暖氣的同學請忽略)
目錄
- Content
- 01.0-神經網絡的基本工作原理
- 01.1-基本數學導數公式
- 01.2-Python-Numpy庫的點滴
- 02.0-反向傳播與梯度下降
- 02.1-線性反向傳播
- 02.2-非線性反向傳播
- 02.3-梯度下降
- 03.0-損失函數
- 03.1-均方差損失函數
- 03.2-交叉熵損失函數
- 04.0-單入單出單層-單變量線性回歸
- 04.1-最小二乘法
- 04.2-梯度下降法
- 04.3-神經網絡法
- 04.4-梯度下降的三種形式
- 04.5-實現邏輯非門
- 05.0-多入單出單層-多變量線性回歸
- 05.1-正規方程法
- 05.2-神經網絡法
- 05.3-樣本特征數據的歸一化
- 05.4-歸一化的后遺癥
- 05.5-正確的推理方法
- 05.6-歸一化標簽值
- 06.0-多入多出單層神經網絡-多變量線性分類
- 06.1-二分類原理
- 06.2-線性二分類實現
- 06.3-線性二分類結果可視化
- 06.4-多分類原理
- 06.5-線性多分類實現
- 06.6-線性多分類結果可視化
- 07.0-激活函數
- 07.1-擠壓型激活函數
- 07.2-半線性激活函數
- 07.3-用雙曲正切函數分類
- 07.4-實現邏輯與門和或門
- 08.0-單入單出雙層-萬能近似定理
- 08.1-雙層擬合網絡的原理
- 08.2-雙層擬合網絡的實現
- 09.0-多入多出雙層-雙變量非線性分類
- 09.1-實現邏輯異或門
- 09.2-理解二分類的工作原理
- 09.3-非線性多分類
- 09.4-理解多分類的工作原理
- 10.0-調參與優化
- 10.1-權重矩陣初始化
- 10.2-參數調優
- 10.3-搜索最優學習率
- 10.4-梯度下降優化算法
- 10.5-自適應學習率算法
- 11.0-深度學習基礎
- 11.1-三層神經網絡的實現
- 11.2-驗證與測試
- 11.3-梯度檢查
- 11.4-手工測試訓練效果
- 11.5-搭建深度神經網絡框架
- 12.0-卷積神經網絡
- 12.1-卷積
- 12.2-池化
- 14.1-神經網絡模型概述
- 14.2-Windows模型的部署
- 14.3-Android模型的部署
總結
以上是生活随笔為你收集整理的AI应用开发基础傻瓜书系列目录的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: python怎么设置代码执行时间_pyt
- 下一篇: 计算机应用基础教材6,全国2013年自考