深度学习-Tensorflow2.2-卷积神经网络{3}-卷积神经网络CNN基础-11
生活随笔
收集整理的這篇文章主要介紹了
深度学习-Tensorflow2.2-卷积神经网络{3}-卷积神经网络CNN基础-11
小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
CNN 簡介
- 實現(xiàn)對圖像的高準確率識別離不開一種叫做卷積神經(jīng)網(wǎng)絡的深度學習
技術。
卷積神經(jīng)網(wǎng)絡主要應用于計算機視覺相關任務,但它能處理的任務并
不局限于圖像,其實語音識別也是可以使用卷積神經(jīng)網(wǎng)絡。- 我們將使用識別Mnist手寫數(shù)字、cifar10圖像數(shù)據(jù)以
及貓和狗圖像識別數(shù)據(jù)來讓大家對于卷積神經(jīng)網(wǎng)絡
有一個大概的了解。
- 我們將使用識別Mnist手寫數(shù)字、cifar10圖像數(shù)據(jù)以
什么是卷積神經(jīng)網(wǎng)絡?
- 當計算機看到一張圖像(輸入一張圖像)時,它看的是一大堆像素值
。 - 當我們人類對圖像進行分類時,這些數(shù)字毫無用處,可它們卻是計算
機可獲得的唯一輸入。 - 現(xiàn)在的問題是:當你提供給計算機這一數(shù)組后,它將輸出描述該圖像
屬于某一特定分類的概率的數(shù)字(比如:80% 是貓、15% 是狗、5%
是鳥)。 - 我們人類是通過特征來區(qū)分貓和狗,現(xiàn)在想要計算機能夠區(qū)分開貓
和狗圖片,就要計算機搞清楚貓貓狗狗各自的特有特征。 - 計算機可以通過尋找諸如邊緣和曲線之類的低級特點來分類圖片,
繼而通過一系列卷積層級建構出更為抽象的概念。這是 CNN(卷
積神經(jīng)網(wǎng)絡)工作方式的大體概述 - 為什叫卷積神經(jīng)網(wǎng)絡?
- CNN 的確是從視覺皮層的生物學上獲得啟發(fā)的。
- 簡單來說:視覺皮層有小部分細胞對特定部分的視覺區(qū)域敏
感。 - 例如:一些神經(jīng)元只對垂直邊緣興奮,另一些對水平或對角
邊緣興奮。
- CNN 工作概述指的是你挑一張圖像,讓它歷經(jīng)一系列
- 卷積層、
- 非線性層、
- 池化(下采樣(downsampling))層
- 和全連接層,
- 最終得到輸出。正如之前所說,輸出可以是最好地描述了圖像內容的一個單獨
分類或一組分類的概率。
什么是卷積?
- 卷積是指將卷積核應用到某個張量的所有點上,通過將
卷積核在輸入的張量上滑動而生成經(jīng)過濾波處理的張量。
- 一個卷積提取特征的例子:圖像的邊緣檢測
- 一個卷積核
- 應用到圖像的每個像素,結果輸出一個刻畫了所有邊緣的新圖像。
- 總結起來一句話:
- 卷積完成的是 對圖像特征的提取或者說信息匹配,當一個包含某些特征的圖像經(jīng)過一個卷積核的時候,一些卷積核被激活,輸出特定信號。
- 我們訓練區(qū)分貓狗的圖像的時候,卷積核會被訓練,訓練的結果就是,卷積核會對貓和狗 不同特征敏感,輸出不同的結果,從而達到了圖像識別的目的。
- 卷積層 conv2d
- 非線性變換層 relu/sigmiod/tanh
- 池化層 pooling2d
- 全連接層 w*x + b
- 如果沒有這些層,模型很難與復雜模式匹配,因為網(wǎng)絡將有過多的信息填充,也就是其他那些層作用就是突出重要信息,降低噪聲。
- 三個參數(shù):
- ksize 卷積核的大小
- strides 卷積核移動的跨度
- padding 邊緣填充
- 非線性變換層
- 也就是激活函數(shù):
- relu
- sigmiod
- tanh
- 池化層
- layers.MaxPooling2D 最大池化
- 全連接層
- 將最后的輸出與全部特征連接,我們要使用全部的特征,為最后的分類的做出決策。
- 最后配合softmax進行分類
- 整體結構
總結
以上是生活随笔為你收集整理的深度学习-Tensorflow2.2-卷积神经网络{3}-卷积神经网络CNN基础-11的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 深度学习-Tensorflow2.2-t
- 下一篇: 深度学习-Tensorflow2.2-卷