YOLOv3中darknet的各种层的说明
激活函數:
很多層里面有 activation 這一項,這是激活函數,我看到的配置文件里面最常用的就3個: LINEAR:啥都不干 RELU :值 > 0時保持不變,小于0時置0 LEAKY :值 > 0時保持不變,小于0時值 * 0.1 (類似于caffe的prelu層)卷積層:
[convolutional] filters=96 # 輸出blob通道數 size=11 # 卷積核尺寸 (長寬相同),等價于caffe里面的kernel_w, kernel_h stride=4 # 移動步長 pad=0 # 是否在邊緣補 0 最終的padding為size/2(當pad = 1) activation=relu # Relu 激活函數shortcut 層:
類似于caffe 的 eltwise 層(add),也就是把兩個c h w都相同的兩個層相加成一個相同c h w的層。??????[shortcut]from=-3 #和往前數第三個層相加 activation=linearroute 層:
route layer層主要是把對應的層連接在一起,在darknet 網絡結構中,要求輸入層對應的width、height必須相等,如果不相等,則把route layer層的輸出w,h,c都設置為0。例如輸入層1:26*26*256 輸入層2:26*26*128 則route layer輸出為:26*26*(256+128) 它具有可以具有一個或兩個值的屬性層。當屬性只有一個值時,它會輸出由該值索引的網絡層的特征圖。類似于caffe的concat層。
[route]
layers = -1, 61
upsample 層:
上采樣,功能類似最鄰近差值縮放算法
???????[upsample]
stride=2
yolo層(YOLOV3新增的層):???????
[yolo]
mask = 0,1,2 #當前屬于第幾個預選框
anchors = 10,13, 16,30, 33,23, 30,61, 62,45, 59,119, 116,90, 156,198, 373,326 #預選框, 將樣本通過k-means算法計算出來的值
classes=80 #網絡需要識別的物體種類數
num=9 #預選框的個數,即anchors總數
jitter=.3 #通過抖動增加噪聲來抑制過擬合
ignore_thresh = .7
truth_thresh = 1
random=1 #設置為0,表示關閉多尺度訓練(顯存小可以設置0)
總結
以上是生活随笔為你收集整理的YOLOv3中darknet的各种层的说明的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 深度学习数学相关知识
- 下一篇: liblapack.so.3: unde