深度学习中的一些英文解释
A:
(1)anchors:錨點。(anchors(錨點)定義在RPN網絡中)
B:
(1)bounding box:預測邊界框。
(2)Botton-up 3D proposal generation:自底向上的3D預選目標框的生成。
(3)Bin-based 3D Box Generation:基于框(區間)的3d預目標生成。
(4)batch-size: 1次迭代所使用的樣本量。
(5)Batches(批次):在訓練神經網絡的同時,不用一次發送整個輸入,我們將輸入分成幾個隨機大小相等的塊。與整個數據集一次性饋送到網絡時建立的模型相比,批量訓練數據使得模型更加廣義化。
C:
(1)Canonical 3D Box Refinment:3D目標框的精細優化。
(2)convolution kernel(卷積核):圖像處理時,給定輸入圖像,在輸出圖像中每一個像素是輸入圖像中一個小區域中像素的加權平均,其中權值由一個函數定義,這個函數(卷積層的權值)稱為卷積核。
D:
(1)Dropout(丟棄)——Dropout 是一種正則化技術,可防止網絡過度擬合套。顧名思義,在訓練期間,隱藏層中的一定數量的神經元被隨機地丟棄。這意味著訓練發生在神經網絡的不同組合的神經網絡的幾個架構上。你可以將 Dropout 視為一種綜合技術,然后將多個網絡的輸出用于產生最終輸出。
E:
(1)epoch(周期): 1個epoch表示過了1遍訓練集中的所有樣本。周期被定義為向前和向后傳播中所有批次的單次訓練迭代。這意味著 1 個周期是整個輸入數據的單次向前和向后傳遞。
(2)Exploding Gradient Problem(激增梯度問題)——這與消失的梯度問題完全相反,激活函數的梯度過大。在反向傳播期間,它使特定節點的權重相對于其他節點的權重非常高,這使得它們不重要。這可以通過剪切梯度來輕松解決,使其不超過一定值
F:
(1)foreground point:前景點(前景foreground是你感興趣的目標對象。背景background正好相反。)
G:
(1)Generalization Ability(泛化能力):是指機器學習算法對新鮮樣本的適應能力。 學習的目的是學到隱含在數據背后的規律,對具有同一規律的學習集以外的數據,經過訓練的網絡也能給出合適的輸出,該能力稱為泛化能力。
(2)ground truth:真實標簽
(3)ground-truth?bounding boxes:人為在訓練集圖像中標出要檢測物體的大概范圍,也就是人為對數據進行標注的框。
H:
I:
(1)intersection over union( IOU):交并比。
J:
K:
L:
(1)learning_rate(學習率):控制模型的學習進度,即學習率決定了權值更新的速度,設置得太大會使結果超過最優值,太小會使下降速度過慢。
M:
(1)mAP(mean average percision):平均精度。
(2)mask:掩膜
分類的結果叫label。
分割的結果叫mask。
因為分割結果通常會半透明的覆蓋在待分割目標上,所以就叫它掩膜吧。
圖片中有一個圓形物體,你從一張紙上剪掉一個和該物體一模一樣大小的圓,把這張紙蒙在圖片上,這時候你只能看見這個圓形物體,這張紙就是mask了。
N:
(1)NMS(Non-Maximum Suppression):非極大值抑制。
NMS即非極大抑制,顧名思義就是抑制不是極大值的元素,搜索局部的極大值。
在物體檢測中,NMS?應用十分廣泛,其目的是為了清除多余的框,找到最佳的物體檢測的位置。
(2)norm(范數):是具有“長度”概念的函數。在線性代數、泛函分析及相關的數學領域,是一個函數,其為向量空間內的所有向量賦予非零的正長度或大小。另一方面,半范數(英語:seminorm)可以為非零的向量賦予零長度。
O:
(1)offset:偏移量
P:
(1)Point Cloud Encoder-Decoder:點云的編碼器和解碼器
(2)Point-wise Feature vector:點云中各個點的特征(點云特征)
(3)Point -wise:逐點(每個點)
?
Q:
R:
(1)Receptive Field(感受野):在卷積神經網絡中,每一層輸出的特征圖(feature map)上的像素點在輸入圖片上映射的區域大小。再通俗點的解釋是,特征圖上的一個點對應輸入圖上的區域,如圖所示。
(2)Robustness(魯棒性):魯棒是Robust的音譯,也就是健壯和強壯的意思。它是在異常和危險情況下系統生存的關鍵。比如說,計算機軟件在輸入錯誤、磁盤故障、網絡過載或有意攻擊情況下,能否不死機、不崩潰,就是該軟件的魯棒性。所謂“魯棒性”,是指控制系統在一定(結構,大小)的參數攝動下,維持其它某些性能的特性。根據對性能的不同定義,可分為穩定魯棒性和性能魯棒性。以閉環系統的魯棒性作為目標設計得到的固定控制器稱為魯棒控制器。
(3)RPN(RegionProposal Network):區域生成網絡。
?
S:
(1)Selective Search算法:
(2)Supervised pre-training(有監督訓練):
?
T:
(1)Transfer Learning:遷移學習
U:
V:
(1)Vanishing Gradient Problem:消失梯度問題(Vanishing Gradient Problem)——激活函數的梯度非常小的情況下會出現消失梯度問題。在權重乘以這些低梯度時的反向傳播過程中,它們往往變得非常小,并且隨著網絡進一步深入而"消失"。這使得神經網絡忘記了長距離依賴。這對循環神經網絡來說是一個問題,長期依賴對于網絡來說是非常重要的。這可以通過使用不具有小梯度的激活函數 ReLu 來解決。
W:
X:
Y:
Z:
?
epoch、 iteration和batchsize
深度學習中經常看到epoch、 iteration和batchsize,下面按自己的理解說說這三個的區別:
(1)batchsize:批大小。在深度學習中,一般采用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練;
(2)iteration:1個iteration等于使用batchsize個樣本訓練一次;
(3)epoch:1個epoch等于使用訓練集中的全部樣本訓練一次;
舉個例子,訓練集有1000個樣本,batchsize=10,那么:
訓練完整個樣本集需要:100次iteration,1次epoch。
對于我處理的Dataset, Training Dataset :12個seq_x folder, 每一個folder有149個圖片。所以總共有1788個圖片。
若batchsize =12, 那么 iteration = 1788 / 12 = 149, epoch可以自己設定。
?
?
?
總結
以上是生活随笔為你收集整理的深度学习中的一些英文解释的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 使用system语句出现不明确问题
- 下一篇: 读自动驾驶激光雷达物体检测技术(Lida