久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

tensorflow学习笔记——ResNet

發布時間:2024/4/24 综合教程 34 生活家
生活随笔 收集整理的這篇文章主要介紹了 tensorflow学习笔记——ResNet 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

  自2012年AlexNet提出以來,圖像分類、目標檢測等一系列領域都被卷積神經網絡CNN統治著。接下來的時間里,人們不斷設計新的深度學習網絡模型來獲得更好的訓練效果。一般而言,許多網絡結構的改進(例如從VGG到ResNet可以給很多不同的計算機視覺領域帶來進一步性能的提高。

  ResNet(Residual Neural Network)由微軟研究員的 Kaiming He 等四位華人提出,通過使用 Residual Uint 成功訓練152層深的神經網絡,在 ILSVRC 2015比賽中獲得了冠軍,取得了 3.57%的top-5 的錯誤率,同時參數量卻比 VGGNet低,效果非常突出,因為它“簡單與實用”并存,之后很多方法都建立在ResNet50或者ResNet101的基礎上完成的,檢測,分割,識別等領域都紛紛使用ResNet,Alpha zero 也使用了ResNet,所以可見ResNet確實很好用。ResNet的結構可以極快的加速超深神經網絡的訓練,模型的準確率也有非常大的提升。之前我們學習了Inception V3,而Inception V4則是將 Inception Module和ResNet相結合??梢钥吹絉esNet是一個推廣性非常好的網絡結構,甚至可以直接應用到 Inception Net中。

1,Highway Network簡介

  在ResNet之前,瑞士教授 Schmidhuber 提出了 Highway Network,原理與ResNet很相似。這位Schmidhuber 教授同時也是 LSTM網絡的發明者,而且是早在1997年發明的,可謂是神經網絡領域元老級的學者。通常認為神經網絡的深度對其性能非常重要,但是網絡越深其訓練難度越大,Highway Network的目標就是解決極深的神經網絡難以訓練的問題。Highway Network相當于修改了每一層的激活函數,此前的激活函數只是對輸入做一個非線性變換 y = H(x, WH) ,Highway Network 則允許保留一定比例的原始輸入 x,即 y =H(x, WH) .T(x, WT) + x . C(x, WC) ,其中 T是變換系數,C為保留系數。論文中令 C= 1 - T。這樣前面一層的信息,有一定比例可以不經過矩陣乘法和非線性變換,直接傳輸到下一層,仿佛一條信息高速公路,因而得名 Highway Network。Highway Network主要通過 gating units 學習如何控制網絡中的信息流,即學習原理信息應保留的比例。這個可學習的 gating機制,正是借鑒自Schmidhuber 教授早年的 LSTM 訓練神經網絡中的gating。幾百乃至上千層深的 Highway Network可以直接使用梯度下降算法訓練,并可以配合多種非線性激活函數,學習極深的神經網絡現在變得可行了。事實上,Highway Network 的設計在理論上允許其訓練任意深的網絡,其優化方法基本上與網絡的深度獨立,而傳統的神經網絡結構則對深度非常敏感,訓練復雜度隨著深度增加而急劇增加。

2,模型加深存在的問題

  ResNet 和 HighWay Network非常類似,也就是允許原始輸入信息直接傳輸到后面的層中。ResNet最初的靈感來自這個問題:在不斷加神經網絡的深度時,會出現一個 Degradation 的問題,即準確率會先上升然后達到飽和,再持續增加深度則會導致準確率下降。這并不是一個過擬合的問題,因為不光在測試機上誤差增大,訓練集本身誤差也會增大。假設有一個比較淺的網絡達到了飽和的準確率,那么后面再加上幾個 y=x 的全等映射層,起碼誤差不會增加,即更深的網絡不應該帶來訓練集上誤差上升。而這里提到的使用全等映射直接將前一層輸出傳到后面的思想,就是 ResNet的靈感來源。假定某段神經網絡的輸入是 x,期望輸出是 H(x),如果我們直接把輸入 x 傳到輸出作為初始結果,那么此時我們需要學習的目標就是 F(x) = H(x) - x。如下圖所示,這就是一個ResNet的殘差學習單元(Residual Unit),ResNet相當于將學習目標改變了,不再是學習一個完整的輸出 H(x),只是輸出和輸入的差別 H(x) - x,即殘差。

  如下圖所示,CIFIR10 數據的一個實驗,左側為訓練誤差,右側是測試誤差,不光在測試集上誤差比較大,訓練集本身的誤差也非常大。

  隨著網絡越深,精準度的變化如下圖:

  通過實驗可以發現:隨著網絡層級的不斷增加,模型精度不斷得到提升,而當網絡層級增加到一定的數目以后,訓練精度和測試精度迅速下降,這說明當網絡變得很深以后,深度網絡變得更加難以訓練了。

3,為什么深度模型難以訓練

  為什么隨著網絡層級越深,模型效果卻變差了呢?

3.1 鏈式法則與梯度彌散

  下圖是一個簡單的神經網絡圖,由輸入層,隱含層,輸出層構成:

  回想一下神經網絡反向傳播的原理,先通過正向傳播計算出結果 output,然后通過與樣本比較得出誤差值 Etotal:

  根據誤差結果,利用著名的“鏈式法則”求偏導,使結果誤差反向傳播從而得出權重w調整的梯度。下圖是輸出結果到隱含層的反向傳播過程(隱含層到輸入層的反向傳播過程也是類似):

  通過不斷迭代,對參數矩陣進行不斷調整后,使得輸出結果的誤差值更小,使輸出結果與事實更加接近。

  從上面的過程來看,神經網絡在反向傳播過程中要不斷地傳播梯度,而當網絡層數加深時,梯度在傳播過程中會逐漸消失(假如采用Sigmoid函數,對于幅度為1的信號,每向后傳遞一層,梯度就衰減為原來的 0.25,層數越多,衰減越厲害),導致無法對前面網絡層的權重進行有效的調整。

3.2 1.01365 = 37.783 與 0.99 365 = 0.0255

4,ResNet的特點

  假設:假如有一個比較淺網絡(Shallow Net)的準確率達到了飽和,那么后面再加上幾個 y = x 的恒等映射(Identity Mappings),按理說,即使準確率不能再提速了,起碼誤差不會增加(也即更深的網絡不應該帶來訓練集上誤差的上升),但是實驗證明準確率下降了,這說明網絡越深,訓練難度越大。而這里提到的使用恒等映射直接將前一層輸出傳到后面的思想,便是著名深度殘差網絡ResNet的靈感來源。

  ResNet引入了殘差網絡結構(residual Network),通過這種殘差網絡結構,可以把網絡層弄得很深(據說目前可以達到1000多層),并且最終的分類效果也非常好,殘差網絡的基本結構如下圖所示,很明顯,該圖示帶有跳躍結構的:

  F(x) 是一個殘差映射 w, r, t 恒等,如果說恒等是理想,很容易將權重值設定為0,如果理想化映射更接近于恒等映射,便更容易發現微小波動。

  殘差網絡借鑒了高速網絡(Highway Network)的跨層鏈接思想,但對其進行修改(殘差項原本是帶權值的,但是ResNet用恒等映射代替之)

假定某段神經網絡的輸入是x,期望輸出是H(x),即H(x)是期望的復雜潛在映射,如果是要學習這樣的模型,則訓練難度會比較大;

回想前面的假設,如果已經學習到較飽和的準確率(或者當發現下層的誤差變大時),那么接下來的學習目標就轉變為恒等映射的學習,也就是使輸入x近似于輸出H(x),以保持在后面的層次中不會造成精度下降。

在上圖的殘差網絡結構圖中,通過“shortcut connections(捷徑連接)”的方式,直接把輸入x傳到輸出作為初始結果,輸出結果為H(x)=F(x)+x,當F(x)=0時,那么H(x)=x,也就是上面所提到的恒等映射。于是,ResNet相當于將學習目標改變了,不再是學習一個完整的輸出,而是目標值H(X)和x的差值,也就是所謂的殘差F(x) = H(x)-x,因此,后面的訓練目標就是要將殘差結果逼近于0,使到隨著網絡加深,準確率不下降。

這種殘差跳躍式的結構,打破了傳統的神經網絡n-1層的輸出只能給n層作為輸入的慣例,使某一層的輸出可以直接跨過幾層作為后面某一層的輸入,其意義在于為疊加多層網絡而使得整個學習模型的錯誤率不降反升的難題提供了新的方向。

至此,神經網絡的層數可以超越之前的約束,達到幾十層、上百層甚至千層,為高級語義特征提取和分類提供了可行性。

  下面感受一下34層的深度殘差網絡的結構圖:

  從圖中可以看出,怎么有一些“shortcut connections(捷徑連接)”是實現,有一些是虛線,有什么區別呢?

  因為經過“shortcut-connections(捷徑連接)”后,H(x) = F(x) + x,如果 F(x) 和 x 通道相同,則可直接相加,那么通道不同怎么相加呢。上圖的實線,虛線就是為了區分這兩種情況的:

實線的Connection部分,表示通道相同,如上圖的第一個粉色矩形和第三個粉色矩形,都是 3*3*64 的特征圖,由于通道相同,所以采用計算方式為H(x) = F(x) + x;
虛線的 Connection 部分,表示通道不同,如上圖的第一個綠色矩形和第三個粉色矩形,分別為 3*3*64 和 3*3*128 的特征圖,通道不同,采用的計算方式為H(x) = F(x) + Wx,其中 W 為卷積操作,用來調整x維度的。

 下圖是兩層及三層的ResNet殘差學習模塊:

  兩種結構分別針對 ResNet34(左圖)和 ResNet50/101/152(右圖),其目的主要就是為了降低參數的數目,左圖是兩個 3*3*256 的卷積,參數數目:3*3*256*256*2 = 1179648,右圖是第一個1*1的卷積把256維通道降到64維,然后在最后通過1*1卷積恢復,整體上用的參數數目為:1*1*256*64 + 3*3*64*64 + 1*1*64*256 = 69632,右圖的參數數量比左圖減少 16.94倍,因此,右圖的主要目的就是為了減少參數量,從而減少計算量

  對于常規的ResNet,可以用于34層或者更少的網絡中(左圖);對于更深的網絡(如101層),則使用右圖,其目的是減少計算和參數量。

  經檢驗,深度殘差網絡的確解決了退化問題,如下圖所示,上圖為平原網絡(plain network)網絡層次越深(34層)比網絡層次淺的(18層)的誤差率更高;右圖為殘差網絡ResNet的網絡層次越深(34層)比網絡層次淺(18層)的誤差率更低。

5,VGGNet-19 VS ResNet-34(ResNet的創新點)

  在提出殘差學習的思想,傳統的卷積網絡或者全連接網絡在信息傳遞的時候或多或少會存在信息丟失,損耗等問題,同時還有導致梯度小時或梯度爆炸,導致很深的網絡無法訓練。ResNet在一定程度上解決了這個問題,通過直接將輸入信息繞道傳到輸出,保護信息的完整性,整個網絡只需要學習輸入,輸出差別的那一部分,簡化學習目標和難度。

  下圖所示為 VGGNet-19,以及一個34層深的普通卷積網絡,和34層深的ResNet網絡的對比圖。可以看到普通直連的卷積神經網絡和ResNet的最大區別在于,ResNet有很多旁路的支線將輸入直接連到后面的層,使得后面的層可以直接學習殘差,這種結構也被稱為 shortcut或 skip connections。

  傳統的卷積層或全連接層在信息傳遞時,或多或少的會存在信息丟失,損耗等問題。ResNet 在某種程度上解決了這個問題,通過直接將輸入信息繞道傳到輸出,保護信息的完整性,整個網絡則需要學習輸入,輸出差別的那一部分,簡化學習目標和難度。

  在ResNet的論文中,處理下圖中的兩層殘差學習單元,還有三層的殘差學習單元。兩層的殘差學習單元中包含兩個相同輸出通道數(因為殘差等于目標輸出減去輸入,即 H(x) - x,因此輸入,輸出維度需保持一致)的 3*3 卷積;而3層的殘差網絡則使用了 Network In Network 和 Inception Net中的 1*1 卷積,并且是在中間 3*3 的卷積前后都使用了 1*1 卷積,有先降維再升維的操作。另外,如果有輸入,輸出維度不同的情況,我們可以對 x 做一個線性映射變換維度,再連接到后面的層。

   下圖為 VGG-19 ,直連的 34層網絡,和ResNet的34層網絡的結構對比:

6,ResNet不同層數的網絡配置

  下圖是ResNet 不同層數時的網絡配置(這里我們特別提出ResNet50和ResNet101,主要是因為他們的出鏡率很高,所以需要做特別的說明):

  上表中,我們一共提出了五種深度的ResNet,分別是18, 34, 50, 101和152,首先看圖2最左側,我們發現所有的網絡都分為五部分,分別是 conv1, conv2_x, conv3_x, conv4_x , conv5_x,之后的其他論文也會專門用這個稱呼指代 ResNet 50 或者 101 的每部分。

  拿 101-layer 那列,我們先看看 101-layer 是不是真的是 101 層網絡,首先有個 輸入 7*7*64的卷積,然后經過 3 + 4 + 23+ 3 = 33 個 building block ,每個 block 為3層,所以有 33*3 = 99 層,最后有個 fc 層(用于分類),所有有 1+99+1=101層,確實有101層網絡;

  注意1:101 層網絡僅僅指卷積或者全連接層,而激活層或者 Pooling 層并沒有計算在內;

  注意2:這里我們關注50-layer 和 101-layer 這兩列,可以發現,他們唯一的不同在于 conv4_x, ResNet50有6個block,而 ResNet101有 23 個 block,插了17個block,也就是 17*3=51層。

  在使用了ResNet的結構后,可以發現層數不斷加深導致的訓練集上誤差增大的現象被消除了,ResNet 網絡的訓練誤差會隨著層數增大而逐漸減小,并且在測試機上的表現也會變好。在ResNet推出后不久,Google就借鑒了ResNet的精髓,提出了 Inception V4和 Inception-ResNet-V2,并通過融合這兩個模型,在 ILSVRC數據集上取得了驚人的 3.08%的錯誤率??梢姡琑esNet及其思想對卷積神經網絡研究的貢獻確實非常顯著,具有很強的推廣性。在ResNet的作者的第二篇相關論文 Identity Mappings in Deep Rsidual Networks中,ResNet V2被提出。ResNet V2和 ResNet V1 的主要區別在于,作者通過研究 ResNet 殘差學習單元的傳播公式,發現前饋和反饋信息可以直接傳輸,因此 skip connection 的非線性激活函數(如ReLU)替換為 Identity Mappings(y = x)。同時,ResNet V2在每一層中都使用了Batch Normalization。這樣處理之后,新的殘差學習單元將比以前更容易訓練且泛化性更強。

  根據 Schmidhuber 教授的觀點,ResNet 類似于一個沒有Gates 的LSTM 網絡,即將輸入 x 傳遞到后面層的過程是一直發生的,而不是學習出來的。同時,最近也有兩篇論文表示,ResNet 基本等價于 RNN且ResNet的效果類似于在多層網絡間的集成方法(ensemble)。ResNet在加深網絡層數上做出來重大貢獻,而另一篇論文 The Power of Depth for Feedforward Neural Networks 則從理論上證明了加深網絡比加寬網絡更有效,算是給ResNet 提供了聲援,也是給深度學習為什么要深才有效提供合理的解釋。

7,TensorFlow 實現ResNet V2網絡

  在ResNet的作者的第二篇相關論文《Identity Mappings in Deep Residual Networks》中,提出了ResNet V2。ResNet V2 和 ResNet V1 的主要區別在于,作者通過研究 ResNet 殘差學習單元的傳播公式,發現前饋和反饋信號可以直接傳輸,因此“shortcut connection”(捷徑連接)的非線性激活函數(如ReLU)替換為 Identity Mappings。同時,ResNet V2 在每一層中都使用了 Batch Normalization。這樣處理后,新的殘差學習單元比以前更容易訓練且泛化性更強。

  下面我們使用TensorFlow實現一個ResNet V2 網絡。我們依然使用方便的 contrib.slim 庫來輔助創建 ResNet,其余載入的庫還有原生的 collections。本文代碼主要來自于TensorFlow的開源實現。

  我們使用 collections.namedtuple 設計ResNet 基本Block 模塊組的 named tuple,并用它創建 Block 的類,但只包含數據結構,不包含具體方法。我們要定義一個典型的 Block,需要輸入三個參數,分別是 scope,unit_fn 和 args。以Block('block1', bottleneck, [(256, 64, 1]) x 2 + [(256, 64, 2 )]) 這一行代碼為例,它可以定義一個典型的Block,其中 block1 就是我們這個Block 的名稱(或 scope);bottleneck 是ResNet V2中的殘差學習單元;而最后一個參數[(256, 64, 1]) x 2 + [(256, 64, 2 )] 則是這個Block 的 args,args 是一個列表,其中每個元素都對應一個 bottleneck殘差學習單元,前面兩個元素都是 (256,64,1),最后一個是(256,64,2)。每一個元素都是一個三元 tuple,即 (depth,depth_bottleneck, stride)。比如(256, 64, 3)代表構建的 bottleneck 殘差學習單元(每個殘差學習單元包含三個卷積層)中,第三層輸出通道數 depth 為 256,前兩層輸出通道數 depth_bottleneck 為64,且中間那層的步長 stride 為3。這個殘差學習單元結構即為 [(1x1/s1, 64), (3x3/s2, 64), (1x1/s1, 256)]。而在這個Block中,一共有3個bottleneck殘差學習單元,除了最后一個的步長由3變為2,其余都一致。

#_*_coding:utf-8_*_
import collections
import tensorflow as tf

slim = tf.contrib.slim

class Block(collections.namedtuple('Block', ['scope', 'uint_fn', 'args'])):
    'A named tuple describing a ResNet block'

  下面定義一個降采樣 subsample的方法,參數包括 inputs(輸入),factor(采樣因子)和scope。這個函數也非常簡單,如果factor為1,則不做修改直接返回 inputs;如果不為1,則使用 slim.max_pool2d 最大池化來實現,通過1x1的池化尺寸,stride作步長,即可實現降采樣。

def subsample(inputs, factor, scope=None):
    if factor == 1:
        return inputs
    else:
        return slim.max_pool2d(inputs, [1, 1], stride=factor, scope=scope)
   

  再定義一個 conv2d_same函數創建卷積層。先判斷 stride 是否為1,如果為1,則直接使用 slim.conv2d 并令 padding 模式為SAME。如果 stride 不為1,則顯式地 pad zero,要pad zero 的總數為 Kernel_size -1 ,pad_beg 為 pad/2,pad_end 為余下的部分。接下來使用 tf.pad 對輸入變量進行補零操作。最后,因為已經進行了 zero padding ,所以只需要使用一個 padding 模式為VALID 的 slim.conv2d 創建這個卷積層。

def conv2d_same(inputs, num_outputs, kernel_size, stride, scope=None):
    if stride == 1:
        return slim.conv2d(inputs, num_outputs, kernel_size, stride=1,
                           padding='SAME', scope=scope)
    else:
        pad_total = kernel_size - 1
        pad_beg = pad_total // 2
        pad_end = pad_total - pad_beg
        inputs = tf.pad(inputs, [[0, 0], [pad_beg, pad_end],
                                 [pad_beg, pad_end], [0, 0]])
        return slim.conv2d(inputs, num_outputs, kernel_size, stride=stride,
                           padding='VALID', scope=scope)

  接下來定義堆疊Blocks的函數,參數中的 net 即為輸入,blocks是之前定義的Block 的class 的列表,而 outputs_collections 則是用來收集各個 end_points 的 collections。下面使用兩層循環,逐個Block,逐個Residual Uint 地堆疊,先使用兩個 tf.variable_scope 將殘差學習單元命名為 block1 / uint_1 的形式。在第二層循環中,我們拿到每個Block中每個Residual Unit的args,并展開為 depth,depth_bottleneck 和 stide,其含義在前面定義Blocks類時已經學習過。然后使用 unit_fn 函數(即殘差學習單元的生成函數)順序地創建并連接所有的殘差學習單元。最后,我們使用 slim.utils.collect_named_outpouts 函數將輸出 net 添加到 collection 中 。最后,當所有 Block 中的所有Residual Unit 都堆疊完之后,我們再返回最后的 net 作為 stack_blocks_dense 函數的結果。

@slim.add_arg_scope
def stack_blocks_dense(net, blocks, outputs_collections=None):

    for block in blocks:
        with tf.variable_scope(block.scope, 'block', [net]) as sc:
            for i, unit in enumerate(block.args):
                with tf.variable_scope('unit_%d' % (i+1), values=[net]):
                    unit_depth, unit_depth_bottleneck, unit_stride = unit
                    net = block.unit_fn(net,
                                        depth=unit_depth,
                                        unit_depth_bottleneck=unit_depth_bottleneck,
                                        steide=unit_stride)
            net = slim.utils.collect_named_outputs(outputs_collections, sc.name, net)
    return net

  這里創建 ResNet通用的 arg_scope,關于 arg_scope,我們已經知道其功能——用來定義某些函數的參數默認值。這里定義訓練標記 is_training 默認為TRUE,權重衰減速率 weight_decay 默認為 0.0001,BN的衰減速率默認為 0.997,BN的 epsilon默認為 1e-5,BN的 scale默認為 TRUE,和Inception V3定義 arg_scope一樣,先設置好BN的各項參數,然后通過slim.arg_scope將 slim.conv2d的幾個默認參數設置好:權重正則器設置為 L2正則,權重初始化器設為 slim.variance_scaling_initializer(),激活函數設為 ReLU,標準化器設為 BN。并將最大池化 的padding模式默認設為 SAME(注意,ResNet原論文中使用的 VALID模式,設為SAME可讓特征對其更簡單,大家可以嘗試改為 VALID)。最后將幾層嵌套的 arg_scope 作為結果返回。

def resnet_arg_scope(is_training=True,
                     weight_decay=0.0001,
                     batch_norm_decay=0.997,
                     batch_norm_epsilon=1e-5,
                     batch_norm_scale=True):
    batch_norm_params = {
        'is_training': is_training,
        'decay': batch_norm_decay,
        'epsilon': batch_norm_epsilon,
        'scale': batch_norm_scale,
        'updates_collections': tf.GraphKeys.UPDATE_OPS,
    }

    with slim.arg_scope(
        [slim.conv2d],
        weights_regularizer=slim.l2_regularizer(weight_decay),
        weights_initializer=slim.variance_scaling_initializer(),
        activation_fn=tf.nn.relu,
        normalizer_fn=slim.batch_norm,
        normalizer_params=batch_norm_params
    ):
        with slim.arg_scope([slim.batch_norm], **batch_norm_params):
            with slim.arg_scope([slim.max_pool2d], padding='SAME') as arg_sc:
                return arg_sc

  接下來定義核心的 bottleneck 殘差學習單元,它是ResNet V2 的論文中提到的 Full Preactivation Residual Unit 的一個變種。它和ResNet V1 中的殘差學習單元的主要區別有兩點,一是在每層前都用了Batch Bormalization,而是對輸入進行 practivation,而不是在卷積進行激活函數處理。我們來看一下bottleneck 函數的參數,inputs是輸入,depth,depth_bottleneck和stride這三個參數前面的 Batch Normalization,并使用 ReLU函數進行預激活Preactivate。然后定義 shortcut(即直連的 x):如果殘差單元的輸入通道數 depth_in和輸出通道數 depth一致,那么使用 subsample按步長為 stride 對 Inputs 進行空間上的降采樣(確??臻g尺寸和殘差一致,因為殘差中間那層的卷積步長為 stride);如果輸入,輸出通道數不一樣,我們用步長為 stride 的1*1 卷積改變其通道數,使得與輸出通道數一致。然后定義 Residual(殘差),residual這里有3層,先是一個1*1尺寸,步長為1,輸出通道數為depth_bottleneck的卷積,然后是一個3*3尺寸,步長為 stride,輸出通道數為 depth_bottleneck的卷積,最后是一個1*1的卷積,步長為1,輸出通道數為depth的卷積,得到最終的 residual,這里注意最后一層沒有正則項也沒有激活函數。然后將residual 和 shortcut 相加,得到最后結果 output,再使用 slim.utils.collect_named_outpouts 將結果添加進 collection并返回 output 作為函數結果。

@slim.add_arg_scope
def bottleneck(inputs, depth, depth_bottleneck, stride,
               outputs_collections=None, scope=None):
    with tf.variable_scope(scope, 'bottleneck_v2', [inputs]) as sc:
        depth_in = slim.utils.last_dimension(inputs.get_shape(), min_rank=4)
        preact = slim.batch_norm(inputs, activation_fn=tf.nn.relu, scope='preact')

        if depth == depth_in:
            shortcut = subsample(inputs, stride, 'shortcut')
        else:
            shortcut = slim.conv2d(preact, depth, [1, 1], stride=stride,
                                   normalizer_fn=None, activation_fn=None,
                                   scope='shortcut')
        residual = slim.conv2d(preact, depth_bottleneck, [1, 1], stride=1,
                               scope='conv1')
        residual = conv2d_same(residual, depth_bottleneck, 3, stride,
                               scope='conv2')
        residual = slim.conv2d(residual, depth, [1, 1], stride=1,
                               normalozer_fn=None, activation_fn=None,
                               scope='conv3')
        output = shortcut + residual

        return slim.utils.collect_named_outputs(outputs_collections, sc.name, output)

  下面定義生成ResNet V2 的主函數,我們只需要預先定義好網絡的殘差學習模塊組blocks,它就可以生成對應的完整的ResNet。先看看這個函數的參數,Inputs 即輸入,blocks為定義好的Block類的列表,num_classes是最后輸出的類數。global_pool 標志是否加上最后的一層全局平均池化,include_root_block 標志是否加上ResNet網絡最前面通常使用的7*7卷積和最大池化,reuse標志是否重用,scope是整個網絡的名稱。在函數體內,我們先定義好variable_scope及 end_points_collection,再通過 slim.arg_scope 將(slim.con2d,bottleneck, stack_block_dense)這三個函數的參數 outputs_collections默認設為 end_points_collection。然后根據 include_root_block標記,創建ResNet最前面的 64輸出通道的步長為2的7*7卷積,然后再接一個步長為2的3*3的最大池化。經歷兩個步長為2的層,圖片尺寸已經被縮小為1/4。然后,使用前面定義好的 stack_blocks_dense 將殘差學習模塊組生成好,再根據標記添加全局池化層,這里用 tf.reduce_mean 實現全局平均池化,效率比直接用 avg_pool高。下面根據是否有分類數,添加一個輸出通道數為 Num_classes的1*1卷積(該卷積層無激活函數和正則項),再添加一個 Softmax層輸出網絡結果。同時使用 slim.utils.convert_collection_to_dict 將 collection 轉化為Python的 dict,最后返回 net 和 end_points。

def resnet_v2(inputs,
              blocks,
              num_classes=None,
              global_pool=True,
              include_root_block=True,
              reuse=None,
              scope=None):
    with tf.variable_scope(scope, 'resnet_v2', [inputs], reuse=reuse) as sc:
        end_points_collection = sc.original_name_scope + '_end_points'
        with slim.arg_scope([slim.conv2d, bottleneck,
                             stack_blocks_dense],
                            outputs_collections=end_points_collection):
            net = inputs
            if include_root_block:
                with slim.arg_scope([slim.conv2d],
                                    activation_fn=None, normalizer_fn=None):
                    net = conv2d_same(net, 64, 7, stride=2, scope='conv1')
                net = slim.max_pool2d(net, [3, 3], stride=2, scope='pool1')
            net = stack_blocks_dense(net, blocks)
            net = slim.batch_norm(net, activation_fn=tf.nn.relu, scope='postnorm')
            if global_pool:
                net = tf.reduce_mean(net, [1, 2], name='pool5', keep_dims=True)
            if num_classes is not None:
                net = slim.conv2d(net, num_classes, [1, 1], activation_fn=None,
                                  normalizer_fn=None, scope='logits')
            end_points = slim.utils.convert_collection_to_dict(
                end_points_collection
            )
            if num_classes is not None:
                end_points['predictions'] = slim.softmax(net, scope='predictions')
            return net, end_points

  至此,我們就將 ResNet 的生成函數定義好了。下面根據ResNet不同層數時的網絡配置圖中推薦的幾個不同深度的ResNet網絡配置,來設計層數分別為 50, 101, 152 和 200 的ResNet。我們先來看 50層的ResNet,其嚴格遵守了圖中的設置,4個殘差學習Blocks 的 units數量分別為3, 4, 6和3,總層數即為 (3+4+6+3)x3+2=50。需要注意的時,殘差學習模塊之前的卷積,池化已經將尺寸縮小為4倍,我們前3個Blocks又都包含步長為2的層,因此總尺寸縮小了 4*8=32倍,輸入圖片尺寸最后變為 224/32=7 。和 Inception V3很像,ResNet 不斷使用步長為2的層來縮減尺寸,但同時輸出通道數也在持續增加,最后達到了 2048。

def resnet_v2_50(inputs,
                 num_classes=None,
                 global_pool=True,
                 reuse=None,
                 scope='resnet_v2_50'):
    blocks = [
        Block('block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block('block2', bottleneck, [(512, 128, 1)] * 3 + [(512, 128, 2)]),
        Block('block3', bottleneck, [(1024, 256, 1)] * 5 + [(1024, 256, 2)]),
        Block('block4', bottleneck, [(2048, 512, 1)] * 3)
    ]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)

  101 層的ResNet 和50層相比,主要變化就是把4個Blocks的units 數量從3, 4, 6,3提升到了3, 4, 23, 3 。即將第三個殘差學習Block 的units 數增加到接近4倍。

def resnet_v2_101(inputs,
                 num_classes=None,
                 global_pool=True,
                 reuse=None,
                 scope='resnet_v2_101'):
    blocks = [
        Block('block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block('block2', bottleneck, [(512, 128, 1)] * 3 + [(512, 128, 2)]),
        Block('block3', bottleneck, [(1024, 256, 1)] * 22 + [(1024, 256, 2)]),
        Block('block4', bottleneck, [(2048, 512, 1)] * 3)
    ]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)

  然后152層的ResNet,則是將第二個Block 的units數提高到8,將第三個 Block的 units 數提高到36。Units數量提升的主要場所依然是第三個Block。

def resnet_v2_152(inputs,
                 num_classes=None,
                 global_pool=True,
                 reuse=None,
                 scope='resnet_v2_152'):
    blocks = [
        Block('block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block('block2', bottleneck, [(512, 128, 1)] * 7 + [(512, 128, 2)]),
        Block('block3', bottleneck, [(1024, 256, 1)] * 35 + [(1024, 256, 2)]),
        Block('block4', bottleneck, [(2048, 512, 1)] * 3)
    ]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)

  最后,200層的Resnet 相比152層的ResNet ,沒有繼續提升第三個Block的units數,而是將第二個Block的 units 數一下子提升到了23。

def resnet_v2_200(inputs,
                 num_classes=None,
                 global_pool=True,
                 reuse=None,
                 scope='resnet_v2_200'):
    blocks = [
        Block('block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block('block2', bottleneck, [(512, 128, 1)] * 23 + [(512, 128, 2)]),
        Block('block3', bottleneck, [(1024, 256, 1)] * 35 + [(1024, 256, 2)]),
        Block('block4', bottleneck, [(2048, 512, 1)] * 3)
    ]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)

  最后我們使用一直以來的測評函數 timne_tensorflow_run,來測試 152層深的 ResNet(即獲得 ILSVRC 2015 冠軍的版本)的forward 性能。圖片尺寸回歸到AlexNet ,VGGNet的 224*224,batch_size 為32。我們將 is_training 這個 FLAG置為FALSE。然后使用 resnet_v2_152 創建網絡,再由 time_tensorflow_run 函數測評其 forward 性能。這里不再對訓練時的性能進行測試了,大家可以自行測試求解ResNet全部參數的梯度所需要的時間。

def time_tensorflow_run(session, target, info_string):
    num_steps_burn_in = 10
    total_duration = 0.0
    total_duration_squared = 0.0

    for i in range(num_batches + num_steps_burn_in):
        start_time = time.time()
        _ = session.run(target)
        duration = time.time() - start_time
        if i >= num_steps_burn_in:
            if not i % 10:
                print('%s: step %d, duration=%.3f'%(datetime.now(),
                                                    i - num_steps_burn_in, duration))
                total_duration += duration
                total_duration_squared += duration * duration

    mn = total_duration / num_batches
    vr = total_duration_squared / num_batches - mn * mn
    sd = math.sqrt(vr)
    print('%s: %s across %d steps, %.3f +/- %.3f sec / batch'% (datetime.now(),
                                                               info_string, num_batches, mn, sd))

if __name__ == '__main__':
    batch_size = 32
    height, width = 224, 224
    inputs = tf.random_uniform((batch_size, height, width, 3))
    with slim.arg_scope(resnet_arg_scope(is_training=False)):
        net, endpoints = resnet_v2_152(inputs, 1000)

    init = tf.global_variables_initializer()
    sess = tf.Session()
    sess.run(init)
    num_batches = 100
    time_tensorflow_run(sess, net, 'Forward')

  這里可以看到,雖然這個ResNet有152層深,但其forward計算耗時并沒有特別夸張,相比 VGGNet 和 Inception_v3,大概只增加了 50%,每batch為 0.122 秒。這說明 ResNet也是一個實用的卷積神經網絡結構,不僅支持超深網絡的訓練,同時在實際工業應用時也有不差的forward 性能。

2019-09-17 13:40:28.111221: step 0, duration=0.124
2019-09-17 13:40:29.336873: step 10, duration=0.122
2019-09-17 13:40:30.555401: step 20, duration=0.122
2019-09-17 13:40:31.774261: step 30, duration=0.122
2019-09-17 13:40:32.993206: step 40, duration=0.122
2019-09-17 13:40:34.210301: step 50, duration=0.122
2019-09-17 13:40:35.426938: step 60, duration=0.122
2019-09-17 13:40:36.644774: step 70, duration=0.122
2019-09-17 13:40:37.861877: step 80, duration=0.122
2019-09-17 13:40:39.078488: step 90, duration=0.122
2019-09-17 13:40:40.173907: Forward across 100 steps, 0.012 +/- 0.037 sec / batch

  本文我們完整的學習了ResNet的基本原理及Tensorflow實現,也設計了一系列不同深度的 ResNet。如果大家感興趣可以自行探索不同深度,乃至不同殘差單元結構的ResNet的分類性能。例如,ResNet 原論文中主要增加的時第二個和第三個Block的 units數,大家可以嘗試增加其余兩個Block的 units數,或者修改bottleneck單元中的 depth,depth_bottleneck等參數,可對其參數設置的意義加深理解。ResNet 可以算是深度學習中的一個里程碑式的圖片,真正意義上支持極深神經網絡的訓練。其網絡結構值得反復思索,如Google等已將其融合到自家的 Inception Net中,并取得了非常好的效果。相信ResNet的成功也會啟發其他在深度學習領域研究的靈感。

  完整代碼如下:

import collections
import tensorflow as tf

slim = tf.contrib.slim


class Block(collections.namedtuple('Block', ['scope', 'unit_fn', 'args'])):
    """A named tuple describing a ResNet block.
    Its parts are:
      scope: The scope of the `Block`.
      unit_fn: The ResNet unit function which takes as input a `Tensor` and
        returns another `Tensor` with the output of the ResNet unit.
      args: A list of length equal to the number of units in the `Block`. The list
        contains one (depth, depth_bottleneck, stride) tuple for each unit in the
        block to serve as argument to unit_fn.
    """


def subsample(inputs, factor, scope=None):
    """Subsamples the input along the spatial dimensions.
    Args:
      inputs: A `Tensor` of size [batch, height_in, width_in, channels].
      factor: The subsampling factor.
      scope: Optional variable_scope.
    Returns:
      output: A `Tensor` of size [batch, height_out, width_out, channels] with the
        input, either intact (if factor == 1) or subsampled (if factor > 1).
    """
    if factor == 1:
        return inputs
    else:
        return slim.max_pool2d(inputs, [1, 1], stride=factor, scope=scope)


def conv2d_same(inputs, num_outputs, kernel_size, stride, scope=None):
    """Strided 2-D convolution with 'SAME' padding.
    When stride > 1, then we do explicit zero-padding, followed by conv2d with
    'VALID' padding.
    Note that
       net = conv2d_same(inputs, num_outputs, 3, stride=stride)
    is equivalent to
       net = slim.conv2d(inputs, num_outputs, 3, stride=1, padding='SAME')
       net = subsample(net, factor=stride)
    whereas
       net = slim.conv2d(inputs, num_outputs, 3, stride=stride, padding='SAME')
    is different when the input's height or width is even, which is why we add the
    current function. For more details, see ResnetUtilsTest.testConv2DSameEven().
    Args:
      inputs: A 4-D tensor of size [batch, height_in, width_in, channels].
      num_outputs: An integer, the number of output filters.
      kernel_size: An int with the kernel_size of the filters.
      stride: An integer, the output stride.
      rate: An integer, rate for atrous convolution.
      scope: Scope.
    Returns:
      output: A 4-D tensor of size [batch, height_out, width_out, channels] with
        the convolution output.
    """
    if stride == 1:
        return slim.conv2d(inputs, num_outputs, kernel_size, stride=1,
                           padding='SAME', scope=scope)
    else:
        # kernel_size_effective = kernel_size + (kernel_size - 1) * (rate - 1)
        pad_total = kernel_size - 1
        pad_beg = pad_total // 2
        pad_end = pad_total - pad_beg
        inputs = tf.pad(inputs,
                        [[0, 0], [pad_beg, pad_end], [pad_beg, pad_end], [0, 0]])
        return slim.conv2d(inputs, num_outputs, kernel_size, stride=stride,
                           padding='VALID', scope=scope)


@slim.add_arg_scope
def stack_blocks_dense(net, blocks,
                       outputs_collections=None):
    """Stacks ResNet `Blocks` and controls output feature density.
    First, this function creates scopes for the ResNet in the form of
    'block_name/unit_1', 'block_name/unit_2', etc.
    Args:
      net: A `Tensor` of size [batch, height, width, channels].
      blocks: A list of length equal to the number of ResNet `Blocks`. Each
        element is a ResNet `Block` object describing the units in the `Block`.
      outputs_collections: Collection to add the ResNet block outputs.
    Returns:
      net: Output tensor 
    """
    for block in blocks:
        with tf.variable_scope(block.scope, 'block', [net]) as sc:
            for i, unit in enumerate(block.args):
                with tf.variable_scope('unit_%d' % (i + 1), values=[net]):
                    unit_depth, unit_depth_bottleneck, unit_stride = unit
                    net = block.unit_fn(net,
                                        depth=unit_depth,
                                        depth_bottleneck=unit_depth_bottleneck,
                                        stride=unit_stride)
            net = slim.utils.collect_named_outputs(outputs_collections, sc.name, net)

    return net


def resnet_arg_scope(is_training=True,
                     weight_decay=0.0001,
                     batch_norm_decay=0.997,
                     batch_norm_epsilon=1e-5,
                     batch_norm_scale=True):
    """Defines the default ResNet arg scope.
    TODO(gpapan): The batch-normalization related default values above are
      appropriate for use in conjunction with the reference ResNet models
      released at https://github.com/KaimingHe/deep-residual-networks. When
      training ResNets from scratch, they might need to be tuned.
    Args:
      is_training: Whether or not we are training the parameters in the batch
        normalization layers of the model.
      weight_decay: The weight decay to use for regularizing the model.
      batch_norm_decay: The moving average decay when estimating layer activation
        statistics in batch normalization.
      batch_norm_epsilon: Small constant to prevent division by zero when
        normalizing activations by their variance in batch normalization.
      batch_norm_scale: If True, uses an explicit `gamma` multiplier to scale the
        activations in the batch normalization layer.
    Returns:
      An `arg_scope` to use for the resnet models.
    """
    batch_norm_params = {
        'is_training': is_training,
        'decay': batch_norm_decay,
        'epsilon': batch_norm_epsilon,
        'scale': batch_norm_scale,
        'updates_collections': tf.GraphKeys.UPDATE_OPS,
    }

    with slim.arg_scope(
            [slim.conv2d],
            weights_regularizer=slim.l2_regularizer(weight_decay),
            weights_initializer=slim.variance_scaling_initializer(),
            activation_fn=tf.nn.relu,
            normalizer_fn=slim.batch_norm,
            normalizer_params=batch_norm_params):
        with slim.arg_scope([slim.batch_norm], **batch_norm_params):
            # The following implies padding='SAME' for pool1, which makes feature
            # alignment easier for dense prediction tasks. This is also used in
            # https://github.com/facebook/fb.resnet.torch. However the accompanying
            # code of 'Deep Residual Learning for Image Recognition' uses
            # padding='VALID' for pool1. You can switch to that choice by setting
            # slim.arg_scope([slim.max_pool2d], padding='VALID').
            with slim.arg_scope([slim.max_pool2d], padding='SAME') as arg_sc:
                return arg_sc


@slim.add_arg_scope
def bottleneck(inputs, depth, depth_bottleneck, stride,
               outputs_collections=None, scope=None):
    """Bottleneck residual unit variant with BN before convolutions.
    This is the full preactivation residual unit variant proposed in [2]. See
    Fig. 1(b) of [2] for its definition. Note that we use here the bottleneck
    variant which has an extra bottleneck layer.
    When putting together two consecutive ResNet blocks that use this unit, one
    should use stride = 2 in the last unit of the first block.
    Args:
      inputs: A tensor of size [batch, height, width, channels].
      depth: The depth of the ResNet unit output.
      depth_bottleneck: The depth of the bottleneck layers.
      stride: The ResNet unit's stride. Determines the amount of downsampling of
        the units output compared to its input.
      rate: An integer, rate for atrous convolution.
      outputs_collections: Collection to add the ResNet unit output.
      scope: Optional variable_scope.
    Returns:
      The ResNet unit's output.
    """
    with tf.variable_scope(scope, 'bottleneck_v2', [inputs]) as sc:
        depth_in = slim.utils.last_dimension(inputs.get_shape(), min_rank=4)
        preact = slim.batch_norm(inputs, activation_fn=tf.nn.relu, scope='preact')
        if depth == depth_in:
            shortcut = subsample(inputs, stride, 'shortcut')
        else:
            shortcut = slim.conv2d(preact, depth, [1, 1], stride=stride,
                                   normalizer_fn=None, activation_fn=None,
                                   scope='shortcut')

        residual = slim.conv2d(preact, depth_bottleneck, [1, 1], stride=1,
                               scope='conv1')
        residual = conv2d_same(residual, depth_bottleneck, 3, stride,
                               scope='conv2')
        residual = slim.conv2d(residual, depth, [1, 1], stride=1,
                               normalizer_fn=None, activation_fn=None,
                               scope='conv3')

        output = shortcut + residual

        return slim.utils.collect_named_outputs(outputs_collections,
                                                sc.name,
                                                output)


def resnet_v2(inputs,
              blocks,
              num_classes=None,
              global_pool=True,
              include_root_block=True,
              reuse=None,
              scope=None):
    """Generator for v2 (preactivation) ResNet models.
    This function generates a family of ResNet v2 models. See the resnet_v2_*()
    methods for specific model instantiations, obtained by selecting different
    block instantiations that produce ResNets of various depths.
    Args:
      inputs: A tensor of size [batch, height_in, width_in, channels].
      blocks: A list of length equal to the number of ResNet blocks. Each element
        is a resnet_utils.Block object describing the units in the block.
      num_classes: Number of predicted classes for classification tasks. If None
        we return the features before the logit layer.
      include_root_block: If True, include the initial convolution followed by
        max-pooling, if False excludes it. If excluded, `inputs` should be the
        results of an activation-less convolution.
      reuse: whether or not the network and its variables should be reused. To be
        able to reuse 'scope' must be given.
      scope: Optional variable_scope.
    Returns:
      net: A rank-4 tensor of size [batch, height_out, width_out, channels_out].
        If global_pool is False, then height_out and width_out are reduced by a
        factor of output_stride compared to the respective height_in and width_in,
        else both height_out and width_out equal one. If num_classes is None, then
        net is the output of the last ResNet block, potentially after global
        average pooling. If num_classes is not None, net contains the pre-softmax
        activations.
      end_points: A dictionary from components of the network to the corresponding
        activation.
    Raises:
      ValueError: If the target output_stride is not valid.
    """
    with tf.variable_scope(scope, 'resnet_v2', [inputs], reuse=reuse) as sc:
        end_points_collection = sc.original_name_scope + '_end_points'
        with slim.arg_scope([slim.conv2d, bottleneck,
                             stack_blocks_dense],
                            outputs_collections=end_points_collection):
            net = inputs
            if include_root_block:
                # We do not include batch normalization or activation functions in conv1
                # because the first ResNet unit will perform these. Cf. Appendix of [2].
                with slim.arg_scope([slim.conv2d],
                                    activation_fn=None, normalizer_fn=None):
                    net = conv2d_same(net, 64, 7, stride=2, scope='conv1')
                net = slim.max_pool2d(net, [3, 3], stride=2, scope='pool1')
            net = stack_blocks_dense(net, blocks)
            # This is needed because the pre-activation variant does not have batch
            # normalization or activation functions in the residual unit output. See
            # Appendix of [2].
            net = slim.batch_norm(net, activation_fn=tf.nn.relu, scope='postnorm')
            if global_pool:
                # Global average pooling.
                net = tf.reduce_mean(net, [1, 2], name='pool5', keep_dims=True)
            if num_classes is not None:
                net = slim.conv2d(net, num_classes, [1, 1], activation_fn=None,
                                  normalizer_fn=None, scope='logits')
            # Convert end_points_collection into a dictionary of end_points.
            end_points = slim.utils.convert_collection_to_dict(end_points_collection)
            if num_classes is not None:
                end_points['predictions'] = slim.softmax(net, scope='predictions')
            return net, end_points


def resnet_v2_50(inputs,
                 num_classes=None,
                 global_pool=True,
                 reuse=None,
                 scope='resnet_v2_50'):
    """ResNet-50 model of [1]. See resnet_v2() for arg and return description."""
    blocks = [
        Block('block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block(
            'block2', bottleneck, [(512, 128, 1)] * 3 + [(512, 128, 2)]),
        Block(
            'block3', bottleneck, [(1024, 256, 1)] * 5 + [(1024, 256, 2)]),
        Block(
            'block4', bottleneck, [(2048, 512, 1)] * 3)]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)


def resnet_v2_101(inputs,
                  num_classes=None,
                  global_pool=True,
                  reuse=None,
                  scope='resnet_v2_101'):
    """ResNet-101 model of [1]. See resnet_v2() for arg and return description."""
    blocks = [
        Block(
            'block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block(
            'block2', bottleneck, [(512, 128, 1)] * 3 + [(512, 128, 2)]),
        Block(
            'block3', bottleneck, [(1024, 256, 1)] * 22 + [(1024, 256, 2)]),
        Block(
            'block4', bottleneck, [(2048, 512, 1)] * 3)]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)


def resnet_v2_152(inputs,
                  num_classes=None,
                  global_pool=True,
                  reuse=None,
                  scope='resnet_v2_152'):
    """ResNet-152 model of [1]. See resnet_v2() for arg and return description."""
    blocks = [
        Block(
            'block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block(
            'block2', bottleneck, [(512, 128, 1)] * 7 + [(512, 128, 2)]),
        Block(
            'block3', bottleneck, [(1024, 256, 1)] * 35 + [(1024, 256, 2)]),
        Block(
            'block4', bottleneck, [(2048, 512, 1)] * 3)]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)


def resnet_v2_200(inputs,
                  num_classes=None,
                  global_pool=True,
                  reuse=None,
                  scope='resnet_v2_200'):
    """ResNet-200 model of [2]. See resnet_v2() for arg and return description."""
    blocks = [
        Block(
            'block1', bottleneck, [(256, 64, 1)] * 2 + [(256, 64, 2)]),
        Block(
            'block2', bottleneck, [(512, 128, 1)] * 23 + [(512, 128, 2)]),
        Block(
            'block3', bottleneck, [(1024, 256, 1)] * 35 + [(1024, 256, 2)]),
        Block(
            'block4', bottleneck, [(2048, 512, 1)] * 3)]
    return resnet_v2(inputs, blocks, num_classes, global_pool,
                     include_root_block=True, reuse=reuse, scope=scope)


from datetime import datetime
import math
import time


def time_tensorflow_run(session, target, info_string):
    num_steps_burn_in = 10
    total_duration = 0.0
    total_duration_squared = 0.0
    for i in range(num_batches + num_steps_burn_in):
        start_time = time.time()
        _ = session.run(target)
        duration = time.time() - start_time
        if i >= num_steps_burn_in:
            if not i % 10:
                print('%s: step %d, duration = %.3f' %
                      (datetime.now(), i - num_steps_burn_in, duration))
            total_duration += duration
            total_duration_squared += duration * duration
    mn = total_duration / num_batches
    vr = total_duration_squared / num_batches - mn * mn
    sd = math.sqrt(vr)
    print('%s: %s across %d steps, %.3f +/- %.3f sec / batch' %
          (datetime.now(), info_string, num_batches, mn, sd))


if __name__ == '__main__':
    batch_size = 32
    height, width = 224, 224
    inputs = tf.random_uniform((batch_size, height, width, 3))
    with slim.arg_scope(resnet_arg_scope(is_training=False)):
        net, end_points = resnet_v2_152(inputs, 1000)

    init = tf.global_variables_initializer()
    sess = tf.Session()
    sess.run(init)
    num_batches = 100
    time_tensorflow_run(sess, net, "Forward")

  本文是學習ResNet網絡的筆記,參考了《tensorflow實戰》這本書中關于ResNet的章節,寫的非常好,所以在此做了筆記,侵刪。

  而且本文在學習中,摘抄了下面博客的ResNet筆記,也寫的通俗易通:

  https://my.oschina.net/u/876354/blog/1634322     

  https://www.zybuluo.com/rianusr/note/1419006

  https://my.oschina.net/u/876354/blog/1622896

參考文獻:https://blog.csdn.net/u013181595/article/details/80990930

     https://blog.csdn.net/lanran2/article/details/79057994

ResNet的論文文獻: https://arxiv.org/abs/1512.03385

強烈建議學習何凱文關于深度殘差網絡的兩篇經典論文,深度殘差網絡的主要思想,便是來自下面兩篇論文:

《Deep Residual Learning for Image Recognition》(基于深度殘差學習的圖像識別)

《Identity Mappings in Deep Residual Networks》(深度殘差網絡中的特征映射)

  在學習后,確實對ResNet 理解了不少,在此很感謝。

總結

以上是生活随笔為你收集整理的tensorflow学习笔记——ResNet的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

国产成人无码区免费内射一片色欲 | 鲁大师影院在线观看 | 蜜桃av抽搐高潮一区二区 | 国产精品资源一区二区 | 波多野结衣aⅴ在线 | 亚洲爆乳大丰满无码专区 | 久久久久久久女国产乱让韩 | 国产精品99爱免费视频 | 特级做a爰片毛片免费69 | 欧美阿v高清资源不卡在线播放 | 国产偷自视频区视频 | 西西人体www44rt大胆高清 | 日本www一道久久久免费榴莲 | 九月婷婷人人澡人人添人人爽 | 日欧一片内射va在线影院 | 国产日产欧产精品精品app | 亚洲熟悉妇女xxx妇女av | 欧美喷潮久久久xxxxx | 99久久婷婷国产综合精品青草免费 | 天堂а√在线地址中文在线 | av无码电影一区二区三区 | 亚洲第一网站男人都懂 | yw尤物av无码国产在线观看 | www国产精品内射老师 | 国产偷自视频区视频 | 国内精品九九久久久精品 | 波多野结衣av一区二区全免费观看 | 人人澡人人妻人人爽人人蜜桃 | 久久国内精品自在自线 | 人妻无码久久精品人妻 | 综合激情五月综合激情五月激情1 | 中文字幕无码日韩欧毛 | 国产成人精品优优av | 欧美阿v高清资源不卡在线播放 | 高潮喷水的毛片 | 无码国产乱人伦偷精品视频 | 亚洲一区二区三区四区 | 又粗又大又硬又长又爽 | 国产精品香蕉在线观看 | 婷婷色婷婷开心五月四房播播 | 色欲av亚洲一区无码少妇 | 免费无码的av片在线观看 | 无码人妻少妇伦在线电影 | 亚洲自偷自拍另类第1页 | 精品一区二区三区无码免费视频 | 又大又紧又粉嫩18p少妇 | 影音先锋中文字幕无码 | 国产成人无码午夜视频在线观看 | 久久精品视频在线看15 | 国产97人人超碰caoprom | 久久成人a毛片免费观看网站 | 国产精品怡红院永久免费 | 成人亚洲精品久久久久软件 | 18禁黄网站男男禁片免费观看 | 老熟女乱子伦 | 精品国产一区二区三区四区在线看 | 久久精品无码一区二区三区 | 欧美xxxxx精品 | 国产农村乱对白刺激视频 | 亚洲 激情 小说 另类 欧美 | 久久久久免费看成人影片 | 国产午夜视频在线观看 | 亚洲中文字幕在线无码一区二区 | 欧美老妇交乱视频在线观看 | 天堂无码人妻精品一区二区三区 | 丝袜美腿亚洲一区二区 | 久久精品国产一区二区三区肥胖 | 99久久久无码国产精品免费 | 久久亚洲日韩精品一区二区三区 | 欧美日韩一区二区免费视频 | 国产绳艺sm调教室论坛 | √8天堂资源地址中文在线 | 图片小说视频一区二区 | 中文字幕av伊人av无码av | 久久久国产一区二区三区 | 国产亚洲精品精品国产亚洲综合 | 日本va欧美va欧美va精品 | 乱人伦中文视频在线观看 | 精品夜夜澡人妻无码av蜜桃 | 久久久久久久久888 | 狠狠色欧美亚洲狠狠色www | 97精品人妻一区二区三区香蕉 | 国产口爆吞精在线视频 | 亚洲成a人片在线观看日本 | 日本va欧美va欧美va精品 | 国产一区二区三区精品视频 | 国产精品福利视频导航 | 欧美变态另类xxxx | 婷婷丁香五月天综合东京热 | 西西人体www44rt大胆高清 | 欧美日韩视频无码一区二区三 | 国产亚洲精品久久久久久国模美 | 日韩精品一区二区av在线 | 少妇无码一区二区二三区 | 麻豆成人精品国产免费 | 欧美人与动性行为视频 | 天天燥日日燥 | 熟女少妇在线视频播放 | 亚洲精品一区二区三区婷婷月 | 永久黄网站色视频免费直播 | 精品久久久无码人妻字幂 | 自拍偷自拍亚洲精品10p | 131美女爱做视频 | 午夜理论片yy44880影院 | 在线а√天堂中文官网 | 又湿又紧又大又爽a视频国产 | 国产凸凹视频一区二区 | 日韩精品a片一区二区三区妖精 | √天堂中文官网8在线 | 国产乱人无码伦av在线a | 精品夜夜澡人妻无码av蜜桃 | 欧美精品一区二区精品久久 | 久久99精品国产.久久久久 | 免费中文字幕日韩欧美 | 国产av剧情md精品麻豆 | 帮老师解开蕾丝奶罩吸乳网站 | 成年女人永久免费看片 | 夜精品a片一区二区三区无码白浆 | 久青草影院在线观看国产 | 亚洲精品国产品国语在线观看 | 丰满人妻被黑人猛烈进入 | 成人aaa片一区国产精品 | 天天摸天天碰天天添 | 无码成人精品区在线观看 | 亚拍精品一区二区三区探花 | 午夜性刺激在线视频免费 | 亚洲阿v天堂在线 | 国产真人无遮挡作爱免费视频 | 综合激情五月综合激情五月激情1 | 成 人 网 站国产免费观看 | 任你躁国产自任一区二区三区 | 日本肉体xxxx裸交 | 亚洲精品美女久久久久久久 | 99er热精品视频 | 又大又硬又黄的免费视频 | 中文字幕久久久久人妻 | 人人爽人人澡人人高潮 | 3d动漫精品啪啪一区二区中 | 国产真实伦对白全集 | 亚洲欧美综合区丁香五月小说 | 欧美日韩色另类综合 | 久久久久久久久888 | 伊人色综合久久天天小片 | 青草视频在线播放 | 婷婷综合久久中文字幕蜜桃三电影 | 少妇高潮一区二区三区99 | 中文字幕乱码亚洲无线三区 | 亚洲欧洲日本无在线码 | 丝袜人妻一区二区三区 | 亚洲国产精品一区二区美利坚 | 99久久精品日本一区二区免费 | 成人精品视频一区二区 | аⅴ资源天堂资源库在线 | 四虎国产精品一区二区 | 亚洲综合在线一区二区三区 | 国产精品无码一区二区三区不卡 | 青春草在线视频免费观看 | 九九综合va免费看 | 无码精品人妻一区二区三区av | 久久精品国产99精品亚洲 | 青青草原综合久久大伊人精品 | 天天摸天天透天天添 | 亚洲国产精品久久久天堂 | 伊人久久婷婷五月综合97色 | 亚洲国产精品一区二区第一页 | 亚洲色成人中文字幕网站 | 爽爽影院免费观看 | 国产极品美女高潮无套在线观看 | 中文字幕无码热在线视频 | 爽爽影院免费观看 | yw尤物av无码国产在线观看 | 精品国产青草久久久久福利 | 天堂а√在线地址中文在线 | 精品久久综合1区2区3区激情 | 国产午夜精品一区二区三区嫩草 | 男人扒开女人内裤强吻桶进去 | 国产精品人人妻人人爽 | 日本爽爽爽爽爽爽在线观看免 | 国产精品久久久久久久9999 | 国产猛烈高潮尖叫视频免费 | 黄网在线观看免费网站 | 色婷婷久久一区二区三区麻豆 | 精品欧洲av无码一区二区三区 | 欧美freesex黑人又粗又大 | 一本色道久久综合狠狠躁 | 亚洲一区二区三区播放 | √天堂资源地址中文在线 | 女人和拘做爰正片视频 | 欧美日韩视频无码一区二区三 | 东京热男人av天堂 | 婷婷六月久久综合丁香 | 成熟女人特级毛片www免费 | 国产精品国产三级国产专播 | 国产在线精品一区二区高清不卡 | 东京无码熟妇人妻av在线网址 | 久久综合狠狠综合久久综合88 | 无码精品国产va在线观看dvd | 国内精品久久久久久中文字幕 | 久久久久久久女国产乱让韩 | 亚洲一区二区三区含羞草 | 久久综合给久久狠狠97色 | 国产精品欧美成人 | 中文字幕av日韩精品一区二区 | 1000部啪啪未满十八勿入下载 | 一本加勒比波多野结衣 | 中文字幕人妻丝袜二区 | 无遮挡啪啪摇乳动态图 | 国产熟女一区二区三区四区五区 | 国产精品亚洲五月天高清 | 黑人巨大精品欧美一区二区 | 麻豆国产人妻欲求不满谁演的 | 国产熟妇高潮叫床视频播放 | 国产亚洲人成在线播放 | 成人女人看片免费视频放人 | 日韩av无码一区二区三区 | 亚洲国产精华液网站w | 一本大道伊人av久久综合 | 初尝人妻少妇中文字幕 | 国产婷婷色一区二区三区在线 | 欧美亚洲日韩国产人成在线播放 | 中文字幕无线码 | 成 人 免费观看网站 | 亚洲一区二区三区四区 | 无码任你躁久久久久久久 | 成人精品视频一区二区 | 中文字幕日产无线码一区 | 日日橹狠狠爱欧美视频 | 天天综合网天天综合色 | 亚洲熟悉妇女xxx妇女av | 男人的天堂2018无码 | 老熟妇乱子伦牲交视频 | 女人被爽到呻吟gif动态图视看 | 少妇厨房愉情理9仑片视频 | 欧美丰满老熟妇xxxxx性 | 四虎影视成人永久免费观看视频 | 亚洲欧美精品aaaaaa片 | 思思久久99热只有频精品66 | 精品aⅴ一区二区三区 | 亚洲成av人影院在线观看 | 欧美一区二区三区 | 午夜福利不卡在线视频 | 国产综合久久久久鬼色 | 黑森林福利视频导航 | 日日摸夜夜摸狠狠摸婷婷 | 久久综合九色综合欧美狠狠 | 无码人妻精品一区二区三区不卡 | 啦啦啦www在线观看免费视频 | 国产精品福利视频导航 | 中文字幕色婷婷在线视频 | 免费国产成人高清在线观看网站 | 成人三级无码视频在线观看 | 久久综合久久自在自线精品自 | 国产性生大片免费观看性 | 国产特级毛片aaaaaa高潮流水 | 国内精品九九久久久精品 | 日韩av激情在线观看 | 成 人影片 免费观看 | 天堂а√在线中文在线 | 欧美性猛交内射兽交老熟妇 | 国产精品igao视频网 | 久久99精品久久久久久 | 日本丰满护士爆乳xxxx | 无码免费一区二区三区 | 乌克兰少妇xxxx做受 | 欧美性生交活xxxxxdddd | 日本大乳高潮视频在线观看 | 少妇无码av无码专区在线观看 | 亚洲第一无码av无码专区 | 无人区乱码一区二区三区 | 人人妻人人澡人人爽人人精品 | 国产农村妇女高潮大叫 | 色欲av亚洲一区无码少妇 | 欧洲vodafone精品性 | 亚洲春色在线视频 | 亚洲中文字幕乱码av波多ji | 久久精品国产亚洲精品 | 亚洲毛片av日韩av无码 | 少妇高潮喷潮久久久影院 | 大色综合色综合网站 | 久久亚洲a片com人成 | 欧美高清在线精品一区 | 亚洲色偷偷男人的天堂 | 成人毛片一区二区 | 日本精品人妻无码77777 天堂一区人妻无码 | 婷婷色婷婷开心五月四房播播 | 欧美精品国产综合久久 | 精品久久久久久亚洲精品 | 亚洲热妇无码av在线播放 | 人妻少妇精品无码专区动漫 | 初尝人妻少妇中文字幕 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 国产艳妇av在线观看果冻传媒 | aⅴ在线视频男人的天堂 | 久久99精品国产麻豆蜜芽 | 国产高潮视频在线观看 | 日本熟妇浓毛 | 欧美性猛交xxxx富婆 | 亚洲成a人一区二区三区 | 欧美老妇交乱视频在线观看 | 丰满岳乱妇在线观看中字无码 | 日韩av无码中文无码电影 | 曰韩无码二三区中文字幕 | 男女爱爱好爽视频免费看 | 国产激情无码一区二区 | 少妇性俱乐部纵欲狂欢电影 | 国产精品无码一区二区桃花视频 | 中文字幕无码日韩欧毛 | 久久精品人人做人人综合试看 | 国产艳妇av在线观看果冻传媒 | 欧美人与牲动交xxxx | 国产精华av午夜在线观看 | 大肉大捧一进一出好爽视频 | 精品无码一区二区三区爱欲 | 亚洲中文字幕久久无码 | 日日摸天天摸爽爽狠狠97 | 国产尤物精品视频 | 久热国产vs视频在线观看 | 亚洲精品无码人妻无码 | 麻豆果冻传媒2021精品传媒一区下载 | 久久99热只有频精品8 | 又大又紧又粉嫩18p少妇 | 亚洲国产精品美女久久久久 | 成人性做爰aaa片免费看不忠 | 中文精品无码中文字幕无码专区 | 日本熟妇人妻xxxxx人hd | 精品国产aⅴ无码一区二区 | 99re在线播放 | 中文字幕人妻无码一区二区三区 | 日本精品人妻无码免费大全 | 美女张开腿让人桶 | 久久精品人人做人人综合试看 | 亚洲国产精华液网站w | 欧美成人午夜精品久久久 | 天堂久久天堂av色综合 | 亲嘴扒胸摸屁股激烈网站 | 国产人妻精品一区二区三区 | 丰满护士巨好爽好大乳 | 三级4级全黄60分钟 | 男女作爱免费网站 | 亚洲国产精品无码一区二区三区 | a国产一区二区免费入口 | 99精品视频在线观看免费 | 国产熟妇另类久久久久 | 国产特级毛片aaaaaaa高清 | 香港三级日本三级妇三级 | 日韩无码专区 | 国产精品丝袜黑色高跟鞋 | 欧美成人午夜精品久久久 | 一本大道伊人av久久综合 | 亚洲欧洲中文日韩av乱码 | 日韩视频 中文字幕 视频一区 | 国产成人无码区免费内射一片色欲 | 成人无码精品1区2区3区免费看 | 中文字幕人妻无码一区二区三区 | 国产偷抇久久精品a片69 | 久久久久久久人妻无码中文字幕爆 | 日本一区二区三区免费播放 | 暴力强奷在线播放无码 | 国产精品.xx视频.xxtv | 无人区乱码一区二区三区 | 欧美乱妇无乱码大黄a片 | 精品国产一区二区三区四区在线看 | 内射欧美老妇wbb | 久久久中文字幕日本无吗 | 亚洲一区二区三区国产精华液 | 亚洲精品综合五月久久小说 | 亚洲成a人片在线观看日本 | 国产农村乱对白刺激视频 | 日日麻批免费40分钟无码 | 给我免费的视频在线观看 | 西西人体www44rt大胆高清 | 国产另类ts人妖一区二区 | 强伦人妻一区二区三区视频18 | 亚洲国产成人a精品不卡在线 | 中文字幕乱码中文乱码51精品 | 精品无码成人片一区二区98 | 最新版天堂资源中文官网 | 精品一区二区三区波多野结衣 | 精品国产av色一区二区深夜久久 | 久久无码中文字幕免费影院蜜桃 | 2019午夜福利不卡片在线 | 国产人妻人伦精品 | 小sao货水好多真紧h无码视频 | 国产xxx69麻豆国语对白 | 1000部啪啪未满十八勿入下载 | 中文字幕日韩精品一区二区三区 | 欧美 日韩 人妻 高清 中文 | 国产suv精品一区二区五 | 黑人粗大猛烈进出高潮视频 | 日日天日日夜日日摸 | 亚洲 欧美 激情 小说 另类 | 久久精品国产一区二区三区肥胖 | 精品一区二区不卡无码av | 亚洲一区二区三区在线观看网站 | 蜜臀av无码人妻精品 | 亚洲一区二区三区 | 国产精品久久久久久久影院 | 少妇邻居内射在线 | 亚洲a无码综合a国产av中文 | 自拍偷自拍亚洲精品被多人伦好爽 | 成人亚洲精品久久久久 | 国产99久久精品一区二区 | 国产深夜福利视频在线 | 亚洲精品一区三区三区在线观看 | 国产真实夫妇视频 | 熟女俱乐部五十路六十路av | 亚洲自偷自拍另类第1页 | 伊人色综合久久天天小片 | 精品国产国产综合精品 | 欧美国产亚洲日韩在线二区 | 亚洲欧美国产精品专区久久 | 久久综合久久自在自线精品自 | 性生交片免费无码看人 | 免费国产成人高清在线观看网站 | 蜜臀aⅴ国产精品久久久国产老师 | 日本又色又爽又黄的a片18禁 | 成人精品一区二区三区中文字幕 | 免费无码一区二区三区蜜桃大 | 人妻少妇精品视频专区 | 国产麻豆精品一区二区三区v视界 | 久久亚洲中文字幕无码 | 综合网日日天干夜夜久久 | 亚洲乱亚洲乱妇50p | 国产人妻精品一区二区三区不卡 | 在线看片无码永久免费视频 | 国产亚洲精品久久久久久国模美 | 色综合视频一区二区三区 | 久久久中文字幕日本无吗 | 青青青手机频在线观看 | 台湾无码一区二区 | 2019午夜福利不卡片在线 | 国产又爽又黄又刺激的视频 | 亚洲精品国产精品乱码视色 | 欧美日韩一区二区三区自拍 | 亚洲成av人片天堂网无码】 | 久久久成人毛片无码 | 日韩成人一区二区三区在线观看 | 女人被男人躁得好爽免费视频 | 国产成人一区二区三区别 | 国产亚洲精品久久久久久大师 | 暴力强奷在线播放无码 | 国产精品嫩草久久久久 | 亚洲欧洲日本无在线码 | 国产97人人超碰caoprom | 久久国产精品萌白酱免费 | 久久亚洲国产成人精品性色 | 麻豆国产人妻欲求不满谁演的 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 日韩精品无码一区二区中文字幕 | 久久久久久久久蜜桃 | 亚洲中文字幕乱码av波多ji | 久久aⅴ免费观看 | 99在线 | 亚洲 | 亚洲の无码国产の无码步美 | 国内精品人妻无码久久久影院蜜桃 | 国精产品一品二品国精品69xx | 欧美丰满老熟妇xxxxx性 | 曰韩少妇内射免费播放 | aⅴ在线视频男人的天堂 | 六月丁香婷婷色狠狠久久 | 天下第一社区视频www日本 | 色综合天天综合狠狠爱 | 久久久精品成人免费观看 | 精品国偷自产在线视频 | 福利一区二区三区视频在线观看 | 亚洲成色在线综合网站 | 久久国产精品精品国产色婷婷 | 色情久久久av熟女人妻网站 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 日本护士毛茸茸高潮 | 中文字幕无码av激情不卡 | 18禁止看的免费污网站 | 精品国产国产综合精品 | 97无码免费人妻超级碰碰夜夜 | www一区二区www免费 | 国产乡下妇女做爰 | 精品成人av一区二区三区 | 欧美真人作爱免费视频 | 麻豆国产人妻欲求不满 | 免费视频欧美无人区码 | 午夜熟女插插xx免费视频 | 欧美乱妇无乱码大黄a片 | 国产精品久久久一区二区三区 | 国产97在线 | 亚洲 | 大地资源中文第3页 | 呦交小u女精品视频 | 精品国偷自产在线视频 | 国产亚洲精品久久久久久国模美 | 天堂а√在线中文在线 | 久久精品女人的天堂av | 亚洲国产精品美女久久久久 | 免费无码av一区二区 | 又湿又紧又大又爽a视频国产 | 内射爽无广熟女亚洲 | 国产成人午夜福利在线播放 | 日本在线高清不卡免费播放 | 精品偷拍一区二区三区在线看 | 成人免费视频一区二区 | 乌克兰少妇xxxx做受 | ass日本丰满熟妇pics | 精品无码国产一区二区三区av | 女高中生第一次破苞av | 人妻少妇精品无码专区二区 | 亚洲精品综合五月久久小说 | 亚洲日本一区二区三区在线 | 人妻无码αv中文字幕久久琪琪布 | 天堂一区人妻无码 | 国产农村妇女高潮大叫 | 国产熟女一区二区三区四区五区 | 欧美色就是色 | 色欲av亚洲一区无码少妇 | 亚洲色欲色欲欲www在线 | 国产无套粉嫩白浆在线 | 中文字幕av伊人av无码av | 精品人妻中文字幕有码在线 | 少妇邻居内射在线 | 亚洲区欧美区综合区自拍区 | 日韩欧美中文字幕公布 | 撕开奶罩揉吮奶头视频 | 88国产精品欧美一区二区三区 | 国产av剧情md精品麻豆 | 久久久精品成人免费观看 | 国产成人亚洲综合无码 | 亚洲精品一区国产 | 亚洲无人区一区二区三区 | 纯爱无遮挡h肉动漫在线播放 | 亚洲中文字幕va福利 | 免费国产黄网站在线观看 | 最近的中文字幕在线看视频 | 国产精品美女久久久 | 欧美自拍另类欧美综合图片区 | 国产成人无码区免费内射一片色欲 | 亚洲自偷自拍另类第1页 | 久久视频在线观看精品 | 狠狠噜狠狠狠狠丁香五月 | 波多野结衣乳巨码无在线观看 | 亚洲精品国产精品乱码不卡 | 人妻中文无码久热丝袜 | 精品无人国产偷自产在线 | 久久精品无码一区二区三区 | 99久久精品无码一区二区毛片 | 久久久www成人免费毛片 | 成人aaa片一区国产精品 | 少妇性俱乐部纵欲狂欢电影 | av在线亚洲欧洲日产一区二区 | 日本精品久久久久中文字幕 | 乌克兰少妇性做爰 | 无码福利日韩神码福利片 | 午夜精品一区二区三区在线观看 | 日本乱偷人妻中文字幕 | 中文字幕无码日韩专区 | 免费网站看v片在线18禁无码 | 999久久久国产精品消防器材 | 亚无码乱人伦一区二区 | 人妻尝试又大又粗久久 | 亚洲熟妇自偷自拍另类 | 亚洲色欲色欲天天天www | 成熟妇人a片免费看网站 | 精品国产aⅴ无码一区二区 | 伊人久久大香线蕉午夜 | 天堂在线观看www | 欧美猛少妇色xxxxx | 欧美日韩一区二区免费视频 | 亚洲精品国偷拍自产在线观看蜜桃 | 未满成年国产在线观看 | 亚洲精品鲁一鲁一区二区三区 | 日韩精品无码免费一区二区三区 | 欧美日韩一区二区综合 | 国产精品亚洲lv粉色 | 国产成人无码午夜视频在线观看 | 精品人妻av区 | 妺妺窝人体色www婷婷 | 国产莉萝无码av在线播放 | 久久精品国产一区二区三区肥胖 | 又紧又大又爽精品一区二区 | 性色av无码免费一区二区三区 | 久久无码中文字幕免费影院蜜桃 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 国内少妇偷人精品视频免费 | 国产精品高潮呻吟av久久 | 午夜肉伦伦影院 | 巨爆乳无码视频在线观看 | 啦啦啦www在线观看免费视频 | 成人aaa片一区国产精品 | 国产午夜亚洲精品不卡下载 | 国产口爆吞精在线视频 | 国产亚洲精品精品国产亚洲综合 | 女人被男人躁得好爽免费视频 | 久久国产自偷自偷免费一区调 | 中国女人内谢69xxxx | а天堂中文在线官网 | 亚洲中文字幕在线观看 | 香蕉久久久久久av成人 | 无遮挡啪啪摇乳动态图 | 国产在线一区二区三区四区五区 | 精品无码国产自产拍在线观看蜜 | 国产 精品 自在自线 | 国产特级毛片aaaaaaa高清 | 国产一区二区三区四区五区加勒比 | 丁香花在线影院观看在线播放 | 日韩在线不卡免费视频一区 | 国产特级毛片aaaaaaa高清 | 老司机亚洲精品影院无码 | 精品亚洲成av人在线观看 | 亚洲乱码日产精品bd | 伦伦影院午夜理论片 | 99精品久久毛片a片 | aⅴ在线视频男人的天堂 | 综合网日日天干夜夜久久 | 最新国产乱人伦偷精品免费网站 | 自拍偷自拍亚洲精品被多人伦好爽 | 动漫av网站免费观看 | 99久久精品国产一区二区蜜芽 | 丰满人妻一区二区三区免费视频 | 超碰97人人做人人爱少妇 | 欧美丰满老熟妇xxxxx性 | 中文字幕日产无线码一区 | 久久无码专区国产精品s | 中国大陆精品视频xxxx | 欧洲vodafone精品性 | 日本熟妇乱子伦xxxx | 一本久道久久综合狠狠爱 | 高清不卡一区二区三区 | 精品一区二区三区波多野结衣 | 国产精品久久久久9999小说 | 日本精品少妇一区二区三区 | 亚洲精品久久久久久一区二区 | 国产一区二区三区四区五区加勒比 | 日韩 欧美 动漫 国产 制服 | 免费观看又污又黄的网站 | 99久久亚洲精品无码毛片 | 婷婷六月久久综合丁香 | 无套内谢的新婚少妇国语播放 | 中文字幕日韩精品一区二区三区 | 日本高清一区免费中文视频 | 久久精品人人做人人综合 | 久久亚洲精品成人无码 | 久久精品国产一区二区三区肥胖 | 精品亚洲韩国一区二区三区 | 又大又黄又粗又爽的免费视频 | 欧美三级a做爰在线观看 | 粗大的内捧猛烈进出视频 | 国产精品久久久久7777 | 精品国产av色一区二区深夜久久 | 亚洲国产精品一区二区美利坚 | 亚洲经典千人经典日产 | 国产激情综合五月久久 | 午夜无码区在线观看 | 熟妇人妻中文av无码 | 久久国产精品_国产精品 | 天堂一区人妻无码 | 无人区乱码一区二区三区 | 少妇人妻偷人精品无码视频 | 国产亚洲视频中文字幕97精品 | 麻豆蜜桃av蜜臀av色欲av | 色综合久久久久综合一本到桃花网 | 亚洲 欧美 激情 小说 另类 | 国产精品亚洲综合色区韩国 | www国产亚洲精品久久网站 | 97夜夜澡人人爽人人喊中国片 | 在线播放免费人成毛片乱码 | 草草网站影院白丝内射 | 国产精品久久久 | 欧美日本精品一区二区三区 | 无遮无挡爽爽免费视频 | 亚洲精品国产第一综合99久久 | 麻豆精品国产精华精华液好用吗 | 久久久婷婷五月亚洲97号色 | 思思久久99热只有频精品66 | 亚洲精品国偷拍自产在线麻豆 | 久久久精品成人免费观看 | 中文字幕av日韩精品一区二区 | 国产精品办公室沙发 | 久久久久亚洲精品男人的天堂 | 东京热无码av男人的天堂 | 日韩亚洲欧美精品综合 | 国产特级毛片aaaaaa高潮流水 | 99久久精品日本一区二区免费 | 国产无遮挡又黄又爽免费视频 | 国产成人综合美国十次 | 熟妇人妻无码xxx视频 | 国产精品久久久av久久久 | 东京热无码av男人的天堂 | 中文字幕无码免费久久9一区9 | 天天燥日日燥 | 亚洲日韩av片在线观看 | 中文字幕人妻无码一夲道 | 日日摸夜夜摸狠狠摸婷婷 | 国产成人综合美国十次 | 国产特级毛片aaaaaaa高清 | 国产三级精品三级男人的天堂 | 丁香花在线影院观看在线播放 | 亚洲中文字幕在线无码一区二区 | 国产欧美亚洲精品a | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 欧美精品无码一区二区三区 | 国产精品视频免费播放 | 午夜精品一区二区三区在线观看 | 任你躁在线精品免费 | 99精品无人区乱码1区2区3区 | 久久99热只有频精品8 | 丰满护士巨好爽好大乳 | 强奷人妻日本中文字幕 | 少妇人妻av毛片在线看 | 欧美日韩综合一区二区三区 | 亚洲自偷精品视频自拍 | 国产成人精品一区二区在线小狼 | 我要看www免费看插插视频 | 亚洲乱码中文字幕在线 | 国产亚洲视频中文字幕97精品 | 亚洲男人av天堂午夜在 | 日日摸夜夜摸狠狠摸婷婷 | 一二三四在线观看免费视频 | 日本在线高清不卡免费播放 | 强辱丰满人妻hd中文字幕 | 色一情一乱一伦一区二区三欧美 | 亚洲国产精品无码久久久久高潮 | 欧美日韩一区二区免费视频 | 国产国产精品人在线视 | 亚洲色欲久久久综合网东京热 | 欧美日韩在线亚洲综合国产人 | 亚洲色偷偷偷综合网 | 久久精品国产99精品亚洲 | 欧美日本精品一区二区三区 | 中文字幕无线码免费人妻 | 国内精品人妻无码久久久影院 | 国内老熟妇对白xxxxhd | 久久综合香蕉国产蜜臀av | 女人被爽到呻吟gif动态图视看 | 妺妺窝人体色www婷婷 | 亚洲综合精品香蕉久久网 | 亚洲日本va午夜在线电影 | 国产成人无码av在线影院 | 国产亚洲精品久久久ai换 | 国产熟妇高潮叫床视频播放 | 美女张开腿让人桶 | 国产成人精品久久亚洲高清不卡 | 内射老妇bbwx0c0ck | 国产精品久久久久7777 | 少妇被粗大的猛进出69影院 | 日韩精品a片一区二区三区妖精 | 欧美真人作爱免费视频 | 日韩视频 中文字幕 视频一区 | 国产精品久久国产三级国 | 久久精品人妻少妇一区二区三区 | 亚洲色无码一区二区三区 | 亚洲 另类 在线 欧美 制服 | 亚洲爆乳大丰满无码专区 | 天海翼激烈高潮到腰振不止 | 乌克兰少妇xxxx做受 | 国产特级毛片aaaaaaa高清 | 红桃av一区二区三区在线无码av | 国产成人精品久久亚洲高清不卡 | 精品国产一区二区三区av 性色 | 天天av天天av天天透 | 377p欧洲日本亚洲大胆 | 300部国产真实乱 | 人人妻人人澡人人爽欧美一区 | 18禁止看的免费污网站 | 亚洲精品无码国产 | 国产激情精品一区二区三区 | 国产人妻人伦精品1国产丝袜 | 蜜桃视频韩日免费播放 | 国产精品久久久久久亚洲影视内衣 | 内射爽无广熟女亚洲 | 国产高清不卡无码视频 | 亚洲中文字幕无码中字 | 亚洲综合在线一区二区三区 | 丰满人妻一区二区三区免费视频 | 国产乱人偷精品人妻a片 | 又湿又紧又大又爽a视频国产 | 国产精品第一区揄拍无码 | 狠狠色噜噜狠狠狠狠7777米奇 | av人摸人人人澡人人超碰下载 | 亚洲精品中文字幕久久久久 | 久久亚洲精品成人无码 | 日本xxxx色视频在线观看免费 | 日本精品久久久久中文字幕 | 色婷婷欧美在线播放内射 | 欧美激情综合亚洲一二区 | 精品厕所偷拍各类美女tp嘘嘘 | 精品少妇爆乳无码av无码专区 | 中文字幕色婷婷在线视频 | 国产亚洲精品久久久闺蜜 | 久久久久久亚洲精品a片成人 | 色欲久久久天天天综合网精品 | 无码国内精品人妻少妇 | 图片区 小说区 区 亚洲五月 | 国产色在线 | 国产 | 麻花豆传媒剧国产免费mv在线 | 国产电影无码午夜在线播放 | 亚洲成色www久久网站 | 巨爆乳无码视频在线观看 | 久久久久久久人妻无码中文字幕爆 | 中文字幕无码av波多野吉衣 | 成人影院yy111111在线观看 | 亚洲小说图区综合在线 | 久久99精品久久久久久 | 波多野结衣高清一区二区三区 | 久久国产精品二国产精品 | 日本在线高清不卡免费播放 | 国产免费观看黄av片 | 国产精品久久久久久亚洲影视内衣 | 波多野结衣一区二区三区av免费 | 国产亚洲精品久久久久久国模美 | 一个人看的www免费视频在线观看 | 久久精品无码一区二区三区 | 欧洲vodafone精品性 | 熟女少妇在线视频播放 | 国产片av国语在线观看 | 亚洲熟妇色xxxxx欧美老妇y | 伊人久久婷婷五月综合97色 | 亚洲成av人在线观看网址 | 无码纯肉视频在线观看 | 骚片av蜜桃精品一区 | 人妻aⅴ无码一区二区三区 | 秋霞特色aa大片 | 久久这里只有精品视频9 | 国产热a欧美热a在线视频 | 牲欲强的熟妇农村老妇女 | 亚洲中文字幕在线无码一区二区 | 狂野欧美激情性xxxx | 国产成人无码专区 | 日本大香伊一区二区三区 | 亚洲欧美国产精品久久 | 久久zyz资源站无码中文动漫 | 久久 国产 尿 小便 嘘嘘 | 少妇无码一区二区二三区 | 无码国产乱人伦偷精品视频 | 国产人妻人伦精品 | 中文字幕精品av一区二区五区 | 67194成是人免费无码 | 好爽又高潮了毛片免费下载 | 国产人妻精品一区二区三区 | 黑人玩弄人妻中文在线 | 成人免费无码大片a毛片 | 国产精品成人av在线观看 | 亚洲成av人在线观看网址 | 中文字幕亚洲情99在线 | 亚洲人亚洲人成电影网站色 | 亚洲人成网站免费播放 | 中文字幕中文有码在线 | 久久99精品久久久久婷婷 | 中文字幕乱码人妻无码久久 | 亚洲日韩一区二区三区 | 天海翼激烈高潮到腰振不止 | 亚洲人成网站在线播放942 | 久精品国产欧美亚洲色aⅴ大片 | 欧美日韩在线亚洲综合国产人 | 88国产精品欧美一区二区三区 | 欧洲欧美人成视频在线 | 2020久久超碰国产精品最新 | 国产三级久久久精品麻豆三级 | 成人女人看片免费视频放人 | 成人动漫在线观看 | 乱人伦人妻中文字幕无码久久网 | 亚洲日韩中文字幕在线播放 | 日日夜夜撸啊撸 | 欧美日本精品一区二区三区 | 天天摸天天透天天添 | 亚洲国产精品毛片av不卡在线 | 强伦人妻一区二区三区视频18 | 一区二区三区乱码在线 | 欧洲 | 日韩欧美成人免费观看 | 98国产精品综合一区二区三区 | 国产午夜亚洲精品不卡 | 波多野结衣高清一区二区三区 | 国产三级精品三级男人的天堂 | 性开放的女人aaa片 | 中文字幕精品av一区二区五区 | 无码纯肉视频在线观看 | 色综合久久久无码网中文 | 久久久av男人的天堂 | 伊人久久大香线蕉av一区二区 | 国内精品人妻无码久久久影院蜜桃 | 午夜精品久久久内射近拍高清 | 欧美国产亚洲日韩在线二区 | 国产亚洲视频中文字幕97精品 | 国产精品亚洲综合色区韩国 | 久久精品人妻少妇一区二区三区 | 一个人看的www免费视频在线观看 | 无码国产激情在线观看 | 狠狠色欧美亚洲狠狠色www | 亚欧洲精品在线视频免费观看 | 免费播放一区二区三区 | 国产成人精品必看 | 日日摸夜夜摸狠狠摸婷婷 | 亚洲a无码综合a国产av中文 | 久久亚洲日韩精品一区二区三区 | 在教室伦流澡到高潮hnp视频 | 狠狠色色综合网站 | 国产精品久久精品三级 | 国产精品久久久久久无码 | 天天躁夜夜躁狠狠是什么心态 | 久久久婷婷五月亚洲97号色 | 在线成人www免费观看视频 | www国产精品内射老师 | 日韩欧美中文字幕公布 | 久久亚洲国产成人精品性色 | 国产另类ts人妖一区二区 | 国产精品久久久久影院嫩草 | 波多野结衣av一区二区全免费观看 | 国产精品99爱免费视频 | 无码av中文字幕免费放 | 亚洲国产av美女网站 | 亚洲欧美精品aaaaaa片 | 国产真实夫妇视频 | 日韩亚洲欧美精品综合 | 在线观看欧美一区二区三区 | 国产亚洲精品久久久久久久 | 亚洲中文字幕无码中文字在线 | 性欧美熟妇videofreesex | 1000部啪啪未满十八勿入下载 | 亚洲va欧美va天堂v国产综合 | 台湾无码一区二区 | 日产国产精品亚洲系列 | 亚洲精品久久久久中文第一幕 | 人人爽人人澡人人高潮 | 亚洲一区二区三区国产精华液 | 全黄性性激高免费视频 | 亚洲国产精品无码一区二区三区 | 1000部夫妻午夜免费 | 中文字幕无码免费久久9一区9 | 亚洲无人区午夜福利码高清完整版 | 美女毛片一区二区三区四区 | 国产97色在线 | 免 | 东京热无码av男人的天堂 | 日日麻批免费40分钟无码 | 国产人成高清在线视频99最全资源 | 国产精品久久久久7777 | 中文精品久久久久人妻不卡 | 人人妻人人澡人人爽人人精品 | 国产办公室秘书无码精品99 | 久久久久免费精品国产 | 97无码免费人妻超级碰碰夜夜 | 久久午夜无码鲁丝片秋霞 | 人妻少妇精品视频专区 | 亚洲欧美综合区丁香五月小说 | 国产无av码在线观看 | 精品熟女少妇av免费观看 | 亚洲欧美日韩成人高清在线一区 | 亚洲成av人在线观看网址 | 国产欧美亚洲精品a | 国产人妻人伦精品 | 久久久成人毛片无码 | 国产精品久久国产三级国 | 中文无码精品a∨在线观看不卡 | 国产一区二区三区日韩精品 | 亚洲性无码av中文字幕 | 波多野结衣 黑人 | 欧美丰满老熟妇xxxxx性 | 亚洲日韩av一区二区三区中文 | 97久久国产亚洲精品超碰热 | 亚洲精品午夜国产va久久成人 | 久久精品中文字幕大胸 | 18禁止看的免费污网站 | 精品无码一区二区三区爱欲 | 国产无套粉嫩白浆在线 | 午夜福利试看120秒体验区 | 内射白嫩少妇超碰 | 国产片av国语在线观看 | 欧美老妇交乱视频在线观看 | 国产性生大片免费观看性 | 麻豆av传媒蜜桃天美传媒 | 国产综合色产在线精品 | 小泽玛莉亚一区二区视频在线 | 亚洲a无码综合a国产av中文 | 国产激情精品一区二区三区 | 久久国产精品二国产精品 | 亚洲毛片av日韩av无码 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲日韩精品欧美一区二区 | 日韩视频 中文字幕 视频一区 | 国产精品成人av在线观看 | 欧美色就是色 | 精品无码国产自产拍在线观看蜜 | 奇米影视888欧美在线观看 | 女人被男人躁得好爽免费视频 | 无遮挡国产高潮视频免费观看 | 日韩av无码中文无码电影 | 97精品国产97久久久久久免费 | 亚洲国产成人a精品不卡在线 | 疯狂三人交性欧美 | 日本大乳高潮视频在线观看 | 亚洲国产综合无码一区 | 99久久久无码国产精品免费 | 欧美人与善在线com | 国产三级精品三级男人的天堂 | 久久久久亚洲精品男人的天堂 | 自拍偷自拍亚洲精品被多人伦好爽 | 东京热无码av男人的天堂 | 丝袜 中出 制服 人妻 美腿 | 亚洲精品综合五月久久小说 | 荫蒂添的好舒服视频囗交 | aⅴ亚洲 日韩 色 图网站 播放 | 久久 国产 尿 小便 嘘嘘 | 亚洲中文字幕无码一久久区 | 色婷婷综合激情综在线播放 | 青青青爽视频在线观看 | 免费观看的无遮挡av | 久久久久久亚洲精品a片成人 | 国内精品久久久久久中文字幕 | 无码av岛国片在线播放 | 女高中生第一次破苞av | 国产成人无码av一区二区 | 亚洲第一网站男人都懂 | 3d动漫精品啪啪一区二区中 | 国产精品资源一区二区 | 亚洲精品久久久久久久久久久 | 国产精品高潮呻吟av久久4虎 | 亚洲中文字幕无码中文字在线 | 粗大的内捧猛烈进出视频 | 亚洲日韩一区二区 | 亚洲精品久久久久avwww潮水 | 亚洲日本va中文字幕 | www国产亚洲精品久久网站 | 国产热a欧美热a在线视频 | 乱中年女人伦av三区 | 久久久久av无码免费网 | 秋霞成人午夜鲁丝一区二区三区 | 丰满护士巨好爽好大乳 | 正在播放老肥熟妇露脸 | 无码人妻黑人中文字幕 | 久久99久久99精品中文字幕 | 久久精品无码一区二区三区 | 帮老师解开蕾丝奶罩吸乳网站 | 中文字幕无码av激情不卡 | 18无码粉嫩小泬无套在线观看 | 激情亚洲一区国产精品 | 国内精品一区二区三区不卡 | 无码一区二区三区在线 | 未满小14洗澡无码视频网站 | 国产精品丝袜黑色高跟鞋 | 性做久久久久久久久 | 亚洲一区二区观看播放 | 少妇人妻av毛片在线看 | 久久久久99精品国产片 | 午夜精品一区二区三区在线观看 | 久久久久成人精品免费播放动漫 | 国产黑色丝袜在线播放 | 国产一区二区三区日韩精品 | 亚洲狠狠婷婷综合久久 | 久在线观看福利视频 | 狂野欧美性猛xxxx乱大交 | 99久久人妻精品免费一区 | 成在人线av无码免费 | 国产办公室秘书无码精品99 | 久久午夜无码鲁丝片午夜精品 | 亚洲一区二区三区含羞草 | 亚洲一区二区三区四区 | 在线成人www免费观看视频 | 成人欧美一区二区三区 | 伊人色综合久久天天小片 | 国产偷抇久久精品a片69 | 欧美 丝袜 自拍 制服 另类 | 男女爱爱好爽视频免费看 | 内射老妇bbwx0c0ck | 未满小14洗澡无码视频网站 | 国产精品久久久久久久9999 | 国产麻豆精品一区二区三区v视界 | 久久精品国产一区二区三区肥胖 | 久久精品视频在线看15 | 国产内射老熟女aaaa | 国产香蕉97碰碰久久人人 | 国产av一区二区三区最新精品 | 欧美日韩一区二区免费视频 | 日韩人妻系列无码专区 | 成人无码精品一区二区三区 | 久青草影院在线观看国产 | 狠狠色色综合网站 | 青草青草久热国产精品 | 四十如虎的丰满熟妇啪啪 | 精品 日韩 国产 欧美 视频 | 亚洲 高清 成人 动漫 | 精品无码一区二区三区爱欲 | 亚洲国产精品毛片av不卡在线 | 精品国产一区av天美传媒 | 中文无码伦av中文字幕 | 国产精品成人av在线观看 | 亚洲区小说区激情区图片区 | 亚洲 激情 小说 另类 欧美 | 久久久精品欧美一区二区免费 | 亚洲成a人一区二区三区 | 麻豆精品国产精华精华液好用吗 | 国产成人综合在线女婷五月99播放 | 国产精品高潮呻吟av久久4虎 | 中文字幕乱码人妻无码久久 | 最新国产麻豆aⅴ精品无码 | 夜夜高潮次次欢爽av女 | 久在线观看福利视频 | 夫妻免费无码v看片 | 蜜桃臀无码内射一区二区三区 | 成人免费视频一区二区 | 最近免费中文字幕中文高清百度 | 日日鲁鲁鲁夜夜爽爽狠狠 | 亚洲国产精品久久久久久 | 亚洲色欲色欲欲www在线 | 九九久久精品国产免费看小说 | 亚洲精品国产精品乱码不卡 | 丰满岳乱妇在线观看中字无码 | 麻豆成人精品国产免费 | 99精品国产综合久久久久五月天 | 四虎国产精品一区二区 | 天天躁日日躁狠狠躁免费麻豆 | 97久久精品无码一区二区 | 国产综合色产在线精品 | 中文字幕 亚洲精品 第1页 | 久久久精品成人免费观看 | 亚洲精品国产第一综合99久久 | 国产精品人妻一区二区三区四 | 国产在线aaa片一区二区99 | 国产99久久精品一区二区 | 夜夜躁日日躁狠狠久久av | 性做久久久久久久免费看 | 日韩亚洲欧美精品综合 | 蜜臀aⅴ国产精品久久久国产老师 | 特黄特色大片免费播放器图片 | 国产激情无码一区二区app | 中文字幕无码日韩欧毛 | 色爱情人网站 | 内射巨臀欧美在线视频 | 国产成人人人97超碰超爽8 | 无码国模国产在线观看 | 国产精品视频免费播放 | 亚洲 激情 小说 另类 欧美 | 久久精品人妻少妇一区二区三区 | 激情国产av做激情国产爱 | 日韩无码专区 | 无码人妻丰满熟妇区毛片18 | 欧美精品免费观看二区 | 天堂亚洲2017在线观看 | 特大黑人娇小亚洲女 | 无码人妻出轨黑人中文字幕 | 成人动漫在线观看 | 欧美日本精品一区二区三区 | 日本精品少妇一区二区三区 | 2019午夜福利不卡片在线 | 天堂在线观看www | 国产精品毛片一区二区 | 久久国产劲爆∧v内射 | 亚洲小说春色综合另类 | 欧美熟妇另类久久久久久不卡 | 久久99久久99精品中文字幕 | 亚洲 高清 成人 动漫 | 色一情一乱一伦一视频免费看 | 在线视频网站www色 | 亚洲a无码综合a国产av中文 | 国产真实伦对白全集 | 国产亚洲视频中文字幕97精品 | 国产无遮挡又黄又爽免费视频 | 成人动漫在线观看 | 国产三级久久久精品麻豆三级 | 天堂无码人妻精品一区二区三区 | 日韩欧美成人免费观看 | 国产亚洲欧美日韩亚洲中文色 | 亚洲狠狠婷婷综合久久 | 午夜精品久久久内射近拍高清 | 中国女人内谢69xxxx | www国产亚洲精品久久网站 | 中文字幕精品av一区二区五区 | 亚洲精品国偷拍自产在线麻豆 | 蜜桃无码一区二区三区 | 国产艳妇av在线观看果冻传媒 | 狠狠色欧美亚洲狠狠色www | 天天拍夜夜添久久精品 | 97久久精品无码一区二区 | 国产激情精品一区二区三区 | 正在播放老肥熟妇露脸 | 国产精品久久久久久亚洲影视内衣 | 精品欧美一区二区三区久久久 | 国产午夜亚洲精品不卡下载 | 中文无码精品a∨在线观看不卡 | 久久婷婷五月综合色国产香蕉 | 麻豆国产人妻欲求不满谁演的 | 76少妇精品导航 | 亚洲中文字幕乱码av波多ji | 成人性做爰aaa片免费看 | 高清国产亚洲精品自在久久 | 女人被男人躁得好爽免费视频 | 亚洲国产一区二区三区在线观看 | 国产偷自视频区视频 | 少妇邻居内射在线 | 色婷婷av一区二区三区之红樱桃 | 中文字幕人妻丝袜二区 | 精品亚洲韩国一区二区三区 | 性啪啪chinese东北女人 | 夜精品a片一区二区三区无码白浆 | 国产午夜亚洲精品不卡下载 | 国产精品毛多多水多 | 伊在人天堂亚洲香蕉精品区 | 亚洲欧美中文字幕5发布 | 精品无码一区二区三区爱欲 | 久久亚洲中文字幕精品一区 | 曰本女人与公拘交酡免费视频 | 国产97色在线 | 免 | 波多野结衣高清一区二区三区 | 欧美 亚洲 国产 另类 | 婷婷综合久久中文字幕蜜桃三电影 | 国产午夜精品一区二区三区嫩草 | 午夜精品久久久久久久 | 国产精品久久久久久久9999 | 国模大胆一区二区三区 | 国产精品亚洲а∨无码播放麻豆 | 成人亚洲精品久久久久软件 | 国产精品久久国产三级国 | 色情久久久av熟女人妻网站 | 亚洲色大成网站www国产 | 未满成年国产在线观看 | 欧洲欧美人成视频在线 | 天堂а√在线地址中文在线 | 亚洲中文字幕无码中文字在线 | 国产精品高潮呻吟av久久4虎 | 国产suv精品一区二区五 | 无码国产激情在线观看 | 国产口爆吞精在线视频 | 成人精品天堂一区二区三区 | 亚洲午夜福利在线观看 | 在线视频网站www色 | 久久精品丝袜高跟鞋 | 国产精品-区区久久久狼 | 亚洲国产日韩a在线播放 | 人人爽人人澡人人高潮 | 女高中生第一次破苞av | 宝宝好涨水快流出来免费视频 | 少妇一晚三次一区二区三区 | 中文字幕精品av一区二区五区 | 日本精品少妇一区二区三区 | 无码国产色欲xxxxx视频 | 99精品国产综合久久久久五月天 | 亚洲天堂2017无码中文 | 亚洲日本va午夜在线电影 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲第一无码av无码专区 | 国产成人无码a区在线观看视频app | 任你躁国产自任一区二区三区 | 成熟女人特级毛片www免费 | 内射白嫩少妇超碰 | 色一情一乱一伦一视频免费看 | 亚洲成av人片在线观看无码不卡 | 99久久精品午夜一区二区 | а√天堂www在线天堂小说 | 精品无码成人片一区二区98 | 日本乱偷人妻中文字幕 | 免费无码午夜福利片69 | 亚洲国产一区二区三区在线观看 | 999久久久国产精品消防器材 | 欧美激情内射喷水高潮 | 7777奇米四色成人眼影 | 成人试看120秒体验区 | 久久99精品久久久久婷婷 | 少妇高潮一区二区三区99 | 亚洲中文无码av永久不收费 | 99麻豆久久久国产精品免费 | 成熟妇人a片免费看网站 | 欧美精品无码一区二区三区 | 强辱丰满人妻hd中文字幕 | 精品无码国产一区二区三区av | 亚洲人成网站免费播放 | 人人妻人人澡人人爽人人精品浪潮 | 少妇性l交大片欧洲热妇乱xxx | 亚洲中文字幕无码一久久区 | 亚洲一区二区三区无码久久 | 丰满护士巨好爽好大乳 | 国产亚洲人成a在线v网站 | 久久精品女人的天堂av | av人摸人人人澡人人超碰下载 | 三级4级全黄60分钟 | 在线天堂新版最新版在线8 | 亚洲男人av香蕉爽爽爽爽 | 两性色午夜视频免费播放 | 人人爽人人爽人人片av亚洲 | 无码福利日韩神码福利片 | 欧美成人午夜精品久久久 | 老子影院午夜伦不卡 | 日韩av无码一区二区三区 | 久久99精品国产麻豆 | 亚洲国产精品无码一区二区三区 | 狂野欧美性猛xxxx乱大交 | 欧美国产日韩久久mv | 熟妇人妻无码xxx视频 | 又紧又大又爽精品一区二区 | 两性色午夜视频免费播放 | 无码纯肉视频在线观看 | 性色欲网站人妻丰满中文久久不卡 | 亚洲国产精品久久久久久 | 欧美精品在线观看 | 国产av无码专区亚洲a∨毛片 | 国产欧美熟妇另类久久久 | 日本精品人妻无码免费大全 | 精品无人区无码乱码毛片国产 | 色婷婷久久一区二区三区麻豆 | 欧美日韩在线亚洲综合国产人 | 亚洲一区二区三区无码久久 | 亚洲精品一区二区三区四区五区 | 国产人妻大战黑人第1集 | 曰本女人与公拘交酡免费视频 | 国产亚洲精品久久久久久大师 | 国产精品久久久久7777 | 日本精品人妻无码77777 天堂一区人妻无码 | 色综合天天综合狠狠爱 | 日本熟妇乱子伦xxxx | 任你躁国产自任一区二区三区 | 日韩欧美中文字幕在线三区 | 丝袜人妻一区二区三区 | 少妇一晚三次一区二区三区 | 欧美人与善在线com | 美女极度色诱视频国产 | 一本色道久久综合亚洲精品不卡 | 国产香蕉97碰碰久久人人 | 99久久久无码国产aaa精品 | 内射爽无广熟女亚洲 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产成人综合在线女婷五月99播放 | 小泽玛莉亚一区二区视频在线 | www国产精品内射老师 | 色欲人妻aaaaaaa无码 | 麻豆成人精品国产免费 | 国产免费久久久久久无码 | 精品无码国产自产拍在线观看蜜 | 久久久www成人免费毛片 | 18精品久久久无码午夜福利 | 在线欧美精品一区二区三区 | 国产激情精品一区二区三区 | 亚洲色大成网站www | 国产性生大片免费观看性 | 中文久久乱码一区二区 | 久在线观看福利视频 | 亚洲精品一区二区三区在线 | 免费观看又污又黄的网站 | 极品嫩模高潮叫床 | 欧美国产亚洲日韩在线二区 | 人人妻人人澡人人爽精品欧美 | 国内老熟妇对白xxxxhd | 暴力强奷在线播放无码 | 99视频精品全部免费免费观看 | 亚洲国产精品毛片av不卡在线 | 久久综合狠狠综合久久综合88 | 亚洲第一网站男人都懂 | 人妻无码αv中文字幕久久琪琪布 | 色综合久久中文娱乐网 | 中文字幕无码av波多野吉衣 | 亚洲日韩一区二区三区 | 牲交欧美兽交欧美 | 日韩精品无码一区二区中文字幕 | 女人被男人躁得好爽免费视频 | 欧美性猛交内射兽交老熟妇 | 男女爱爱好爽视频免费看 | 国产激情综合五月久久 | 午夜精品久久久久久久久 | 波多野结衣乳巨码无在线观看 | 暴力强奷在线播放无码 | 久久国语露脸国产精品电影 | 狠狠色噜噜狠狠狠狠7777米奇 | √天堂中文官网8在线 | 亚洲欧美色中文字幕在线 | 少妇高潮一区二区三区99 | 97精品国产97久久久久久免费 | 亚洲а∨天堂久久精品2021 | 波多野结衣高清一区二区三区 | 日本www一道久久久免费榴莲 | 男人扒开女人内裤强吻桶进去 | 国产又粗又硬又大爽黄老大爷视 | 在线视频网站www色 | 波多野结衣av一区二区全免费观看 | 无码国内精品人妻少妇 | 欧美黑人巨大xxxxx | 午夜无码区在线观看 | 成人三级无码视频在线观看 | 成人aaa片一区国产精品 | 动漫av一区二区在线观看 | 国产免费久久精品国产传媒 | 大肉大捧一进一出视频出来呀 | 欧美高清在线精品一区 | 九九热爱视频精品 | 久久久久av无码免费网 | 夜夜高潮次次欢爽av女 | 亚洲一区二区观看播放 | 一本久道久久综合狠狠爱 | 亚洲午夜福利在线观看 | 波多野结衣 黑人 | 在线天堂新版最新版在线8 | 一本久久a久久精品vr综合 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 无码吃奶揉捏奶头高潮视频 | 暴力强奷在线播放无码 | 水蜜桃色314在线观看 | 亚洲精品中文字幕 | 巨爆乳无码视频在线观看 | 少妇一晚三次一区二区三区 | 久久亚洲精品中文字幕无男同 | 国产激情一区二区三区 | 亚洲无人区一区二区三区 | 无码av中文字幕免费放 | 亚洲经典千人经典日产 | 日本爽爽爽爽爽爽在线观看免 | 无码人妻av免费一区二区三区 | 午夜成人1000部免费视频 | 国产精品va在线播放 | 无码国模国产在线观看 | 国产乱人伦av在线无码 | 日韩少妇白浆无码系列 | 亚洲国精产品一二二线 | 亚洲一区二区三区无码久久 | 野狼第一精品社区 | 亚洲爆乳精品无码一区二区三区 | 亚洲 高清 成人 动漫 | 日韩av无码一区二区三区不卡 | 男女下面进入的视频免费午夜 | 国产成人精品必看 | 国产av一区二区三区最新精品 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产成人无码av在线影院 | 国产无套内射久久久国产 | 国产在线aaa片一区二区99 | 精品成人av一区二区三区 | 精品无人国产偷自产在线 | 日韩欧美中文字幕在线三区 | 黑人巨大精品欧美黑寡妇 | 免费观看的无遮挡av | 一本久久伊人热热精品中文字幕 | 永久免费观看美女裸体的网站 | 精品一区二区三区波多野结衣 | 欧美老人巨大xxxx做受 | 国产亚洲精品久久久久久久 | 国产精品多人p群无码 | 日本爽爽爽爽爽爽在线观看免 | 欧美精品国产综合久久 | 男女下面进入的视频免费午夜 | 日韩精品无码免费一区二区三区 | 免费人成在线视频无码 | 亚洲精品一区二区三区四区五区 | 精品国产青草久久久久福利 | 久久综合色之久久综合 | 久久久久99精品国产片 | 精品久久久无码中文字幕 | 亚洲啪av永久无码精品放毛片 | 成人片黄网站色大片免费观看 | 在线a亚洲视频播放在线观看 | 欧美性生交活xxxxxdddd | 亚洲精品久久久久avwww潮水 | 99精品久久毛片a片 | 人人爽人人澡人人高潮 | ass日本丰满熟妇pics | 四虎4hu永久免费 | 国产亚洲精品久久久久久 | 曰本女人与公拘交酡免费视频 | 亚洲自偷自拍另类第1页 | 中文字幕+乱码+中文字幕一区 | 国产精品毛多多水多 | 国产肉丝袜在线观看 | 欧美熟妇另类久久久久久不卡 | 亚洲国产精品美女久久久久 | 奇米影视888欧美在线观看 | 少妇无码吹潮 | 日本大香伊一区二区三区 | 亚洲自偷自拍另类第1页 | 国产亚洲精品久久久久久国模美 | 亚洲欧洲中文日韩av乱码 | 999久久久国产精品消防器材 | 日本丰满熟妇videos | 亚洲精品国偷拍自产在线麻豆 | 欧美激情内射喷水高潮 | 久久久久免费看成人影片 | 内射巨臀欧美在线视频 | 国产精品久久久av久久久 | 色欲久久久天天天综合网精品 | 亚洲中文字幕无码一久久区 | 青青青手机频在线观看 | 精品日本一区二区三区在线观看 | 色诱久久久久综合网ywww | 亚洲精品国产精品乱码不卡 | 一二三四社区在线中文视频 | 久久精品女人的天堂av | 亚洲日韩中文字幕在线播放 | 好爽又高潮了毛片免费下载 | 天堂а√在线地址中文在线 | 麻豆果冻传媒2021精品传媒一区下载 | 久久97精品久久久久久久不卡 | 日本熟妇乱子伦xxxx | 一本久久a久久精品vr综合 | 一本大道久久东京热无码av | 老熟妇仑乱视频一区二区 | 日日天日日夜日日摸 | 欧美激情内射喷水高潮 | 男女猛烈xx00免费视频试看 | 日本又色又爽又黄的a片18禁 | 国产无遮挡又黄又爽免费视频 | 久久精品99久久香蕉国产色戒 | 人妻少妇精品无码专区动漫 | 欧洲精品码一区二区三区免费看 | 爽爽影院免费观看 | 一本色道久久综合狠狠躁 | 国产精品高潮呻吟av久久 | 中文字幕无码免费久久99 | 装睡被陌生人摸出水好爽 | 精品一二三区久久aaa片 | 国产成人无码av在线影院 | 狠狠cao日日穞夜夜穞av | 中文字幕 人妻熟女 | 亚洲精品综合一区二区三区在线 | 亚洲啪av永久无码精品放毛片 | 色狠狠av一区二区三区 | 美女黄网站人色视频免费国产 | 欧美丰满熟妇xxxx性ppx人交 | 国精产品一品二品国精品69xx | 国产精品高潮呻吟av久久4虎 | 婷婷综合久久中文字幕蜜桃三电影 | 少女韩国电视剧在线观看完整 | 亚洲色欲久久久综合网东京热 | 日日橹狠狠爱欧美视频 | 中文字幕亚洲情99在线 | 亚洲日本在线电影 | 成人aaa片一区国产精品 | 国产精品无码成人午夜电影 | 国产激情精品一区二区三区 | 在线看片无码永久免费视频 | 亚洲爆乳精品无码一区二区三区 | 国产高潮视频在线观看 | 又黄又爽又色的视频 | 97资源共享在线视频 | 亚洲精品欧美二区三区中文字幕 | 精品国产一区二区三区四区在线看 | 天天拍夜夜添久久精品 | 久久亚洲中文字幕无码 | 性色av无码免费一区二区三区 | 亚洲人成网站免费播放 | 国产精华av午夜在线观看 | 国产亚洲精品久久久久久大师 | 精品厕所偷拍各类美女tp嘘嘘 | 一区二区三区乱码在线 | 欧洲 | 无码午夜成人1000部免费视频 | 九月婷婷人人澡人人添人人爽 | 性生交片免费无码看人 | 国精产品一区二区三区 | 中文字幕人妻无码一区二区三区 | 中文久久乱码一区二区 | 亚洲日韩一区二区三区 | 无码国产色欲xxxxx视频 | 精品偷自拍另类在线观看 | 亚洲国产一区二区三区在线观看 | 国产精品毛片一区二区 | 久久99国产综合精品 | 国产综合在线观看 | 成人aaa片一区国产精品 | 成人免费无码大片a毛片 | 东京热无码av男人的天堂 | 亚洲自偷自偷在线制服 | 在线欧美精品一区二区三区 | 中文字幕久久久久人妻 | 日韩欧美中文字幕公布 | 人人爽人人爽人人片av亚洲 | 高中生自慰www网站 | 国产精品亚洲五月天高清 | 亚洲码国产精品高潮在线 | 暴力强奷在线播放无码 | 国产精品视频免费播放 | 精品久久久中文字幕人妻 | 亚洲区欧美区综合区自拍区 | 国精品人妻无码一区二区三区蜜柚 | 亚洲一区二区三区四区 | 欧洲美熟女乱又伦 | 女人被爽到呻吟gif动态图视看 | 麻豆蜜桃av蜜臀av色欲av | 99精品无人区乱码1区2区3区 | 麻豆精品国产精华精华液好用吗 | 欧美激情内射喷水高潮 | 亚洲熟妇色xxxxx欧美老妇 | 国产精品视频免费播放 | a国产一区二区免费入口 | 成人免费视频视频在线观看 免费 | 国产精品爱久久久久久久 | 国产亚洲精品久久久久久 | 亚洲国产精品久久久天堂 | 日日摸日日碰夜夜爽av | 久久五月精品中文字幕 | 精品国产成人一区二区三区 | 成人免费视频一区二区 | 日本一区二区三区免费高清 | 2019nv天堂香蕉在线观看 | 内射欧美老妇wbb | 捆绑白丝粉色jk震动捧喷白浆 | 欧美喷潮久久久xxxxx | 成人三级无码视频在线观看 | 国产深夜福利视频在线 | 久久久精品成人免费观看 | 九九热爱视频精品 | 在线精品亚洲一区二区 | 少妇厨房愉情理9仑片视频 | 高中生自慰www网站 | 亚洲一区二区三区无码久久 | 少妇无码吹潮 | 国产精华av午夜在线观看 | 久久天天躁夜夜躁狠狠 | 亚洲一区二区三区国产精华液 | 午夜性刺激在线视频免费 | 国产在线一区二区三区四区五区 | 免费无码的av片在线观看 | 中文亚洲成a人片在线观看 | 国产极品美女高潮无套在线观看 | 日韩精品无码一区二区中文字幕 | 亚洲爆乳大丰满无码专区 | 久久午夜无码鲁丝片午夜精品 | 欧美 亚洲 国产 另类 | 曰韩无码二三区中文字幕 | 欧美日韩综合一区二区三区 | 最近免费中文字幕中文高清百度 | 人妻体内射精一区二区三四 | 日本精品人妻无码免费大全 | 18无码粉嫩小泬无套在线观看 | 欧美一区二区三区视频在线观看 | 中国大陆精品视频xxxx | 欧洲vodafone精品性 | 国产亚洲精品久久久ai换 | 国产内射老熟女aaaa | 伊在人天堂亚洲香蕉精品区 | 在线看片无码永久免费视频 | 国产舌乚八伦偷品w中 | 精品国产国产综合精品 | 最新国产乱人伦偷精品免费网站 | 好男人社区资源 | 欧美 丝袜 自拍 制服 另类 | 亚洲日本va午夜在线电影 | 天堂亚洲2017在线观看 | 精品人妻人人做人人爽夜夜爽 | 国产97色在线 | 免 | 老头边吃奶边弄进去呻吟 | 鲁鲁鲁爽爽爽在线视频观看 | 在线欧美精品一区二区三区 | 国产国产精品人在线视 | 亚洲色www成人永久网址 | 国产午夜亚洲精品不卡下载 | 久久99精品国产麻豆蜜芽 | 在线精品亚洲一区二区 | 亚洲一区二区观看播放 | 水蜜桃亚洲一二三四在线 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲va中文字幕无码久久不卡 | 午夜精品久久久久久久久 | 久久久久久亚洲精品a片成人 | 国产无av码在线观看 | 久久无码专区国产精品s | www成人国产高清内射 | 鲁大师影院在线观看 | 国产乱子伦视频在线播放 | 天堂在线观看www | 精品国产一区二区三区四区在线看 | 高清无码午夜福利视频 | 牲欲强的熟妇农村老妇女视频 | 玩弄人妻少妇500系列视频 | 欧美丰满熟妇xxxx性ppx人交 | 国产激情一区二区三区 | 波多野结衣高清一区二区三区 | 综合人妻久久一区二区精品 | 久久综合给合久久狠狠狠97色 | 久久精品人人做人人综合试看 | 精品国产一区二区三区四区 | 精品无码成人片一区二区98 | 18无码粉嫩小泬无套在线观看 | 欧美xxxx黑人又粗又长 | 日韩精品a片一区二区三区妖精 | 亚洲成色在线综合网站 | 久久伊人色av天堂九九小黄鸭 | 国产人妻精品一区二区三区不卡 | 成年美女黄网站色大免费全看 | 野外少妇愉情中文字幕 | 久久无码人妻影院 | 丰满肥臀大屁股熟妇激情视频 | 99久久精品午夜一区二区 | 学生妹亚洲一区二区 | 日韩av无码中文无码电影 | 久久无码中文字幕免费影院蜜桃 | 国产精品久久国产精品99 | 欧美放荡的少妇 | 久久久久免费看成人影片 | 99久久精品国产一区二区蜜芽 | 午夜福利一区二区三区在线观看 |