久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

deep learning 作業 2.2

發布時間:2025/4/16 编程问答 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 deep learning 作業 2.2 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

為什么80%的碼農都做不了架構師?>>> ??

Optimization Methods

Until now, you've always used Gradient Descent to update the parameters and minimize the cost. In this notebook, you will learn more advanced optimization methods that can speed up learning and perhaps even get you to a better final value for the cost function. Having a good optimization algorithm can be the difference between waiting days vs. just a few hours to get a good result.

Gradient descent goes "downhill" on a cost function?JJ. Think of it as trying to do this:

**Figure 1**?: **Minimizing the cost is like finding the lowest point in a hilly landscape**
At each step of the training, you update your parameters following a certain direction to try to get to the lowest possible point.

Notations: As usual,??J?a=?J?a=?da?for any variable?a.

To get started, run the following code to import the libraries you will need.

In?[1]:

import numpy as np import matplotlib.pyplot as plt import scipy.io import math import sklearn import sklearn.datasetsfrom opt_utils import load_params_and_grads, initialize_parameters, forward_propagation, backward_propagation from opt_utils import compute_cost, predict, predict_dec, plot_decision_boundary, load_dataset from testCases import *%matplotlib inline plt.rcParams['figure.figsize'] = (7.0, 4.0) # set default size of plots plt.rcParams['image.interpolation'] = 'nearest' plt.rcParams['image.cmap'] = 'gray'

1 - Gradient Descent

A simple optimization method in machine learning is gradient descent (GD). When you take gradient steps with respect to all?mm?examples on each step, it is also called Batch Gradient Descent.

Warm-up exercise: Implement the gradient descent update rule. The gradient descent rule is, for?l=1,...,Ll=1,...,L:

W[l]=W[l]?α?dW[l](1)(1)W[l]=W[l]?α?dW[l]

b[l]=b[l]?α?db[l](2)(2)b[l]=b[l]?α?db[l]

where L is the number of layers and?αα?is the learning rate. All parameters should be stored in the?parameters?dictionary. Note that the iterator?l?starts at 0 in the?for?loop while the first parameters are?W[1]W[1]?and?b[1]b[1]. You need to shift?l?to?l+1?when coding.

In?[2]:

# GRADED FUNCTION: update_parameters_with_gddef update_parameters_with_gd(parameters, grads, learning_rate):"""Update parameters using one step of gradient descentArguments:parameters -- python dictionary containing your parameters to be updated:parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blgrads -- python dictionary containing your gradients to update each parameters:grads['dW' + str(l)] = dWlgrads['db' + str(l)] = dbllearning_rate -- the learning rate, scalar.Returns:parameters -- python dictionary containing your updated parameters """L = len(parameters) // 2 # number of layers in the neural networks# Update rule for each parameterfor l in range(L):### START CODE HERE ### (approx. 2 lines)parameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate * grads['dW' + str(l+1)]parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate * grads['db' + str(l+1)]### END CODE HERE ###return parameters

In?[3]:

parameters, grads, learning_rate = update_parameters_with_gd_test_case()parameters = update_parameters_with_gd(parameters, grads, learning_rate) print("W1 = " + str(parameters["W1"])) print("b1 = " + str(parameters["b1"])) print("W2 = " + str(parameters["W2"])) print("b2 = " + str(parameters["b2"])) W1 = [[ 1.63535156 -0.62320365 -0.53718766][-1.07799357 0.85639907 -2.29470142]] b1 = [[ 1.74604067][-0.75184921]] W2 = [[ 0.32171798 -0.25467393 1.46902454][-2.05617317 -0.31554548 -0.3756023 ][ 1.1404819 -1.09976462 -0.1612551 ]] b2 = [[-0.88020257][ 0.02561572][ 0.57539477]]

Expected Output:

**W1**[[ 1.63535156 -0.62320365 -0.53718766] [-1.07799357 0.85639907 -2.29470142]]
**b1**[[ 1.74604067] [-0.75184921]]
**W2**[[ 0.32171798 -0.25467393 1.46902454] [-2.05617317 -0.31554548 -0.3756023 ] [ 1.1404819 -1.09976462 -0.1612551 ]]
**b2**[[-0.88020257] [ 0.02561572] [ 0.57539477]]

A variant of this is Stochastic Gradient Descent (SGD), which is equivalent to mini-batch gradient descent where each mini-batch has just 1 example. The update rule that you have just implemented does not change. What changes is that you would be computing gradients on just one training example at a time, rather than on the whole training set. The code examples below illustrate the difference between stochastic gradient descent and (batch) gradient descent.

  • (Batch) Gradient Descent:
X = data_input Y = labels parameters = initialize_parameters(layers_dims) for i in range(0, num_iterations):# Forward propagationa, caches = forward_propagation(X, parameters)# Compute cost.cost = compute_cost(a, Y)# Backward propagation.grads = backward_propagation(a, caches, parameters)# Update parameters.parameters = update_parameters(parameters, grads)
  • Stochastic Gradient Descent:
X = data_input Y = labels parameters = initialize_parameters(layers_dims) for i in range(0, num_iterations):for j in range(0, m):# Forward propagationa, caches = forward_propagation(X[:,j], parameters)# Compute costcost = compute_cost(a, Y[:,j])# Backward propagationgrads = backward_propagation(a, caches, parameters)# Update parameters.parameters = update_parameters(parameters, grads)

In Stochastic Gradient Descent, you use only 1 training example before updating the gradients. When the training set is large, SGD can be faster. But the parameters will "oscillate" toward the minimum rather than converge smoothly. Here is an illustration of this:

**Figure 1**?: **SGD vs GD**
"+" denotes a minimum of the cost. SGD leads to many oscillations to reach convergence. But each step is a lot faster to compute for SGD than for GD, as it uses only one training example (vs. the whole batch for GD).

Note?also that implementing SGD requires 3 for-loops in total:

  • Over the number of iterations
  • Over the?mm?training examples
  • Over the layers (to update all parameters, from?(W[1],b[1])(W[1],b[1])?to?(W[L],b[L])(W[L],b[L]))
  • In practice, you'll often get faster results if you do not use neither the whole training set, nor only one training example, to perform each update. Mini-batch gradient descent uses an intermediate number of examples for each step. With mini-batch gradient descent, you loop over the mini-batches instead of looping over individual training examples.

    **Figure 2**?:?**SGD vs Mini-Batch GD**
    "+" denotes a minimum of the cost. Using mini-batches in your optimization algorithm often leads to faster optimization.

    What you should remember:

    • The difference between gradient descent, mini-batch gradient descent and stochastic gradient descent is the number of examples you use to perform one update step.
    • You have to tune a learning rate hyperparameter?αα.
    • With a well-turned mini-batch size, usually it outperforms either gradient descent or stochastic gradient descent (particularly when the training set is large).

    2 - Mini-Batch Gradient descent

    Let's learn how to build mini-batches from the training set (X, Y).

    There are two steps:

    • Shuffle: Create a shuffled version of the training set (X, Y) as shown below. Each column of X and Y represents a training example. Note that the random shuffling is done synchronously between X and Y. Such that after the shuffling the?ithith?column of X is the example corresponding to the?ithithlabel in Y. The shuffling step ensures that examples will be split randomly into different mini-batches.

    • Partition: Partition the shuffled (X, Y) into mini-batches of size?mini_batch_size?(here 64). Note that the number of training examples is not always divisible by?mini_batch_size. The last mini batch might be smaller, but you don't need to worry about this. When the final mini-batch is smaller than the full?mini_batch_size, it will look like this:

    Exercise: Implement?random_mini_batches. We coded the shuffling part for you. To help you with the partitioning step, we give you the following code that selects the indexes for the?1st1st?and?2nd2nd?mini-batches:

    first_mini_batch_X = shuffled_X[:, 0 : mini_batch_size] second_mini_batch_X = shuffled_X[:, mini_batch_size : 2 * mini_batch_size] ...

    Note that the last mini-batch might end up smaller than?mini_batch_size=64. Let??s??s??represents?ss?rounded down to the nearest integer (this is?math.floor(s)?in Python). If the total number of examples is not a multiple of?mini_batch_size=64?then there will be??mmini_batch_size??mmini_batch_size??mini-batches with a full 64 examples, and the number of examples in the final mini-batch will be (m?mini_batch_size×?mmini_batch_size?m?mini_batch_size×?mmini_batch_size?).

    In?[4]:

    # GRADED FUNCTION: random_mini_batchesdef random_mini_batches(X, Y, mini_batch_size = 64, seed = 0):"""Creates a list of random minibatches from (X, Y)Arguments:X -- input data, of shape (input size, number of examples)Y -- true "label" vector (1 for blue dot / 0 for red dot), of shape (1, number of examples)mini_batch_size -- size of the mini-batches, integerReturns:mini_batches -- list of synchronous (mini_batch_X, mini_batch_Y)"""np.random.seed(seed) # To make your "random" minibatches the same as oursm = X.shape[1] # number of training examplesmini_batches = []# Step 1: Shuffle (X, Y)permutation = list(np.random.permutation(m))shuffled_X = X[:, permutation]shuffled_Y = Y[:, permutation].reshape((1,m))# Step 2: Partition (shuffled_X, shuffled_Y). Minus the end case.num_complete_minibatches = math.floor(m/mini_batch_size) # number of mini batches of size mini_batch_size in your partitionningfor k in range(0, num_complete_minibatches):### START CODE HERE ### (approx. 2 lines)mini_batch_X = shuffled_X[:, k*mini_batch_size : (k+1) * mini_batch_size]mini_batch_Y = shuffled_Y[:, k*mini_batch_size : (k+1) * mini_batch_size]### END CODE HERE ###mini_batch = (mini_batch_X, mini_batch_Y)mini_batches.append(mini_batch)# Handling the end case (last mini-batch < mini_batch_size)if m % mini_batch_size != 0:### START CODE HERE ### (approx. 2 lines)mini_batch_X = shuffled_X[:, num_complete_minibatches*mini_batch_size:]mini_batch_Y = shuffled_Y[:, num_complete_minibatches*mini_batch_size:]### END CODE HERE ###mini_batch = (mini_batch_X, mini_batch_Y)mini_batches.append(mini_batch)return mini_batches

    In?[5]:

    X_assess, Y_assess, mini_batch_size = random_mini_batches_test_case() mini_batches = random_mini_batches(X_assess, Y_assess, mini_batch_size)print ("shape of the 1st mini_batch_X: " + str(mini_batches[0][0].shape)) print ("shape of the 2nd mini_batch_X: " + str(mini_batches[1][0].shape)) print ("shape of the 3rd mini_batch_X: " + str(mini_batches[2][0].shape)) print ("shape of the 1st mini_batch_Y: " + str(mini_batches[0][1].shape)) print ("shape of the 2nd mini_batch_Y: " + str(mini_batches[1][1].shape)) print ("shape of the 3rd mini_batch_Y: " + str(mini_batches[2][1].shape)) print ("mini batch sanity check: " + str(mini_batches[0][0][0][0:3])) shape of the 1st mini_batch_X: (12288, 64) shape of the 2nd mini_batch_X: (12288, 64) shape of the 3rd mini_batch_X: (12288, 20) shape of the 1st mini_batch_Y: (1, 64) shape of the 2nd mini_batch_Y: (1, 64) shape of the 3rd mini_batch_Y: (1, 20) mini batch sanity check: [ 0.90085595 -0.7612069 0.2344157 ]

    Expected Output:

    **shape of the 1st mini_batch_X**(12288, 64)
    **shape of the 2nd mini_batch_X**(12288, 64)
    **shape of the 3rd mini_batch_X**(12288, 20)
    **shape of the 1st mini_batch_Y**(1, 64)
    **shape of the 2nd mini_batch_Y**(1, 64)
    **shape of the 3rd mini_batch_Y**(1, 20)
    **mini batch sanity check**[ 0.90085595 -0.7612069 0.2344157 ]

    What you should remember:

    • Shuffling and Partitioning are the two steps required to build mini-batches
    • Powers of two are often chosen to be the mini-batch size, e.g., 16, 32, 64, 128.

    3 - Momentum

    Because mini-batch gradient descent makes a parameter update after seeing just a subset of examples, the direction of the update has some variance, and so the path taken by mini-batch gradient descent will "oscillate" toward convergence. Using momentum can reduce these oscillations.

    Momentum takes into account the past gradients to smooth out the update. We will store the 'direction' of the previous gradients in the variable?vv. Formally, this will be the exponentially weighted average of the gradient on previous steps. You can also think of?vv?as the "velocity" of a ball rolling downhill, building up speed (and momentum) according to the direction of the gradient/slope of the hill.

    ?

    **Figure 3**: The red arrows shows the direction taken by one step of mini-batch gradient descent with momentum. The blue points show the direction of the gradient (with respect to the current mini-batch) on each step. Rather than just following the gradient, we let the gradient influence?vv?and then take a step in the direction of?vv.

    ?

    Exercise: Initialize the velocity. The velocity,?vv, is a python dictionary that needs to be initialized with arrays of zeros. Its keys are the same as those in the?grads?dictionary, that is: for?l=1,...,Ll=1,...,L:

    v["dW" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["W" + str(l+1)]) v["db" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["b" + str(l+1)])

    Note?that the iterator l starts at 0 in the for loop while the first parameters are v["dW1"] and v["db1"] (that's a "one" on the superscript). This is why we are shifting l to l+1 in the?for?loop.

    In?[6]:

    # GRADED FUNCTION: initialize_velocitydef initialize_velocity(parameters):"""Initializes the velocity as a python dictionary with:- keys: "dW1", "db1", ..., "dWL", "dbL" - values: numpy arrays of zeros of the same shape as the corresponding gradients/parameters.Arguments:parameters -- python dictionary containing your parameters.parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blReturns:v -- python dictionary containing the current velocity.v['dW' + str(l)] = velocity of dWlv['db' + str(l)] = velocity of dbl"""L = len(parameters) // 2 # number of layers in the neural networksv = {}# Initialize velocityfor l in range(L):### START CODE HERE ### (approx. 2 lines)v["dW" + str(l+1)] = np.zeros((parameters["W" + str(l+1)].shape))v["db" + str(l+1)] = np.zeros((parameters["b" + str(l+1)].shape))### END CODE HERE ###return v

    In?[7]:

    parameters = initialize_velocity_test_case()v = initialize_velocity(parameters) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) v["dW1"] = [[ 0. 0. 0.][ 0. 0. 0.]] v["db1"] = [[ 0.][ 0.]] v["dW2"] = [[ 0. 0. 0.][ 0. 0. 0.][ 0. 0. 0.]] v["db2"] = [[ 0.][ 0.][ 0.]]

    Expected Output:

    **v["dW1"]**[[ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db1"]**[[ 0.] [ 0.]]
    **v["dW2"]**[[ 0. 0. 0.] [ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db2"]**[[ 0.] [ 0.] [ 0.]]

    Exercise: Now, implement the parameters update with momentum. The momentum update rule is, for?l=1,...,Ll=1,...,L:

    {vdW[l]=βvdW[l]+(1?β)dW[l]W[l]=W[l]?αvdW[l](3)(3){vdW[l]=βvdW[l]+(1?β)dW[l]W[l]=W[l]?αvdW[l]

    {vdb[l]=βvdb[l]+(1?β)db[l]b[l]=b[l]?αvdb[l](4)(4){vdb[l]=βvdb[l]+(1?β)db[l]b[l]=b[l]?αvdb[l]

    where L is the number of layers,?ββ?is the momentum and?αα?is the learning rate. All parameters should be stored in the?parameters?dictionary. Note that the iterator?l?starts at 0 in the?for?loop while the first parameters are?W[1]W[1]?and?b[1]b[1]?(that's a "one" on the superscript). So you will need to shift?l?to?l+1?when coding.

    In?[8]:

    # GRADED FUNCTION: update_parameters_with_momentumdef update_parameters_with_momentum(parameters, grads, v, beta, learning_rate):"""Update parameters using MomentumArguments:parameters -- python dictionary containing your parameters:parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blgrads -- python dictionary containing your gradients for each parameters:grads['dW' + str(l)] = dWlgrads['db' + str(l)] = dblv -- python dictionary containing the current velocity:v['dW' + str(l)] = ...v['db' + str(l)] = ...beta -- the momentum hyperparameter, scalarlearning_rate -- the learning rate, scalarReturns:parameters -- python dictionary containing your updated parameters v -- python dictionary containing your updated velocities"""L = len(parameters) // 2 # number of layers in the neural networks# Momentum update for each parameterfor l in range(L):### START CODE HERE ### (approx. 4 lines)# compute velocitiesv["dW" + str(l+1)] = beta*v["dW" + str(l+1)] + (1-beta)*grads['dW' + str(l+1)]v["db" + str(l+1)] = beta*v["db" + str(l+1)] + (1-beta)*grads['db' + str(l+1)]# update parametersparameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate * v["dW" + str(l+1)]parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate * v["db" + str(l+1)]### END CODE HERE ###return parameters, v

    In?[9]:

    parameters, grads, v = update_parameters_with_momentum_test_case()parameters, v = update_parameters_with_momentum(parameters, grads, v, beta = 0.9, learning_rate = 0.01) print("W1 = " + str(parameters["W1"])) print("b1 = " + str(parameters["b1"])) print("W2 = " + str(parameters["W2"])) print("b2 = " + str(parameters["b2"])) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) W1 = [[ 1.62544598 -0.61290114 -0.52907334][-1.07347112 0.86450677 -2.30085497]] b1 = [[ 1.74493465][-0.76027113]] W2 = [[ 0.31930698 -0.24990073 1.4627996 ][-2.05974396 -0.32173003 -0.38320915][ 1.13444069 -1.0998786 -0.1713109 ]] b2 = [[-0.87809283][ 0.04055394][ 0.58207317]] v["dW1"] = [[-0.11006192 0.11447237 0.09015907][ 0.05024943 0.09008559 -0.06837279]] v["db1"] = [[-0.01228902][-0.09357694]] v["dW2"] = [[-0.02678881 0.05303555 -0.06916608][-0.03967535 -0.06871727 -0.08452056][-0.06712461 -0.00126646 -0.11173103]] v["db2"] = [[ 0.02344157][ 0.16598022][ 0.07420442]]

    Expected Output:

    **W1**[[ 1.62544598 -0.61290114 -0.52907334] [-1.07347112 0.86450677 -2.30085497]]
    **b1**[[ 1.74493465] [-0.76027113]]
    **W2**[[ 0.31930698 -0.24990073 1.4627996 ] [-2.05974396 -0.32173003 -0.38320915] [ 1.13444069 -1.0998786 -0.1713109 ]]
    **b2**[[-0.87809283] [ 0.04055394] [ 0.58207317]]
    **v["dW1"]**[[-0.11006192 0.11447237 0.09015907] [ 0.05024943 0.09008559 -0.06837279]]
    **v["db1"]**[[-0.01228902] [-0.09357694]]
    **v["dW2"]**[[-0.02678881 0.05303555 -0.06916608] [-0.03967535 -0.06871727 -0.08452056] [-0.06712461 -0.00126646 -0.11173103]]
    **v["db2"]**[[ 0.02344157] [ 0.16598022] [ 0.07420442]]

    Note?that:

    • The velocity is initialized with zeros. So the algorithm will take a few iterations to "build up" velocity and start to take bigger steps.
    • If?β=0β=0, then this just becomes standard gradient descent without momentum.

    How do you choose?ββ?

    • The larger the momentum?ββ?is, the smoother the update because the more we take the past gradients into account. But if?ββ?is too big, it could also smooth out the updates too much.
    • Common values for?ββ?range from 0.8 to 0.999. If you don't feel inclined to tune this,?β=0.9β=0.9?is often a reasonable default.
    • Tuning the optimal?ββ?for your model might need trying several values to see what works best in term of reducing the value of the cost function?JJ.

    What you should remember:

    • Momentum takes past gradients into account to smooth out the steps of gradient descent. It can be applied with batch gradient descent, mini-batch gradient descent or stochastic gradient descent.
    • You have to tune a momentum hyperparameter?ββ?and a learning rate?αα.

    4 - Adam

    Adam is one of the most effective optimization algorithms for training neural networks. It combines ideas from RMSProp (described in lecture) and Momentum.

    How does Adam work?

  • It calculates an exponentially weighted average of past gradients, and stores it in variables?vv?(before bias correction) and?vcorrectedvcorrected?(with bias correction).
  • It calculates an exponentially weighted average of the squares of the past gradients, and stores it in variables?ss?(before bias correction) and?scorrectedscorrected(with bias correction).
  • It updates parameters in a direction based on combining information from "1" and "2".
  • The update rule is, for?l=1,...,Ll=1,...,L:

    ?????????????????????????????vdW[l]=β1vdW[l]+(1?β1)?J?W[l]vcorrecteddW[l]=vdW[l]1?(β1)tsdW[l]=β2sdW[l]+(1?β2)(?J?W[l])2scorrecteddW[l]=sdW[l]1?(β1)tW[l]=W[l]?αvcorrecteddW[l]scorrecteddW[l]√+ε{vdW[l]=β1vdW[l]+(1?β1)?J?W[l]vdW[l]corrected=vdW[l]1?(β1)tsdW[l]=β2sdW[l]+(1?β2)(?J?W[l])2sdW[l]corrected=sdW[l]1?(β1)tW[l]=W[l]?αvdW[l]correctedsdW[l]corrected+ε

    where:

    • t counts the number of steps taken of Adam
    • L is the number of layers
    • β1β1?and?β2β2?are hyperparameters that control the two exponentially weighted averages.
    • αα?is the learning rate
    • εε?is a very small number to avoid dividing by zero

    As usual, we will store all parameters in the?parameters?dictionary

    Exercise: Initialize the Adam variables?v,sv,s?which keep track of the past information.

    Instruction: The variables?v,sv,s?are python dictionaries that need to be initialized with arrays of zeros. Their keys are the same as for?grads, that is: for?l=1,...,Ll=1,...,L:

    v["dW" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["W" + str(l+1)]) v["db" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["b" + str(l+1)]) s["dW" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["W" + str(l+1)]) s["db" + str(l+1)] = ... #(numpy array of zeros with the same shape as parameters["b" + str(l+1)])

    In?[10]:

    # GRADED FUNCTION: initialize_adamdef initialize_adam(parameters) :"""Initializes v and s as two python dictionaries with:- keys: "dW1", "db1", ..., "dWL", "dbL" - values: numpy arrays of zeros of the same shape as the corresponding gradients/parameters.Arguments:parameters -- python dictionary containing your parameters.parameters["W" + str(l)] = Wlparameters["b" + str(l)] = blReturns: v -- python dictionary that will contain the exponentially weighted average of the gradient.v["dW" + str(l)] = ...v["db" + str(l)] = ...s -- python dictionary that will contain the exponentially weighted average of the squared gradient.s["dW" + str(l)] = ...s["db" + str(l)] = ..."""L = len(parameters) // 2 # number of layers in the neural networksv = {}s = {}# Initialize v, s. Input: "parameters". Outputs: "v, s".for l in range(L):### START CODE HERE ### (approx. 4 lines)v["dW" + str(l+1)] = np.zeros((parameters["W" + str(l+1)].shape))v["db" + str(l+1)] = np.zeros((parameters["b" + str(l+1)].shape))s["dW" + str(l+1)] = np.zeros((parameters["W" + str(l+1)].shape))s["db" + str(l+1)] = np.zeros((parameters["b" + str(l+1)].shape))### END CODE HERE ###return v, s

    In?[11]:

    parameters = initialize_adam_test_case()v, s = initialize_adam(parameters) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) print("s[\"dW1\"] = " + str(s["dW1"])) print("s[\"db1\"] = " + str(s["db1"])) print("s[\"dW2\"] = " + str(s["dW2"])) print("s[\"db2\"] = " + str(s["db2"])) v["dW1"] = [[ 0. 0. 0.][ 0. 0. 0.]] v["db1"] = [[ 0.][ 0.]] v["dW2"] = [[ 0. 0. 0.][ 0. 0. 0.][ 0. 0. 0.]] v["db2"] = [[ 0.][ 0.][ 0.]] s["dW1"] = [[ 0. 0. 0.][ 0. 0. 0.]] s["db1"] = [[ 0.][ 0.]] s["dW2"] = [[ 0. 0. 0.][ 0. 0. 0.][ 0. 0. 0.]] s["db2"] = [[ 0.][ 0.][ 0.]]

    Expected Output:

    **v["dW1"]**[[ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db1"]**[[ 0.] [ 0.]]
    **v["dW2"]**[[ 0. 0. 0.] [ 0. 0. 0.] [ 0. 0. 0.]]
    **v["db2"]**[[ 0.] [ 0.] [ 0.]]
    **s["dW1"]**[[ 0. 0. 0.] [ 0. 0. 0.]]
    **s["db1"]**[[ 0.] [ 0.]]
    **s["dW2"]**[[ 0. 0. 0.] [ 0. 0. 0.] [ 0. 0. 0.]]
    **s["db2"]**[[ 0.] [ 0.] [ 0.]]

    Exercise: Now, implement the parameters update with Adam. Recall the general update rule is, for?l=1,...,Ll=1,...,L:

    ?????????????????????????????vW[l]=β1vW[l]+(1?β1)?J?W[l]vcorrectedW[l]=vW[l]1?(β1)tsW[l]=β2sW[l]+(1?β2)(?J?W[l])2scorrectedW[l]=sW[l]1?(β2)tW[l]=W[l]?αvcorrectedW[l]scorrectedW[l]√+ε{vW[l]=β1vW[l]+(1?β1)?J?W[l]vW[l]corrected=vW[l]1?(β1)tsW[l]=β2sW[l]+(1?β2)(?J?W[l])2sW[l]corrected=sW[l]1?(β2)tW[l]=W[l]?αvW[l]correctedsW[l]corrected+ε

    Note?that the iterator?l?starts at 0 in the?for?loop while the first parameters are?W[1]W[1]?and?b[1]b[1]. You need to shift?l?to?l+1?when coding.

    In?[15]:

    # GRADED FUNCTION: update_parameters_with_adamdef update_parameters_with_adam(parameters, grads, v, s, t, learning_rate = 0.01,beta1 = 0.9, beta2 = 0.999, epsilon = 1e-8):"""Update parameters using AdamArguments:parameters -- python dictionary containing your parameters:parameters['W' + str(l)] = Wlparameters['b' + str(l)] = blgrads -- python dictionary containing your gradients for each parameters:grads['dW' + str(l)] = dWlgrads['db' + str(l)] = dblv -- Adam variable, moving average of the first gradient, python dictionarys -- Adam variable, moving average of the squared gradient, python dictionarylearning_rate -- the learning rate, scalar.beta1 -- Exponential decay hyperparameter for the first moment estimates beta2 -- Exponential decay hyperparameter for the second moment estimates epsilon -- hyperparameter preventing division by zero in Adam updatesReturns:parameters -- python dictionary containing your updated parameters v -- Adam variable, moving average of the first gradient, python dictionarys -- Adam variable, moving average of the squared gradient, python dictionary"""L = len(parameters) // 2 # number of layers in the neural networksv_corrected = {} # Initializing first moment estimate, python dictionarys_corrected = {} # Initializing second moment estimate, python dictionary# Perform Adam update on all parametersfor l in range(L):# Moving average of the gradients. Inputs: "v, grads, beta1". Output: "v".### START CODE HERE ### (approx. 2 lines)v["dW" + str(l+1)] = beta1 * v["dW" + str(l+1)] + (1-beta1) * grads['dW' + str(l+1)]v["db" + str(l+1)] = beta1 * v["db" + str(l+1)] + (1-beta1) * grads['db' + str(l+1)]### END CODE HERE #### Compute bias-corrected first moment estimate. Inputs: "v, beta1, t". Output: "v_corrected".### START CODE HERE ### (approx. 2 lines)v_corrected["dW" + str(l+1)] = v["dW" + str(l+1)] / (1 - beta1**t)v_corrected["db" + str(l+1)] = v["db" + str(l+1)] / (1 - beta1**t) # v_corrected["dW" + str(l+1)] = v["dW" + str(l+1)] / (1 - np.exp(beta1, l)) # v_corrected["db" + str(l+1)] = v["db" + str(l+1)] / (1 - np.exp(beta1, l))### END CODE HERE #### Moving average of the squared gradients. Inputs: "s, grads, beta2". Output: "s".### START CODE HERE ### (approx. 2 lines) # s["dW" + str(l+1)] = beta2 * s["dW" + str(l+1)] + (1-beta2) * grads['dW' + str(l+1)] * grads['dW' + str(l+1)] # s["db" + str(l+1)] = beta2 * s["db" + str(l+1)] + (1-beta2) * grads['db' + str(l+1)] * grads['db' + str(l+1)]s["dW" + str(l+1)] = beta2 * s["dW" + str(l+1)] + (1 - beta2)*np.power(grads['dW' + str(l+1)],2)s["db" + str(l+1)] = beta2 * s["db" + str(l+1)] + (1 - beta2)*np.power(grads['db' + str(l+1)],2)### END CODE HERE #### Compute bias-corrected second raw moment estimate. Inputs: "s, beta2, t". Output: "s_corrected".### START CODE HERE ### (approx. 2 lines)s_corrected["dW" + str(l+1)] = s["dW" + str(l+1)] / (1 - beta2**2)s_corrected["db" + str(l+1)] = s["db" + str(l+1)] / (1 - beta2**2)### END CODE HERE #### Update parameters. Inputs: "parameters, learning_rate, v_corrected, s_corrected, epsilon". Output: "parameters".### START CODE HERE ### (approx. 2 lines)parameters["W" + str(l+1)] = parameters["W" + str(l+1)] - learning_rate*v_corrected["dW" + str(l+1)]/(np.power(s_corrected["dW" + str(l+1)],0.5) + epsilon)parameters["b" + str(l+1)] = parameters["b" + str(l+1)] - learning_rate*v_corrected["db" + str(l+1)]/(np.power(s_corrected["db" + str(l+1)],0.5) + epsilon)### END CODE HERE ###return parameters, v, s

    In?[16]:

    parameters, grads, v, s = update_parameters_with_adam_test_case() parameters, v, s = update_parameters_with_adam(parameters, grads, v, s, t = 2)print("W1 = " + str(parameters["W1"])) print("b1 = " + str(parameters["b1"])) print("W2 = " + str(parameters["W2"])) print("b2 = " + str(parameters["b2"])) print("v[\"dW1\"] = " + str(v["dW1"])) print("v[\"db1\"] = " + str(v["db1"])) print("v[\"dW2\"] = " + str(v["dW2"])) print("v[\"db2\"] = " + str(v["db2"])) print("s[\"dW1\"] = " + str(s["dW1"])) print("s[\"db1\"] = " + str(s["db1"])) print("s[\"dW2\"] = " + str(s["dW2"])) print("s[\"db2\"] = " + str(s["db2"])) W1 = [[ 1.63178673 -0.61919778 -0.53561312][-1.08040999 0.85796626 -2.29409733]] b1 = [[ 1.75225313][-0.75376553]] W2 = [[ 0.32648046 -0.25681174 1.46954931][-2.05269934 -0.31497584 -0.37661299][ 1.14121081 -1.09244991 -0.16498684]] b2 = [[-0.88529979][ 0.03477238][ 0.57537385]] v["dW1"] = [[-0.11006192 0.11447237 0.09015907][ 0.05024943 0.09008559 -0.06837279]] v["db1"] = [[-0.01228902][-0.09357694]] v["dW2"] = [[-0.02678881 0.05303555 -0.06916608][-0.03967535 -0.06871727 -0.08452056][-0.06712461 -0.00126646 -0.11173103]] v["db2"] = [[ 0.02344157][ 0.16598022][ 0.07420442]] s["dW1"] = [[ 0.00121136 0.00131039 0.00081287][ 0.0002525 0.00081154 0.00046748]] s["db1"] = [[ 1.51020075e-05][ 8.75664434e-04]] s["dW2"] = [[ 7.17640232e-05 2.81276921e-04 4.78394595e-04][ 1.57413361e-04 4.72206320e-04 7.14372576e-04][ 4.50571368e-04 1.60392066e-07 1.24838242e-03]] s["db2"] = [[ 5.49507194e-05][ 2.75494327e-03][ 5.50629536e-04]]

    Expected Output:

    **W1**[[ 1.63178673 -0.61919778 -0.53561312] [-1.08040999 0.85796626 -2.29409733]]
    **b1**[[ 1.75225313] [-0.75376553]]
    **W2**[[ 0.32648046 -0.25681174 1.46954931] [-2.05269934 -0.31497584 -0.37661299] [ 1.14121081 -1.09245036 -0.16498684]]
    **b2**[[-0.88529978] [ 0.03477238] [ 0.57537385]]
    **v["dW1"]**[[-0.11006192 0.11447237 0.09015907] [ 0.05024943 0.09008559 -0.06837279]]
    **v["db1"]**[[-0.01228902] [-0.09357694]]
    **v["dW2"]**[[-0.02678881 0.05303555 -0.06916608] [-0.03967535 -0.06871727 -0.08452056] [-0.06712461 -0.00126646 -0.11173103]]
    **v["db2"]**[[ 0.02344157] [ 0.16598022] [ 0.07420442]]
    **s["dW1"]**[[ 0.00121136 0.00131039 0.00081287] [ 0.0002525 0.00081154 0.00046748]]
    **s["db1"]**[[ 1.51020075e-05] [ 8.75664434e-04]]
    **s["dW2"]**[[ 7.17640232e-05 2.81276921e-04 4.78394595e-04] [ 1.57413361e-04 4.72206320e-04 7.14372576e-04] [ 4.50571368e-04 1.60392066e-07 1.24838242e-03]]
    **s["db2"]**[[ 5.49507194e-05] [ 2.75494327e-03] [ 5.50629536e-04]]

    You now have three working optimization algorithms (mini-batch gradient descent, Momentum, Adam). Let's implement a model with each of these optimizers and observe the difference.

    5 - Model with different optimization algorithms

    Lets use the following "moons" dataset to test the different optimization methods. (The dataset is named "moons" because the data from each of the two classes looks a bit like a crescent-shaped moon.)

    In?[17]:

    train_X, train_Y = load_dataset()

    We have already implemented a 3-layer neural network. You will train it with:

    • Mini-batch?Gradient Descent: it will call your function:
      • update_parameters_with_gd()
    • Mini-batch?Momentum: it will call your functions:
      • initialize_velocity()?and?update_parameters_with_momentum()
    • Mini-batch?Adam: it will call your functions:
      • initialize_adam()?and?update_parameters_with_adam()

    In?[18]:

    def model(X, Y, layers_dims, optimizer, learning_rate = 0.0007, mini_batch_size = 64, beta = 0.9,beta1 = 0.9, beta2 = 0.999, epsilon = 1e-8, num_epochs = 10000, print_cost = True):"""3-layer neural network model which can be run in different optimizer modes.Arguments:X -- input data, of shape (2, number of examples)Y -- true "label" vector (1 for blue dot / 0 for red dot), of shape (1, number of examples)layers_dims -- python list, containing the size of each layerlearning_rate -- the learning rate, scalar.mini_batch_size -- the size of a mini batchbeta -- Momentum hyperparameterbeta1 -- Exponential decay hyperparameter for the past gradients estimates beta2 -- Exponential decay hyperparameter for the past squared gradients estimates epsilon -- hyperparameter preventing division by zero in Adam updatesnum_epochs -- number of epochsprint_cost -- True to print the cost every 1000 epochsReturns:parameters -- python dictionary containing your updated parameters """L = len(layers_dims) # number of layers in the neural networkscosts = [] # to keep track of the costt = 0 # initializing the counter required for Adam updateseed = 10 # For grading purposes, so that your "random" minibatches are the same as ours# Initialize parametersparameters = initialize_parameters(layers_dims)# Initialize the optimizerif optimizer == "gd":pass # no initialization required for gradient descentelif optimizer == "momentum":v = initialize_velocity(parameters)elif optimizer == "adam":v, s = initialize_adam(parameters)# Optimization loopfor i in range(num_epochs):# Define the random minibatches. We increment the seed to reshuffle differently the dataset after each epochseed = seed + 1minibatches = random_mini_batches(X, Y, mini_batch_size, seed)for minibatch in minibatches:# Select a minibatch(minibatch_X, minibatch_Y) = minibatch# Forward propagationa3, caches = forward_propagation(minibatch_X, parameters)# Compute costcost = compute_cost(a3, minibatch_Y)# Backward propagationgrads = backward_propagation(minibatch_X, minibatch_Y, caches)# Update parametersif optimizer == "gd":parameters = update_parameters_with_gd(parameters, grads, learning_rate)elif optimizer == "momentum":parameters, v = update_parameters_with_momentum(parameters, grads, v, beta, learning_rate)elif optimizer == "adam":t = t + 1 # Adam counterparameters, v, s = update_parameters_with_adam(parameters, grads, v, s,t, learning_rate, beta1, beta2, epsilon)# Print the cost every 1000 epochif print_cost and i % 1000 == 0:print ("Cost after epoch %i: %f" %(i, cost))if print_cost and i % 100 == 0:costs.append(cost)# plot the costplt.plot(costs)plt.ylabel('cost')plt.xlabel('epochs (per 100)')plt.title("Learning rate = " + str(learning_rate))plt.show()return parameters

    You will now run this 3 layer neural network with each of the 3 optimization methods.

    5.1 - Mini-batch Gradient descent

    Run the following code to see how the model does with mini-batch gradient descent.

    In?[19]:

    # train 3-layer model layers_dims = [train_X.shape[0], 5, 2, 1] parameters = model(train_X, train_Y, layers_dims, optimizer = "gd")# Predict predictions = predict(train_X, train_Y, parameters)# Plot decision boundary plt.title("Model with Gradient Descent optimization") axes = plt.gca() axes.set_xlim([-1.5,2.5]) axes.set_ylim([-1,1.5]) plot_decision_boundary(lambda x: predict_dec(parameters, x.T), train_X, train_Y) Cost after epoch 0: 0.690736 Cost after epoch 1000: 0.685273 Cost after epoch 2000: 0.647072 Cost after epoch 3000: 0.619525 Cost after epoch 4000: 0.576584 Cost after epoch 5000: 0.607243 Cost after epoch 6000: 0.529403 Cost after epoch 7000: 0.460768 Cost after epoch 8000: 0.465586 Cost after epoch 9000: 0.464518

    Accuracy: 0.796666666667

    5.2 - Mini-batch gradient descent with momentum

    Run the following code to see how the model does with momentum. Because this example is relatively simple, the gains from using momemtum are small; but for more complex problems you might see bigger gains.

    In?[20]:

    # train 3-layer model layers_dims = [train_X.shape[0], 5, 2, 1] parameters = model(train_X, train_Y, layers_dims, beta = 0.9, optimizer = "momentum")# Predict predictions = predict(train_X, train_Y, parameters)# Plot decision boundary plt.title("Model with Momentum optimization") axes = plt.gca() axes.set_xlim([-1.5,2.5]) axes.set_ylim([-1,1.5]) plot_decision_boundary(lambda x: predict_dec(parameters, x.T), train_X, train_Y) Cost after epoch 0: 0.690741 Cost after epoch 1000: 0.685341 Cost after epoch 2000: 0.647145 Cost after epoch 3000: 0.619594 Cost after epoch 4000: 0.576665 Cost after epoch 5000: 0.607324 Cost after epoch 6000: 0.529476 Cost after epoch 7000: 0.460936 Cost after epoch 8000: 0.465780 Cost after epoch 9000: 0.464740

    Accuracy: 0.796666666667

    5.3 - Mini-batch with Adam mode

    Run the following code to see how the model does with Adam.

    In?[21]:

    # train 3-layer model layers_dims = [train_X.shape[0], 5, 2, 1] parameters = model(train_X, train_Y, layers_dims, optimizer = "adam")# Predict predictions = predict(train_X, train_Y, parameters)# Plot decision boundary plt.title("Model with Adam optimization") axes = plt.gca() axes.set_xlim([-1.5,2.5]) axes.set_ylim([-1,1.5]) plot_decision_boundary(lambda x: predict_dec(parameters, x.T), train_X, train_Y) Cost after epoch 0: 0.690563 Cost after epoch 1000: 0.651362 Cost after epoch 2000: 0.623838 Cost after epoch 3000: 0.584447 Cost after epoch 4000: 0.539826 Cost after epoch 5000: 0.555550 Cost after epoch 6000: 0.440262 Cost after epoch 7000: 0.329676 Cost after epoch 8000: 0.322698 Cost after epoch 9000: 0.356201

    Accuracy: 0.92

    5.4 - Summary

    **optimization method****accuracy****cost shape**
    Gradient descent79.7%oscillations
    Momentum79.7%oscillations
    Adam94%smoother

    Momentum usually helps, but given the small learning rate and the simplistic dataset, its impact is almost negligeable. Also, the huge oscillations you see in the cost come from the fact that some minibatches are more difficult thans others for the optimization algorithm.

    Adam on the other hand, clearly outperforms mini-batch gradient descent and Momentum. If you run the model for more epochs on this simple dataset, all three methods will lead to very good results. However, you've seen that Adam converges a lot faster.

    Some advantages of Adam include:

    • Relatively low memory requirements (though higher than gradient descent and gradient descent with momentum)
    • Usually works well even with little tuning of hyperparameters (except?αα)

    References:

    • Adam paper:?https://arxiv.org/pdf/1412.6980.pdf

    轉載于:https://my.oschina.net/sizhe/blog/1815653

    總結

    以上是生活随笔為你收集整理的deep learning 作業 2.2的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    亚洲精品国偷拍自产在线观看蜜桃 | 日本在线高清不卡免费播放 | 久久成人a毛片免费观看网站 | а√资源新版在线天堂 | 亚洲国产精品久久久久久 | 人妻天天爽夜夜爽一区二区 | 高中生自慰www网站 | 久久精品人妻少妇一区二区三区 | 无码成人精品区在线观看 | a片免费视频在线观看 | 99久久亚洲精品无码毛片 | 亚洲精品一区二区三区四区五区 | 久久精品国产大片免费观看 | 亚洲综合久久一区二区 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 理论片87福利理论电影 | 性色av无码免费一区二区三区 | 免费乱码人妻系列无码专区 | 亚洲精品国产a久久久久久 | 亚洲一区二区三区四区 | 亚洲色成人中文字幕网站 | 日日噜噜噜噜夜夜爽亚洲精品 | 国产成人无码区免费内射一片色欲 | ass日本丰满熟妇pics | 丰满人妻被黑人猛烈进入 | 国产免费观看黄av片 | 亚洲精品久久久久久一区二区 | 高潮毛片无遮挡高清免费 | 人人妻人人澡人人爽人人精品 | 亚洲精品久久久久avwww潮水 | 亚洲精品国偷拍自产在线观看蜜桃 | 最新国产麻豆aⅴ精品无码 | 999久久久国产精品消防器材 | 四虎国产精品一区二区 | 麻花豆传媒剧国产免费mv在线 | 麻豆成人精品国产免费 | 在线欧美精品一区二区三区 | 亚洲精品美女久久久久久久 | 国产情侣作爱视频免费观看 | 国产精品久久久久7777 | 牲欲强的熟妇农村老妇女视频 | 无码一区二区三区在线 | 秋霞成人午夜鲁丝一区二区三区 | 免费国产黄网站在线观看 | 亚洲日韩av一区二区三区四区 | 亚洲精品成人av在线 | 精品少妇爆乳无码av无码专区 | 性啪啪chinese东北女人 | 国产成人精品优优av | 国产欧美精品一区二区三区 | 午夜理论片yy44880影院 | 久久综合九色综合欧美狠狠 | 国产两女互慰高潮视频在线观看 | 精品人人妻人人澡人人爽人人 | 无码国产色欲xxxxx视频 | 在线观看欧美一区二区三区 | 亚洲成a人片在线观看无码3d | 国产亚洲精品久久久久久大师 | 国产精品嫩草久久久久 | 蜜桃视频插满18在线观看 | 久久久久免费看成人影片 | 精品人人妻人人澡人人爽人人 | 桃花色综合影院 | 日韩精品无码一本二本三本色 | 欧美人与牲动交xxxx | 性欧美videos高清精品 | 51国偷自产一区二区三区 | 国产乱子伦视频在线播放 | 日本高清一区免费中文视频 | 乱中年女人伦av三区 | 亚洲乱码中文字幕在线 | 精品一区二区三区波多野结衣 | 人人妻人人澡人人爽欧美一区 | 国产午夜福利亚洲第一 | 欧洲vodafone精品性 | 亚洲欧美国产精品久久 | 日韩欧美成人免费观看 | 老太婆性杂交欧美肥老太 | 亚洲日本va中文字幕 | 亚洲国产午夜精品理论片 | 久在线观看福利视频 | 国产农村妇女高潮大叫 | 精品亚洲成av人在线观看 | 丰满岳乱妇在线观看中字无码 | 国产色xx群视频射精 | 在线亚洲高清揄拍自拍一品区 | 亚洲伊人久久精品影院 | 午夜精品久久久内射近拍高清 | 久久国产精品_国产精品 | 亚洲国产成人av在线观看 | 亚洲精品国偷拍自产在线观看蜜桃 | 三级4级全黄60分钟 | 欧美日韩一区二区综合 | 少妇愉情理伦片bd | 少妇人妻偷人精品无码视频 | 丝袜人妻一区二区三区 | 中文字幕无码免费久久99 | 国产激情一区二区三区 | 欧美 日韩 人妻 高清 中文 | 波多野结衣高清一区二区三区 | 欧美性黑人极品hd | 久久久久成人精品免费播放动漫 | 97色伦图片97综合影院 | 奇米影视7777久久精品人人爽 | 欧美 丝袜 自拍 制服 另类 | 国产成人午夜福利在线播放 | 欧洲熟妇色 欧美 | 免费中文字幕日韩欧美 | 狠狠色色综合网站 | 麻豆成人精品国产免费 | 欧美人妻一区二区三区 | 亚洲成av人片天堂网无码】 | 亚洲大尺度无码无码专区 | 久久午夜无码鲁丝片 | 亚洲色欲久久久综合网东京热 | 99国产欧美久久久精品 | 国产精品嫩草久久久久 | 少妇激情av一区二区 | 美女极度色诱视频国产 | 国产精品沙发午睡系列 | 国产成人无码a区在线观看视频app | 成人一在线视频日韩国产 | 青青青爽视频在线观看 | 国产人成高清在线视频99最全资源 | 中文久久乱码一区二区 | 欧美一区二区三区 | 欧美怡红院免费全部视频 | 玩弄少妇高潮ⅹxxxyw | 欧美精品在线观看 | 久久亚洲精品中文字幕无男同 | 99久久婷婷国产综合精品青草免费 | 国产亚洲精品久久久久久 | 色婷婷av一区二区三区之红樱桃 | 亚洲综合色区中文字幕 | 国产精品怡红院永久免费 | 久久久国产精品无码免费专区 | 男人扒开女人内裤强吻桶进去 | 日韩人妻无码中文字幕视频 | 久久久av男人的天堂 | 午夜精品久久久内射近拍高清 | 无码纯肉视频在线观看 | 狂野欧美激情性xxxx | 波多野结衣高清一区二区三区 | 午夜福利电影 | 无码乱肉视频免费大全合集 | 国内综合精品午夜久久资源 | 久久亚洲日韩精品一区二区三区 | 日日夜夜撸啊撸 | 在线欧美精品一区二区三区 | 夜精品a片一区二区三区无码白浆 | 亚洲自偷精品视频自拍 | 亚洲天堂2017无码 | 粉嫩少妇内射浓精videos | 日本熟妇人妻xxxxx人hd | 精品欧美一区二区三区久久久 | 久久久www成人免费毛片 | 亚洲人成网站色7799 | 久久久久se色偷偷亚洲精品av | 日日噜噜噜噜夜夜爽亚洲精品 | 日本在线高清不卡免费播放 | 亚洲综合无码一区二区三区 | 综合人妻久久一区二区精品 | 国产一区二区三区四区五区加勒比 | 日日橹狠狠爱欧美视频 | 日本精品久久久久中文字幕 | 特黄特色大片免费播放器图片 | 亲嘴扒胸摸屁股激烈网站 | 野狼第一精品社区 | 精品无码成人片一区二区98 | 久久人人爽人人爽人人片av高清 | 久久婷婷五月综合色国产香蕉 | 无码人妻精品一区二区三区不卡 | 性欧美疯狂xxxxbbbb | 99国产精品白浆在线观看免费 | 色偷偷人人澡人人爽人人模 | 久久久精品成人免费观看 | 成人无码精品一区二区三区 | 国产午夜视频在线观看 | 99在线 | 亚洲 | 久久无码中文字幕免费影院蜜桃 | 欧美日韩在线亚洲综合国产人 | 无码人妻丰满熟妇区毛片18 | 日韩精品无码免费一区二区三区 | 久久久久99精品国产片 | 久久精品人人做人人综合试看 | 国产极品视觉盛宴 | 亚洲阿v天堂在线 | 亚洲精品一区二区三区婷婷月 | 国产麻豆精品精东影业av网站 | 成人免费视频一区二区 | 人人妻人人澡人人爽欧美精品 | 成人亚洲精品久久久久软件 | 丁香啪啪综合成人亚洲 | 久久99精品久久久久久动态图 | 好屌草这里只有精品 | 精品国产aⅴ无码一区二区 | 1000部夫妻午夜免费 | 成人性做爰aaa片免费看 | 色窝窝无码一区二区三区色欲 | 国产成人综合色在线观看网站 | 极品尤物被啪到呻吟喷水 | 婷婷五月综合激情中文字幕 | 2019nv天堂香蕉在线观看 | 国产又爽又黄又刺激的视频 | 亚洲国产综合无码一区 | 免费中文字幕日韩欧美 | 久久国产36精品色熟妇 | 日日天干夜夜狠狠爱 | 亚洲熟悉妇女xxx妇女av | 国产精品久久久久久亚洲影视内衣 | 色 综合 欧美 亚洲 国产 | 亚洲国产欧美国产综合一区 | 国产激情艳情在线看视频 | 亚洲综合无码久久精品综合 | 老熟妇乱子伦牲交视频 | 亚洲a无码综合a国产av中文 | 久久久精品人妻久久影视 | 奇米影视888欧美在线观看 | 思思久久99热只有频精品66 | 亚洲欧洲中文日韩av乱码 | 欧美日韩一区二区免费视频 | 亚洲欧美国产精品久久 | 丰满人妻一区二区三区免费视频 | 中文字幕人妻无码一夲道 | 九月婷婷人人澡人人添人人爽 | 99久久精品午夜一区二区 | 国内精品九九久久久精品 | 午夜丰满少妇性开放视频 | 国产无套粉嫩白浆在线 | 国产绳艺sm调教室论坛 | 国产又粗又硬又大爽黄老大爷视 | 98国产精品综合一区二区三区 | 国产av一区二区精品久久凹凸 | 久久国产精品萌白酱免费 | 人妻少妇精品久久 | 无码av免费一区二区三区试看 | 成人试看120秒体验区 | 日本又色又爽又黄的a片18禁 | 久久精品国产大片免费观看 | 欧美日韩人成综合在线播放 | 日韩亚洲欧美中文高清在线 | 国产精品久久国产三级国 | 又紧又大又爽精品一区二区 | 人人妻人人澡人人爽精品欧美 | 亚洲精品一区二区三区在线 | 日韩av激情在线观看 | 粗大的内捧猛烈进出视频 | 精品人人妻人人澡人人爽人人 | 久久精品国产日本波多野结衣 | 久久五月精品中文字幕 | 久久精品人妻少妇一区二区三区 | 强开小婷嫩苞又嫩又紧视频 | 精品午夜福利在线观看 | 色欲综合久久中文字幕网 | 夜夜高潮次次欢爽av女 | 黑人大群体交免费视频 | 日韩亚洲欧美中文高清在线 | 亚洲国产精品成人久久蜜臀 | 亚洲s色大片在线观看 | 午夜无码区在线观看 | 无码午夜成人1000部免费视频 | 亚洲国产av美女网站 | 少妇性l交大片 | 蜜臀aⅴ国产精品久久久国产老师 | 丰满妇女强制高潮18xxxx | 18黄暴禁片在线观看 | 在线观看欧美一区二区三区 | 老子影院午夜精品无码 | 青青久在线视频免费观看 | 精品国产福利一区二区 | 国产精品高潮呻吟av久久4虎 | 性啪啪chinese东北女人 | 人人爽人人澡人人人妻 | 捆绑白丝粉色jk震动捧喷白浆 | а√资源新版在线天堂 | 高中生自慰www网站 | 久久久国产一区二区三区 | 久久99精品久久久久婷婷 | 久久99久久99精品中文字幕 | 男人扒开女人内裤强吻桶进去 | 在线视频网站www色 | 日产精品99久久久久久 | 1000部啪啪未满十八勿入下载 | 在线成人www免费观看视频 | 国产肉丝袜在线观看 | 久久人人爽人人爽人人片av高清 | 国产国产精品人在线视 | 日日噜噜噜噜夜夜爽亚洲精品 | 亚洲精品久久久久久一区二区 | 天干天干啦夜天干天2017 | 精品人妻人人做人人爽夜夜爽 | 国产精品亚洲专区无码不卡 | 国产又粗又硬又大爽黄老大爷视 | 波多野结衣乳巨码无在线观看 | 午夜肉伦伦影院 | 好屌草这里只有精品 | 亚洲一区二区观看播放 | 牲欲强的熟妇农村老妇女视频 | 色老头在线一区二区三区 | 欧美日韩人成综合在线播放 | 综合人妻久久一区二区精品 | 精品一区二区不卡无码av | 国产午夜福利100集发布 | 国产亚洲欧美在线专区 | 国产精品久久久久久亚洲影视内衣 | 亚洲精品久久久久中文第一幕 | 亚洲精品久久久久avwww潮水 | 狠狠综合久久久久综合网 | 久久99精品久久久久婷婷 | 两性色午夜免费视频 | 久久精品国产精品国产精品污 | 骚片av蜜桃精品一区 | 在线视频网站www色 | 67194成是人免费无码 | 亚洲狠狠婷婷综合久久 | 动漫av网站免费观看 | 国产真人无遮挡作爱免费视频 | 又大又硬又黄的免费视频 | 国产精品鲁鲁鲁 | 亚洲综合无码一区二区三区 | 国产又爽又黄又刺激的视频 | 九九在线中文字幕无码 | 无码中文字幕色专区 | 日韩精品久久久肉伦网站 | 伊人久久大香线蕉午夜 | 日韩精品无码一本二本三本色 | 亚洲 a v无 码免 费 成 人 a v | 又色又爽又黄的美女裸体网站 | 日韩精品无码免费一区二区三区 | √天堂中文官网8在线 | 动漫av一区二区在线观看 | 精品久久久无码中文字幕 | 熟妇人妻激情偷爽文 | 日本大乳高潮视频在线观看 | 精品无码一区二区三区的天堂 | 亚洲男女内射在线播放 | 男女下面进入的视频免费午夜 | 国产99久久精品一区二区 | 国产9 9在线 | 中文 | 久久国产自偷自偷免费一区调 | 呦交小u女精品视频 | 欧美丰满老熟妇xxxxx性 | av无码不卡在线观看免费 | 国产xxx69麻豆国语对白 | 精品无人区无码乱码毛片国产 | 暴力强奷在线播放无码 | 乌克兰少妇xxxx做受 | 丝袜人妻一区二区三区 | 日日麻批免费40分钟无码 | 国产精品美女久久久网av | 亚洲精品一区二区三区四区五区 | 人妻天天爽夜夜爽一区二区 | 色偷偷人人澡人人爽人人模 | 97夜夜澡人人爽人人喊中国片 | 久久人人爽人人人人片 | 国产性生大片免费观看性 | 久久婷婷五月综合色国产香蕉 | 久久久中文字幕日本无吗 | 成人性做爰aaa片免费看 | 国产热a欧美热a在线视频 | 日产国产精品亚洲系列 | 国产精品亚洲专区无码不卡 | 亚洲日韩av片在线观看 | 国产在线精品一区二区高清不卡 | 久久精品国产一区二区三区肥胖 | 亚洲精品国偷拍自产在线麻豆 | 妺妺窝人体色www在线小说 | 97人妻精品一区二区三区 | 亚洲热妇无码av在线播放 | 欧美xxxxx精品 | 7777奇米四色成人眼影 | 国产偷国产偷精品高清尤物 | 国产亚av手机在线观看 | 国产超碰人人爽人人做人人添 | 久久午夜无码鲁丝片秋霞 | 久久国产精品精品国产色婷婷 | 丰满少妇人妻久久久久久 | 国内精品九九久久久精品 | 日本又色又爽又黄的a片18禁 | 成人无码精品一区二区三区 | 少妇被粗大的猛进出69影院 | 国产精品国产自线拍免费软件 | 又色又爽又黄的美女裸体网站 | 久久精品国产99久久6动漫 | 国产人妻久久精品二区三区老狼 | 久久亚洲日韩精品一区二区三区 | 亚洲va中文字幕无码久久不卡 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 天堂无码人妻精品一区二区三区 | 免费中文字幕日韩欧美 | 国产成人无码专区 | 亚洲成av人综合在线观看 | 亚洲成a人片在线观看无码3d | 2020久久超碰国产精品最新 | 亚洲精品午夜国产va久久成人 | 亚洲中文字幕无码一久久区 | 性开放的女人aaa片 | 欧美性色19p | 无码人妻精品一区二区三区不卡 | 精品国产精品久久一区免费式 | 亚洲精品一区三区三区在线观看 | 精品国产国产综合精品 | 亚洲成a人片在线观看日本 | 男人扒开女人内裤强吻桶进去 | 色综合久久中文娱乐网 | 日日碰狠狠丁香久燥 | 国产精品多人p群无码 | 波多野结衣乳巨码无在线观看 | 日本护士xxxxhd少妇 | 国产一区二区三区精品视频 | 中文字幕无码日韩欧毛 | 丝袜足控一区二区三区 | 精品国产精品久久一区免费式 | 精品国精品国产自在久国产87 | 国产精品无码成人午夜电影 | 午夜性刺激在线视频免费 | 国内揄拍国内精品人妻 | 久久精品国产亚洲精品 | 国产福利视频一区二区 | 国产亚洲日韩欧美另类第八页 | 日本免费一区二区三区最新 | 清纯唯美经典一区二区 | 国产乱人偷精品人妻a片 | 无码av中文字幕免费放 | 国产成人一区二区三区在线观看 | 久久久无码中文字幕久... | 国产精品无码一区二区三区不卡 | 搡女人真爽免费视频大全 | 99久久无码一区人妻 | 亚洲国精产品一二二线 | 欧美亚洲日韩国产人成在线播放 | 国产一区二区三区四区五区加勒比 | 波多野结衣av在线观看 | 乱中年女人伦av三区 | 任你躁在线精品免费 | 国产精品亚洲五月天高清 | 久久zyz资源站无码中文动漫 | 国产成人综合在线女婷五月99播放 | 亚洲成av人影院在线观看 | 麻豆国产97在线 | 欧洲 | 婷婷六月久久综合丁香 | 亚洲成av人在线观看网址 | 一二三四在线观看免费视频 | 日韩av无码中文无码电影 | 午夜福利试看120秒体验区 | 国产精品手机免费 | 久久综合色之久久综合 | 亚洲国产av美女网站 | 无码人妻黑人中文字幕 | 亚洲狠狠婷婷综合久久 | 国产精品无套呻吟在线 | 少妇厨房愉情理9仑片视频 | 亚洲成av人影院在线观看 | 欧美丰满熟妇xxxx | 欧美阿v高清资源不卡在线播放 | 丰满少妇女裸体bbw | 亚洲色大成网站www国产 | 窝窝午夜理论片影院 | 男女下面进入的视频免费午夜 | 亚洲综合另类小说色区 | 任你躁国产自任一区二区三区 | 少妇高潮喷潮久久久影院 | 国产va免费精品观看 | 人人妻人人澡人人爽欧美一区 | 久久久成人毛片无码 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 无码国产色欲xxxxx视频 | 老熟女乱子伦 | 97久久国产亚洲精品超碰热 | 99久久婷婷国产综合精品青草免费 | 国产成人久久精品流白浆 | 中文无码成人免费视频在线观看 | 成在人线av无码免观看麻豆 | 女人被爽到呻吟gif动态图视看 | 99er热精品视频 | av人摸人人人澡人人超碰下载 | 欧美日韩久久久精品a片 | 精品无人国产偷自产在线 | 成人综合网亚洲伊人 | 无码纯肉视频在线观看 | 女人高潮内射99精品 | 国产人成高清在线视频99最全资源 | ass日本丰满熟妇pics | 青草青草久热国产精品 | 激情内射日本一区二区三区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 日本护士xxxxhd少妇 | 免费观看激色视频网站 | 97久久精品无码一区二区 | 乱中年女人伦av三区 | 福利一区二区三区视频在线观看 | 无码人妻av免费一区二区三区 | 久久久www成人免费毛片 | 国产人成高清在线视频99最全资源 | 国产舌乚八伦偷品w中 | 岛国片人妻三上悠亚 | 内射白嫩少妇超碰 | 亚洲乱码国产乱码精品精 | 国产成人无码专区 | 俺去俺来也www色官网 | 成人三级无码视频在线观看 | 欧美猛少妇色xxxxx | 小泽玛莉亚一区二区视频在线 | 久激情内射婷内射蜜桃人妖 | 中文字幕久久久久人妻 | 国产精品无码一区二区桃花视频 | 日本饥渴人妻欲求不满 | 日本一区二区更新不卡 | 无码人妻精品一区二区三区不卡 | 国产精品怡红院永久免费 | 久久精品无码一区二区三区 | 欧美变态另类xxxx | 欧美日韩一区二区三区自拍 | 欧美国产日韩久久mv | 乱人伦人妻中文字幕无码 | 国产97色在线 | 免 | 午夜性刺激在线视频免费 | 无码午夜成人1000部免费视频 | 日本一卡二卡不卡视频查询 | 亚洲色www成人永久网址 | 国产一区二区三区四区五区加勒比 | 国产熟女一区二区三区四区五区 | 日韩精品无码一区二区中文字幕 | 免费无码av一区二区 | 中国女人内谢69xxxx | 国产高潮视频在线观看 | 亚洲精品国偷拍自产在线麻豆 | 国产手机在线αⅴ片无码观看 | av香港经典三级级 在线 | 午夜丰满少妇性开放视频 | 综合网日日天干夜夜久久 | 国产精品福利视频导航 | 国产精品igao视频网 | 欧美熟妇另类久久久久久不卡 | 日日摸日日碰夜夜爽av | 国产精品va在线观看无码 | 人人妻人人澡人人爽人人精品浪潮 | 丰满人妻被黑人猛烈进入 | 伊人久久大香线焦av综合影院 | 精品人妻人人做人人爽 | 波多野结衣 黑人 | 欧美熟妇另类久久久久久多毛 | 午夜时刻免费入口 | 婷婷色婷婷开心五月四房播播 | 影音先锋中文字幕无码 | 久久综合色之久久综合 | 国产suv精品一区二区五 | 久久综合色之久久综合 | 两性色午夜免费视频 | 亚洲精品综合五月久久小说 | 色老头在线一区二区三区 | 人妻互换免费中文字幕 | 两性色午夜免费视频 | 欧美一区二区三区视频在线观看 | 国产色精品久久人妻 | aⅴ亚洲 日韩 色 图网站 播放 | 国产口爆吞精在线视频 | 精品国产成人一区二区三区 | 午夜丰满少妇性开放视频 | 亚洲综合精品香蕉久久网 | 国产乡下妇女做爰 | 国产欧美精品一区二区三区 | 国产一精品一av一免费 | 激情综合激情五月俺也去 | a在线亚洲男人的天堂 | 色 综合 欧美 亚洲 国产 | 中文字幕久久久久人妻 | 日日麻批免费40分钟无码 | 久久综合久久自在自线精品自 | 人妻少妇精品视频专区 | 国产成人无码一二三区视频 | 日韩无码专区 | 国产综合久久久久鬼色 | 2019午夜福利不卡片在线 | 性生交大片免费看女人按摩摩 | 亚洲色大成网站www国产 | 国产超级va在线观看视频 | 奇米影视7777久久精品人人爽 | 老太婆性杂交欧美肥老太 | 国产尤物精品视频 | 亚洲成av人片天堂网无码】 | 亚洲人成网站在线播放942 | 欧美激情一区二区三区成人 | 少妇被黑人到高潮喷出白浆 | 久久国产精品_国产精品 | 在线观看国产午夜福利片 | 欧美国产亚洲日韩在线二区 | 天天av天天av天天透 | 国内精品久久久久久中文字幕 | 丰满少妇人妻久久久久久 | 亚洲人成影院在线无码按摩店 | 日本精品高清一区二区 | 亚洲成av人片天堂网无码】 | 国产成人精品久久亚洲高清不卡 | 在线a亚洲视频播放在线观看 | 亚洲日韩av一区二区三区四区 | 秋霞成人午夜鲁丝一区二区三区 | 精品人妻人人做人人爽夜夜爽 | 国产麻豆精品一区二区三区v视界 | 美女极度色诱视频国产 | 无码帝国www无码专区色综合 | 欧美日本免费一区二区三区 | 欧美喷潮久久久xxxxx | 精品午夜福利在线观看 | 在线观看欧美一区二区三区 | 波多野结衣av一区二区全免费观看 | 人人妻人人澡人人爽精品欧美 | 亚洲乱码国产乱码精品精 | 亚洲精品一区二区三区大桥未久 | 久久99精品久久久久久 | 国精产品一品二品国精品69xx | 我要看www免费看插插视频 | 免费国产成人高清在线观看网站 | 国产深夜福利视频在线 | 强奷人妻日本中文字幕 | 国产免费无码一区二区视频 | 丰满少妇人妻久久久久久 | 国产激情艳情在线看视频 | 内射老妇bbwx0c0ck | 精品久久综合1区2区3区激情 | 精品成在人线av无码免费看 | 色综合久久中文娱乐网 | 99精品无人区乱码1区2区3区 | 国产性生大片免费观看性 | 亚洲国产精品久久久天堂 | 国产精品成人av在线观看 | 国产日产欧产精品精品app | 嫩b人妻精品一区二区三区 | 999久久久国产精品消防器材 | 亚洲狠狠色丁香婷婷综合 | 狂野欧美性猛交免费视频 | 精品久久久久久亚洲精品 | 少妇久久久久久人妻无码 | a片在线免费观看 | 成人女人看片免费视频放人 | 色婷婷香蕉在线一区二区 | 纯爱无遮挡h肉动漫在线播放 | 国产精品毛片一区二区 | 日韩精品a片一区二区三区妖精 | 久久精品99久久香蕉国产色戒 | 亚洲人亚洲人成电影网站色 | 亚洲午夜福利在线观看 | 中文无码伦av中文字幕 | 国产成人精品一区二区在线小狼 | 亚洲成av人片天堂网无码】 | 成年美女黄网站色大免费全看 | 人妻插b视频一区二区三区 | 香蕉久久久久久av成人 | 国产69精品久久久久app下载 | 亚洲a无码综合a国产av中文 | 免费看男女做好爽好硬视频 | 久久精品中文字幕大胸 | 97se亚洲精品一区 | 久久人人爽人人爽人人片ⅴ | 久久久久国色av免费观看性色 | 一二三四在线观看免费视频 | 人妻人人添人妻人人爱 | 久久久久久九九精品久 | 精品久久久中文字幕人妻 | 99久久久国产精品无码免费 | 久久亚洲中文字幕精品一区 | 日韩 欧美 动漫 国产 制服 | 小鲜肉自慰网站xnxx | 久久精品女人天堂av免费观看 | 蜜桃av抽搐高潮一区二区 | 人妻无码αv中文字幕久久琪琪布 | 国产精品无码mv在线观看 | 亚洲 日韩 欧美 成人 在线观看 | 国产电影无码午夜在线播放 | 久久99精品久久久久久 | 国产乱人伦偷精品视频 | 亚洲精品午夜无码电影网 | 99久久久国产精品无码免费 | 99久久精品国产一区二区蜜芽 | 国产精品美女久久久网av | 国产无套内射久久久国产 | a在线观看免费网站大全 | 精品国精品国产自在久国产87 | 中国女人内谢69xxxxxa片 | 国产av久久久久精东av | 婷婷综合久久中文字幕蜜桃三电影 | 欧美熟妇另类久久久久久不卡 | 99久久久无码国产aaa精品 | 无码国产激情在线观看 | 男女下面进入的视频免费午夜 | 中文精品无码中文字幕无码专区 | 中文字幕久久久久人妻 | 亚洲精品中文字幕乱码 | 久久久久久av无码免费看大片 | 欧美一区二区三区视频在线观看 | 日本一卡2卡3卡四卡精品网站 | 大乳丰满人妻中文字幕日本 | 国产免费久久久久久无码 | 日本一卡二卡不卡视频查询 | 亚洲日韩一区二区三区 | 无码人妻出轨黑人中文字幕 | 日本肉体xxxx裸交 | 亚洲成熟女人毛毛耸耸多 | 久久国产精品_国产精品 | 国产亚洲美女精品久久久2020 | 无人区乱码一区二区三区 | 亚洲精品一区三区三区在线观看 | 久久国产精品_国产精品 | 亚洲人成无码网www | 永久免费观看美女裸体的网站 | 野外少妇愉情中文字幕 | 国产两女互慰高潮视频在线观看 | 国产性生大片免费观看性 | 99精品视频在线观看免费 | 在线观看国产午夜福利片 | 免费无码一区二区三区蜜桃大 | 1000部夫妻午夜免费 | 亚洲色欲久久久综合网东京热 | 水蜜桃色314在线观看 | 亚洲午夜福利在线观看 | 亚洲熟女一区二区三区 | 激情爆乳一区二区三区 | 精品久久久无码中文字幕 | 麻豆md0077饥渴少妇 | 青草青草久热国产精品 | 国产特级毛片aaaaaa高潮流水 | 欧美色就是色 | 99re在线播放 | 国产成人一区二区三区别 | 成年女人永久免费看片 | 国产精品怡红院永久免费 | 亚洲国产精品久久人人爱 | 亚拍精品一区二区三区探花 | 国内综合精品午夜久久资源 | 日韩人妻无码中文字幕视频 | 国产无遮挡又黄又爽免费视频 | 天堂无码人妻精品一区二区三区 | 国产成人一区二区三区别 | 国产肉丝袜在线观看 | 正在播放老肥熟妇露脸 | 国产小呦泬泬99精品 | 中文字幕无码人妻少妇免费 | 中文字幕色婷婷在线视频 | 丰满肥臀大屁股熟妇激情视频 | 久久久成人毛片无码 | 久久久久久久人妻无码中文字幕爆 | 中文字幕人妻无码一夲道 | 亚洲の无码国产の无码影院 | 亚洲成av人片天堂网无码】 | 国产亚洲精品久久久闺蜜 | 99久久精品无码一区二区毛片 | 在线观看免费人成视频 | 天干天干啦夜天干天2017 | 一本精品99久久精品77 | 日韩av无码中文无码电影 | 亚洲精品久久久久久一区二区 | 国产精品国产自线拍免费软件 | 国产美女极度色诱视频www | 午夜精品久久久久久久久 | 久久综合给合久久狠狠狠97色 | 免费观看激色视频网站 | 欧美乱妇无乱码大黄a片 | 国产人妻人伦精品1国产丝袜 | 波多野结衣乳巨码无在线观看 | 97久久精品无码一区二区 | 无码国产激情在线观看 | 国产人妻大战黑人第1集 | 欧美性生交活xxxxxdddd | 国产成人精品无码播放 | 精品久久久无码中文字幕 | 九九久久精品国产免费看小说 | 亚洲理论电影在线观看 | 久久午夜无码鲁丝片 | 亚洲综合无码久久精品综合 | 正在播放东北夫妻内射 | 内射欧美老妇wbb | 最新国产麻豆aⅴ精品无码 | 狂野欧美性猛xxxx乱大交 | 人人澡人人妻人人爽人人蜜桃 | 偷窥日本少妇撒尿chinese | 成人亚洲精品久久久久 | 狂野欧美性猛xxxx乱大交 | 欧美黑人巨大xxxxx | 午夜福利试看120秒体验区 | 在线观看欧美一区二区三区 | 欧美精品一区二区精品久久 | 国产精品毛片一区二区 | 精品少妇爆乳无码av无码专区 | 性欧美videos高清精品 | 强伦人妻一区二区三区视频18 | 亚洲一区二区三区播放 | 午夜成人1000部免费视频 | 国产午夜亚洲精品不卡 | 亚洲国产av精品一区二区蜜芽 | 999久久久国产精品消防器材 | 日本成熟视频免费视频 | 国产一区二区三区精品视频 | 亚洲国产综合无码一区 | √8天堂资源地址中文在线 | 亚洲人成影院在线无码按摩店 | 99视频精品全部免费免费观看 | 色狠狠av一区二区三区 | 亚洲综合久久一区二区 | 久久国产精品偷任你爽任你 | 亚洲成色www久久网站 | 国产av一区二区精品久久凹凸 | 欧美性黑人极品hd | 国内精品人妻无码久久久影院 | 三级4级全黄60分钟 | 性欧美疯狂xxxxbbbb | 99久久人妻精品免费一区 | 无码人中文字幕 | 51国偷自产一区二区三区 | 欧美性生交活xxxxxdddd | 亚洲欧洲日本综合aⅴ在线 | 午夜熟女插插xx免费视频 | 久久久精品欧美一区二区免费 | 国产偷抇久久精品a片69 | 青青草原综合久久大伊人精品 | 欧美国产日产一区二区 | 88国产精品欧美一区二区三区 | 人妻少妇精品久久 | 久久精品国产亚洲精品 | 国产在线精品一区二区高清不卡 | 中文精品无码中文字幕无码专区 | 亚洲经典千人经典日产 | 性欧美熟妇videofreesex | 99久久婷婷国产综合精品青草免费 | 天干天干啦夜天干天2017 | 300部国产真实乱 | 日本大乳高潮视频在线观看 | 亚洲精品中文字幕乱码 | 亚无码乱人伦一区二区 | 老子影院午夜伦不卡 | 国语自产偷拍精品视频偷 | 日韩欧美群交p片內射中文 | 久9re热视频这里只有精品 | 亚洲精品欧美二区三区中文字幕 | 国产熟妇高潮叫床视频播放 | 国产高潮视频在线观看 | 久久久久99精品国产片 | 美女黄网站人色视频免费国产 | 国产午夜福利100集发布 | 色综合视频一区二区三区 | 国产精品18久久久久久麻辣 | 成人无码精品一区二区三区 | 永久免费观看美女裸体的网站 | 色情久久久av熟女人妻网站 | 欧美日韩精品 | 少妇人妻偷人精品无码视频 | 中文字幕中文有码在线 | 在线成人www免费观看视频 | 成人免费视频视频在线观看 免费 | 在线天堂新版最新版在线8 | 中文字幕人妻丝袜二区 | 中文精品无码中文字幕无码专区 | 久久午夜夜伦鲁鲁片无码免费 | √8天堂资源地址中文在线 | 三上悠亚人妻中文字幕在线 | 乱码午夜-极国产极内射 | 人妻少妇精品无码专区动漫 | 红桃av一区二区三区在线无码av | 一本久道高清无码视频 | 久久久中文字幕日本无吗 | 亚洲成a人片在线观看无码 | 一个人免费观看的www视频 | 日本一区二区三区免费播放 | 午夜肉伦伦影院 | 国产日产欧产精品精品app | 国产精品久久久午夜夜伦鲁鲁 | 成人免费视频在线观看 | 影音先锋中文字幕无码 | 思思久久99热只有频精品66 | 亚洲日韩av一区二区三区中文 | 精品一二三区久久aaa片 | 国产精品多人p群无码 | 成人片黄网站色大片免费观看 | 亚洲欧洲日本综合aⅴ在线 | 精品国偷自产在线 | 又粗又大又硬又长又爽 | 中文字幕无码免费久久9一区9 | 国产无遮挡吃胸膜奶免费看 | 精品国产福利一区二区 | 日日麻批免费40分钟无码 | 日本免费一区二区三区最新 | 初尝人妻少妇中文字幕 | 色婷婷综合激情综在线播放 | 老子影院午夜精品无码 | 国产麻豆精品一区二区三区v视界 | 亚洲の无码国产の无码影院 | 国产无套内射久久久国产 | 天下第一社区视频www日本 | 桃花色综合影院 | 狠狠色欧美亚洲狠狠色www | 麻豆果冻传媒2021精品传媒一区下载 | 麻豆md0077饥渴少妇 | 少妇人妻大乳在线视频 | 无码人妻av免费一区二区三区 | 成年美女黄网站色大免费视频 | 乱人伦人妻中文字幕无码 | 成人av无码一区二区三区 | 国产精品久免费的黄网站 | 野外少妇愉情中文字幕 | 亚洲精品一区二区三区婷婷月 | 欧美国产日韩久久mv | 丰满少妇人妻久久久久久 | 国产疯狂伦交大片 | 欧美黑人性暴力猛交喷水 | a国产一区二区免费入口 | 国产成人亚洲综合无码 | 97色伦图片97综合影院 | 欧美一区二区三区 | 国产亚洲精品久久久久久大师 | 欧美三级不卡在线观看 | 久激情内射婷内射蜜桃人妖 | 久久午夜夜伦鲁鲁片无码免费 | 无码人中文字幕 | 福利一区二区三区视频在线观看 | 久久精品一区二区三区四区 | 国产另类ts人妖一区二区 | 丰腴饱满的极品熟妇 | 日本爽爽爽爽爽爽在线观看免 | 国色天香社区在线视频 | 一本色道久久综合狠狠躁 | 亚洲七七久久桃花影院 | 久久综合给合久久狠狠狠97色 | 樱花草在线播放免费中文 | 久久精品人人做人人综合 | 成人免费无码大片a毛片 | 中文无码伦av中文字幕 | 一个人免费观看的www视频 | 亚洲人亚洲人成电影网站色 | 亚洲一区二区三区 | 亚洲中文字幕无码中文字在线 | 国产香蕉97碰碰久久人人 | 麻豆国产人妻欲求不满 | 精品偷拍一区二区三区在线看 | 天干天干啦夜天干天2017 | 亚洲高清偷拍一区二区三区 | 狂野欧美激情性xxxx | 国产精品无码一区二区桃花视频 | 中国女人内谢69xxxxxa片 | 精品无人区无码乱码毛片国产 | 亚洲欧美日韩成人高清在线一区 | 欧洲美熟女乱又伦 | 在线精品国产一区二区三区 | 日本大香伊一区二区三区 | 久久久久亚洲精品男人的天堂 | 黑人巨大精品欧美一区二区 | 欧美zoozzooz性欧美 | 日日摸夜夜摸狠狠摸婷婷 | 麻豆蜜桃av蜜臀av色欲av | 男女下面进入的视频免费午夜 | 内射欧美老妇wbb | 欧美猛少妇色xxxxx | 中文字幕人妻无码一区二区三区 | 成人毛片一区二区 | 亚洲gv猛男gv无码男同 | 捆绑白丝粉色jk震动捧喷白浆 | 综合人妻久久一区二区精品 | 久热国产vs视频在线观看 | 精品午夜福利在线观看 | 国产成人无码av在线影院 | 男女作爱免费网站 | 国产精品香蕉在线观看 | 久久久久久九九精品久 | 久久 国产 尿 小便 嘘嘘 | 鲁鲁鲁爽爽爽在线视频观看 | 麻豆精品国产精华精华液好用吗 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲精品久久久久久久久久久 | 人妻天天爽夜夜爽一区二区 | 亚洲成a人一区二区三区 | 美女毛片一区二区三区四区 | 7777奇米四色成人眼影 | 精品人人妻人人澡人人爽人人 | 蜜桃臀无码内射一区二区三区 | 夜夜影院未满十八勿进 | 欧美激情一区二区三区成人 | 国产特级毛片aaaaaaa高清 | 小sao货水好多真紧h无码视频 | 欧美精品国产综合久久 | 97夜夜澡人人爽人人喊中国片 | 激情亚洲一区国产精品 | 亚洲人成网站在线播放942 | 国产精品久久久一区二区三区 | 无码人妻丰满熟妇区毛片18 | 女人被男人躁得好爽免费视频 | 丁香花在线影院观看在线播放 | 性色av无码免费一区二区三区 | 亚洲国产成人av在线观看 | 无码国产乱人伦偷精品视频 | 人妻夜夜爽天天爽三区 | 成在人线av无码免观看麻豆 | 7777奇米四色成人眼影 | aⅴ在线视频男人的天堂 | yw尤物av无码国产在线观看 | 天下第一社区视频www日本 | 最近的中文字幕在线看视频 | 人妻与老人中文字幕 | 国产精品福利视频导航 | 无码人中文字幕 | 亚洲毛片av日韩av无码 | 76少妇精品导航 | 2020久久超碰国产精品最新 | 中文无码成人免费视频在线观看 | 欧美日韩亚洲国产精品 | 天天拍夜夜添久久精品 | 老熟女重囗味hdxx69 | 亚洲精品国产精品乱码视色 | 国产在线一区二区三区四区五区 | 亚洲日韩av片在线观看 | 中文字幕无码乱人伦 | 一个人看的视频www在线 | 水蜜桃色314在线观看 | 国产高清av在线播放 | 大肉大捧一进一出好爽视频 | 中文精品无码中文字幕无码专区 | 大乳丰满人妻中文字幕日本 | 久久99热只有频精品8 | 性生交大片免费看女人按摩摩 | 蜜臀av无码人妻精品 | 久久亚洲国产成人精品性色 | 日韩av无码一区二区三区不卡 | 蜜桃臀无码内射一区二区三区 | 久久精品国产大片免费观看 | 又黄又爽又色的视频 | 亚洲精品中文字幕乱码 | 精品国产福利一区二区 | 午夜理论片yy44880影院 | 亚洲国产精品无码一区二区三区 | 巨爆乳无码视频在线观看 | 暴力强奷在线播放无码 | 综合人妻久久一区二区精品 | 精品国产福利一区二区 | 国产成人无码区免费内射一片色欲 | 男人的天堂2018无码 | 东京热无码av男人的天堂 | 麻豆人妻少妇精品无码专区 | 国产乱码精品一品二品 | 中文字幕日韩精品一区二区三区 | 欧美喷潮久久久xxxxx | 久久国产36精品色熟妇 | 国产特级毛片aaaaaa高潮流水 | 日韩精品一区二区av在线 | 国产精品成人av在线观看 | 精品偷自拍另类在线观看 | 大肉大捧一进一出好爽视频 | 日韩av激情在线观看 | 狠狠色欧美亚洲狠狠色www | 亚洲色大成网站www国产 | 久久午夜无码鲁丝片午夜精品 | 无码吃奶揉捏奶头高潮视频 | 久久伊人色av天堂九九小黄鸭 | 日韩无套无码精品 | 中文毛片无遮挡高清免费 | 免费观看激色视频网站 | 成人无码精品一区二区三区 | 久久午夜夜伦鲁鲁片无码免费 | 7777奇米四色成人眼影 | 欧美日韩久久久精品a片 | 无套内谢老熟女 | 中文字幕人成乱码熟女app | 精品国产青草久久久久福利 | 亚洲欧洲日本无在线码 | 国产精品无码成人午夜电影 | 99精品国产综合久久久久五月天 | 国产午夜精品一区二区三区嫩草 | 亚洲国产日韩a在线播放 | 国产黄在线观看免费观看不卡 | 久久精品一区二区三区四区 | 日本一卡二卡不卡视频查询 | 日日摸夜夜摸狠狠摸婷婷 | 爱做久久久久久 | 最近免费中文字幕中文高清百度 | 狠狠色丁香久久婷婷综合五月 | 欧美性黑人极品hd | 人人妻人人澡人人爽欧美一区 | 精品熟女少妇av免费观看 | 亚洲国产精品一区二区美利坚 | v一区无码内射国产 | 天天拍夜夜添久久精品大 | 国产婷婷色一区二区三区在线 | 国产精品美女久久久久av爽李琼 | av在线亚洲欧洲日产一区二区 | 亚洲日本一区二区三区在线 | 又色又爽又黄的美女裸体网站 | 无码av最新清无码专区吞精 | 国产亚洲精品精品国产亚洲综合 | 性色欲情网站iwww九文堂 | 98国产精品综合一区二区三区 | 装睡被陌生人摸出水好爽 | 中文字幕av日韩精品一区二区 | 国产高清不卡无码视频 | 最新版天堂资源中文官网 | 人人妻人人澡人人爽欧美一区九九 | 国产特级毛片aaaaaa高潮流水 | 亚洲人成无码网www | 欧美喷潮久久久xxxxx | 亚洲の无码国产の无码影院 | 亚洲の无码国产の无码影院 | 久热国产vs视频在线观看 | 亚洲 a v无 码免 费 成 人 a v | 天天拍夜夜添久久精品大 | 撕开奶罩揉吮奶头视频 | 曰本女人与公拘交酡免费视频 | 三上悠亚人妻中文字幕在线 | 久久午夜夜伦鲁鲁片无码免费 | 人妻中文无码久热丝袜 | 夜精品a片一区二区三区无码白浆 | 奇米影视7777久久精品人人爽 | 亚洲第一网站男人都懂 | 无码国内精品人妻少妇 | 全球成人中文在线 | 国产午夜福利亚洲第一 | 日韩精品a片一区二区三区妖精 | 无码国产乱人伦偷精品视频 | 国产亚洲精品久久久ai换 | 亚洲乱码国产乱码精品精 | 欧美黑人巨大xxxxx | 老熟妇乱子伦牲交视频 | 撕开奶罩揉吮奶头视频 | 一本精品99久久精品77 | 日韩无套无码精品 | 强开小婷嫩苞又嫩又紧视频 | 精品偷自拍另类在线观看 | 欧洲精品码一区二区三区免费看 | 久久综合九色综合97网 | 国产超级va在线观看视频 | 国产精品亚洲综合色区韩国 | 日本熟妇乱子伦xxxx | 久9re热视频这里只有精品 | 午夜精品久久久久久久 | 亚洲一区二区三区国产精华液 | 精品一区二区三区无码免费视频 | 天干天干啦夜天干天2017 | 国产精品久久久久9999小说 | 久久婷婷五月综合色国产香蕉 | 97人妻精品一区二区三区 | 中文字幕 亚洲精品 第1页 | 欧洲熟妇精品视频 | 国产精品爱久久久久久久 | 国产精品久久久久久久影院 | 亚洲中文字幕成人无码 | 亚洲热妇无码av在线播放 | 国产无遮挡吃胸膜奶免费看 | 免费观看的无遮挡av | 强奷人妻日本中文字幕 | 国产精品香蕉在线观看 | 鲁大师影院在线观看 | 全球成人中文在线 | 无码任你躁久久久久久久 | 97色伦图片97综合影院 | 欧美放荡的少妇 | 国产suv精品一区二区五 | 国产 精品 自在自线 | 18黄暴禁片在线观看 | 国产精品久久久久影院嫩草 | 免费无码肉片在线观看 | 无码av免费一区二区三区试看 | 午夜理论片yy44880影院 | 亚洲毛片av日韩av无码 | 装睡被陌生人摸出水好爽 | 成人精品视频一区二区三区尤物 | 亚洲狠狠色丁香婷婷综合 | 亚洲男人av香蕉爽爽爽爽 | 美女黄网站人色视频免费国产 | 国产三级久久久精品麻豆三级 | 人人妻人人澡人人爽人人精品 | 国产人妻精品一区二区三区 | 亚洲精品久久久久久久久久久 | 国产午夜精品一区二区三区嫩草 | 久久久中文字幕日本无吗 | 日韩av无码一区二区三区不卡 | 国产激情精品一区二区三区 | 最新国产乱人伦偷精品免费网站 | 无码播放一区二区三区 | 久久精品99久久香蕉国产色戒 | 日韩无码专区 | 亚洲中文字幕无码中文字在线 | 久久精品99久久香蕉国产色戒 | 俄罗斯老熟妇色xxxx | 欧美zoozzooz性欧美 | 国产亲子乱弄免费视频 | 少妇人妻大乳在线视频 | 久久99久久99精品中文字幕 | 无码播放一区二区三区 | 一本大道伊人av久久综合 | 成人试看120秒体验区 | 伦伦影院午夜理论片 | 亚洲 日韩 欧美 成人 在线观看 | 99精品国产综合久久久久五月天 | 一区二区传媒有限公司 | 亚洲精品国产a久久久久久 | 一个人看的视频www在线 | 一二三四在线观看免费视频 | yw尤物av无码国产在线观看 | 99国产欧美久久久精品 | 窝窝午夜理论片影院 | 国产精品无码成人午夜电影 | 装睡被陌生人摸出水好爽 | 欧美日韩一区二区免费视频 | 激情内射亚州一区二区三区爱妻 | 亚洲精品国产a久久久久久 | 精品国产av色一区二区深夜久久 | 国产福利视频一区二区 | 婷婷五月综合缴情在线视频 | 亚洲国产精品美女久久久久 | 天天av天天av天天透 | 真人与拘做受免费视频 | 欧美激情综合亚洲一二区 | 婷婷五月综合激情中文字幕 | 丰满岳乱妇在线观看中字无码 | 日本熟妇浓毛 | 久久亚洲精品中文字幕无男同 | 国产偷国产偷精品高清尤物 | 久久视频在线观看精品 | 日本又色又爽又黄的a片18禁 | 欧美国产日产一区二区 | 一本色道婷婷久久欧美 | 国产农村妇女高潮大叫 | 久久亚洲精品中文字幕无男同 | 麻豆果冻传媒2021精品传媒一区下载 | 国产精品理论片在线观看 | 97久久精品无码一区二区 | 亚洲综合另类小说色区 | 午夜精品一区二区三区在线观看 | 一个人免费观看的www视频 | 国产激情精品一区二区三区 | 欧美乱妇无乱码大黄a片 | 亚洲色欲色欲天天天www | 乱人伦人妻中文字幕无码久久网 | 亚洲中文字幕无码一久久区 | 97精品人妻一区二区三区香蕉 | 国产精品高潮呻吟av久久 | 亚洲a无码综合a国产av中文 | 亚洲精品久久久久久一区二区 | 久9re热视频这里只有精品 | 亚洲色欲色欲天天天www | 国内老熟妇对白xxxxhd | 国产成人午夜福利在线播放 | 成熟妇人a片免费看网站 | 亚洲第一无码av无码专区 | 十八禁视频网站在线观看 | 国产成人精品必看 | 特黄特色大片免费播放器图片 | 国产超碰人人爽人人做人人添 | 性欧美牲交在线视频 | 成人性做爰aaa片免费看不忠 | 国产内射爽爽大片视频社区在线 | 国产亚洲精品久久久久久 | 亚洲日韩中文字幕在线播放 | 国产suv精品一区二区五 | 久久无码专区国产精品s | 久久国产精品_国产精品 | 亚洲精品一区二区三区在线观看 | 欧美精品免费观看二区 | 亚洲爆乳大丰满无码专区 | 香蕉久久久久久av成人 | 国产精品怡红院永久免费 | 亚洲精品午夜国产va久久成人 | 免费播放一区二区三区 | 99久久久无码国产精品免费 | 99国产欧美久久久精品 | 久久久久se色偷偷亚洲精品av | 成人无码视频在线观看网站 | 久久天天躁狠狠躁夜夜免费观看 | 蜜桃av抽搐高潮一区二区 | 国产激情精品一区二区三区 | 日本熟妇乱子伦xxxx | 久久精品视频在线看15 | 国产午夜手机精彩视频 | 鲁一鲁av2019在线 | 国产精品久久精品三级 | 国产成人无码午夜视频在线观看 | 亚洲伊人久久精品影院 | 日韩精品无码一区二区中文字幕 | 国产精品-区区久久久狼 | 欧美丰满少妇xxxx性 | 在线a亚洲视频播放在线观看 | 天堂а√在线中文在线 | 国产精品第一区揄拍无码 | 人人澡人人透人人爽 | 亚洲春色在线视频 | 色狠狠av一区二区三区 | 精品夜夜澡人妻无码av蜜桃 | 国产色视频一区二区三区 | 中文字幕久久久久人妻 | 天天做天天爱天天爽综合网 | 男女超爽视频免费播放 | 色综合久久久久综合一本到桃花网 | 国产午夜精品一区二区三区嫩草 | 性欧美牲交xxxxx视频 | 欧美真人作爱免费视频 | 亚洲精品美女久久久久久久 | 国产av无码专区亚洲a∨毛片 | 久久这里只有精品视频9 | 欧美丰满熟妇xxxx性ppx人交 | 国产美女精品一区二区三区 | 精品久久久久久亚洲精品 | 扒开双腿吃奶呻吟做受视频 | 成人亚洲精品久久久久 | 伊人久久大香线焦av综合影院 | 黑人大群体交免费视频 | 色 综合 欧美 亚洲 国产 | 欧美亚洲国产一区二区三区 | 乱中年女人伦av三区 | 久久精品一区二区三区四区 | 亚洲国产综合无码一区 | 亚洲精品国产a久久久久久 | 国产精品鲁鲁鲁 | 国产特级毛片aaaaaa高潮流水 | 亚洲精品一区三区三区在线观看 | 欧美丰满少妇xxxx性 | 国产免费无码一区二区视频 | 亚洲热妇无码av在线播放 | 亚洲精品久久久久久久久久久 | 欧美 日韩 人妻 高清 中文 | 中文字幕中文有码在线 | 午夜嘿嘿嘿影院 | 久激情内射婷内射蜜桃人妖 | 国产精品无码久久av | 国产免费久久久久久无码 | 久久精品中文字幕一区 | 在线成人www免费观看视频 | 久久亚洲中文字幕精品一区 | 在线播放免费人成毛片乱码 | 在线亚洲高清揄拍自拍一品区 | 人人妻人人澡人人爽人人精品 | 人人妻人人澡人人爽人人精品浪潮 | a在线观看免费网站大全 | 久久99精品久久久久婷婷 | 国产人成高清在线视频99最全资源 | 欧美成人家庭影院 | 人人妻人人藻人人爽欧美一区 | 亚洲国产av精品一区二区蜜芽 | 中国女人内谢69xxxxxa片 | 国产超碰人人爽人人做人人添 | 又大又硬又爽免费视频 | 熟妇人妻中文av无码 | 久久久久免费精品国产 | 成 人 网 站国产免费观看 | 久久国内精品自在自线 | 亚洲精品国偷拍自产在线麻豆 | 精品无码av一区二区三区 | 亚洲理论电影在线观看 | 国产精品亚洲一区二区三区喷水 | 国产精品多人p群无码 | 娇妻被黑人粗大高潮白浆 | 久激情内射婷内射蜜桃人妖 | 亚洲精品综合五月久久小说 | 精品 日韩 国产 欧美 视频 | 少妇的肉体aa片免费 | 国产精华av午夜在线观看 | 国产精品久久久久影院嫩草 | 久久精品国产精品国产精品污 | 黑人巨大精品欧美黑寡妇 | 3d动漫精品啪啪一区二区中 | 国产特级毛片aaaaaaa高清 | 日本在线高清不卡免费播放 | 国产激情艳情在线看视频 | 内射白嫩少妇超碰 | 无码人妻久久一区二区三区不卡 | 日韩少妇内射免费播放 | 欧美亚洲日韩国产人成在线播放 | 亚洲精品久久久久avwww潮水 | 2020久久超碰国产精品最新 | 高清无码午夜福利视频 | 国产激情艳情在线看视频 | 高潮毛片无遮挡高清免费视频 | 免费乱码人妻系列无码专区 | 日韩av无码一区二区三区不卡 | 久久亚洲中文字幕精品一区 | 免费观看又污又黄的网站 | 国产精品久久久av久久久 | 一本久道久久综合婷婷五月 | 国产无套内射久久久国产 | 国内丰满熟女出轨videos | 精品久久综合1区2区3区激情 | 2020久久香蕉国产线看观看 | 精品人妻人人做人人爽 | 最新版天堂资源中文官网 | 国产成人久久精品流白浆 | 少妇被黑人到高潮喷出白浆 | 曰本女人与公拘交酡免费视频 | 大地资源网第二页免费观看 | 国产午夜福利100集发布 | 国产成人无码av在线影院 | 亚洲小说春色综合另类 | 精品国产麻豆免费人成网站 | 亚洲精品无码人妻无码 | 国产av一区二区精品久久凹凸 | 久久久中文字幕日本无吗 | 国产成人精品优优av | 东京一本一道一二三区 | 亚洲成熟女人毛毛耸耸多 | 久久久久人妻一区精品色欧美 | 激情亚洲一区国产精品 | 无遮挡国产高潮视频免费观看 | 99国产欧美久久久精品 | 88国产精品欧美一区二区三区 | 一本久久伊人热热精品中文字幕 | 青青青爽视频在线观看 | 99久久亚洲精品无码毛片 | 人妻插b视频一区二区三区 | 久久精品中文字幕一区 | 久久精品国产日本波多野结衣 | 人妻尝试又大又粗久久 | 亚洲精品www久久久 | 伊人久久婷婷五月综合97色 | 国产精品办公室沙发 | 欧美肥老太牲交大战 | 亚洲精品无码国产 | 性做久久久久久久免费看 | 国产亚av手机在线观看 | 无码av免费一区二区三区试看 | 国产人妖乱国产精品人妖 | 无码人妻少妇伦在线电影 | 伊在人天堂亚洲香蕉精品区 | 欧美日韩精品 | 成人无码视频在线观看网站 | 国产精品久久久久久无码 | 亚洲乱码国产乱码精品精 | 高清国产亚洲精品自在久久 | a在线观看免费网站大全 | 97夜夜澡人人爽人人喊中国片 | 精品日本一区二区三区在线观看 | 国产农村妇女高潮大叫 | 强奷人妻日本中文字幕 | 国产精品无码久久av | 亚洲日韩一区二区 | 国产午夜亚洲精品不卡下载 | 无码av免费一区二区三区试看 | 国产成人无码av片在线观看不卡 | 精品国产av色一区二区深夜久久 | 人人超人人超碰超国产 | 日本精品少妇一区二区三区 | 日日天干夜夜狠狠爱 | 久久人人97超碰a片精品 | 亚洲精品一区二区三区在线 | 熟女俱乐部五十路六十路av | 最近中文2019字幕第二页 | 亚洲熟悉妇女xxx妇女av | 国产亚洲日韩欧美另类第八页 | 秋霞成人午夜鲁丝一区二区三区 | 18无码粉嫩小泬无套在线观看 | 国产精品第一区揄拍无码 | 色婷婷欧美在线播放内射 | 伊人久久大香线焦av综合影院 | 老熟妇仑乱视频一区二区 | 波多野结衣一区二区三区av免费 | 性欧美videos高清精品 | 99久久婷婷国产综合精品青草免费 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 男女作爱免费网站 | 久久亚洲国产成人精品性色 | 国产特级毛片aaaaaaa高清 | 久久午夜无码鲁丝片秋霞 | 色窝窝无码一区二区三区色欲 | 亚洲小说春色综合另类 | 亚洲天堂2017无码 | 中文字幕乱码人妻无码久久 | 亚洲狠狠色丁香婷婷综合 | 日韩av无码中文无码电影 | 人人妻人人澡人人爽欧美一区 | 99久久精品日本一区二区免费 | 国产后入清纯学生妹 | 亚洲爆乳无码专区 | 无码人妻av免费一区二区三区 | 日本精品少妇一区二区三区 | 四十如虎的丰满熟妇啪啪 | 亚洲а∨天堂久久精品2021 | 99国产精品白浆在线观看免费 | 亚洲中文字幕成人无码 | 亚洲无人区一区二区三区 | 噜噜噜亚洲色成人网站 | 亚洲国产av精品一区二区蜜芽 | 亚洲色偷偷偷综合网 | 少妇性荡欲午夜性开放视频剧场 | 无码吃奶揉捏奶头高潮视频 | 久久国产精品_国产精品 | 波多野结衣av在线观看 | 国产精品怡红院永久免费 | 国产精品久久福利网站 | 国产人妻人伦精品1国产丝袜 | 亚洲成a人一区二区三区 | 国产色在线 | 国产 | a片免费视频在线观看 | 俄罗斯老熟妇色xxxx | 精品乱子伦一区二区三区 | 色婷婷av一区二区三区之红樱桃 | 人人爽人人澡人人高潮 | 午夜福利一区二区三区在线观看 | 欧美日韩精品 | 日本一本二本三区免费 | 国产成人无码av在线影院 | 日韩少妇白浆无码系列 | 麻豆国产人妻欲求不满谁演的 | 夜夜影院未满十八勿进 | 国产乱人偷精品人妻a片 | 国产亚洲日韩欧美另类第八页 | 97夜夜澡人人爽人人喊中国片 | 国产亚洲精品久久久久久国模美 | 久久久中文字幕日本无吗 | 婷婷五月综合缴情在线视频 | 国产va免费精品观看 | 欧美日韩久久久精品a片 | 精品无码一区二区三区的天堂 | 国产精品怡红院永久免费 | 女人被男人躁得好爽免费视频 | 欧美国产亚洲日韩在线二区 | 国产精品国产自线拍免费软件 | 中文字幕av伊人av无码av | 国产一区二区三区四区五区加勒比 | 国产9 9在线 | 中文 | 偷窥村妇洗澡毛毛多 | 四虎国产精品免费久久 | 老子影院午夜精品无码 | 国产精品办公室沙发 | 亚洲国产精华液网站w | 亚洲精品久久久久avwww潮水 | 97精品人妻一区二区三区香蕉 | 亚洲精品美女久久久久久久 | 亚洲小说图区综合在线 | 国产午夜无码视频在线观看 | 国产亚av手机在线观看 | 国产av无码专区亚洲awww | 国产免费久久精品国产传媒 | 成在人线av无码免观看麻豆 | 2020最新国产自产精品 | 窝窝午夜理论片影院 | 水蜜桃av无码 | 天堂一区人妻无码 | 高中生自慰www网站 | 亚洲成色在线综合网站 | 国产免费无码一区二区视频 | 久久精品人人做人人综合试看 | 久久久精品人妻久久影视 | 岛国片人妻三上悠亚 | 男人和女人高潮免费网站 | 亚洲一区二区三区偷拍女厕 | 亚洲一区二区三区含羞草 | 色情久久久av熟女人妻网站 | 丰满岳乱妇在线观看中字无码 | 色婷婷久久一区二区三区麻豆 | 大肉大捧一进一出视频出来呀 | 狠狠色噜噜狠狠狠7777奇米 | 荫蒂被男人添的好舒服爽免费视频 | 强开小婷嫩苞又嫩又紧视频 | 日韩精品乱码av一区二区 | 成人一在线视频日韩国产 | 人人妻人人澡人人爽人人精品 | 亚洲 另类 在线 欧美 制服 | 无码av最新清无码专区吞精 | 人妻无码αv中文字幕久久琪琪布 | 免费视频欧美无人区码 | 动漫av一区二区在线观看 | 性欧美疯狂xxxxbbbb | 国内精品人妻无码久久久影院蜜桃 | 日日麻批免费40分钟无码 | 国产成人无码av一区二区 | 搡女人真爽免费视频大全 | 精品无码一区二区三区的天堂 | 九九在线中文字幕无码 | www国产亚洲精品久久久日本 | 熟女少妇人妻中文字幕 | 国产又爽又黄又刺激的视频 | 少妇高潮一区二区三区99 | 久久国产劲爆∧v内射 | 亚洲中文字幕无码中文字在线 | 亚洲日本va中文字幕 | 国产熟妇高潮叫床视频播放 | 色五月五月丁香亚洲综合网 | 精品欧美一区二区三区久久久 | 日韩精品无码一本二本三本色 | 精品无码av一区二区三区 | 午夜精品久久久内射近拍高清 | 性欧美熟妇videofreesex | 两性色午夜免费视频 | 亚拍精品一区二区三区探花 | 夜夜夜高潮夜夜爽夜夜爰爰 | 狠狠噜狠狠狠狠丁香五月 | 免费乱码人妻系列无码专区 | 精品无码国产一区二区三区av | 日本肉体xxxx裸交 | 国产美女精品一区二区三区 | 中文字幕亚洲情99在线 | 少妇厨房愉情理9仑片视频 | 51国偷自产一区二区三区 | 国产成人无码午夜视频在线观看 | 一本加勒比波多野结衣 | 99riav国产精品视频 | 亚洲综合伊人久久大杳蕉 | 人人爽人人澡人人人妻 | 国产无遮挡吃胸膜奶免费看 | 亚洲成av人片天堂网无码】 | 人人爽人人澡人人高潮 | 国产精品福利视频导航 | 少妇高潮一区二区三区99 | 亚洲中文字幕va福利 | 精品一二三区久久aaa片 | 天下第一社区视频www日本 | 捆绑白丝粉色jk震动捧喷白浆 | 国产成人人人97超碰超爽8 | 亚洲乱码日产精品bd | 国产av一区二区精品久久凹凸 | 亚洲理论电影在线观看 | 国产精品沙发午睡系列 | 蜜桃无码一区二区三区 | 九九久久精品国产免费看小说 | 中文字幕乱妇无码av在线 | 中文字幕人妻无码一区二区三区 | 一本一道久久综合久久 | 男女作爱免费网站 | 日日麻批免费40分钟无码 | 乱中年女人伦av三区 | 中文字幕无码免费久久9一区9 | 人妻尝试又大又粗久久 | 成人欧美一区二区三区黑人 | 亚洲精品成人福利网站 | 人妻体内射精一区二区三四 | 丰满少妇弄高潮了www | 人妻插b视频一区二区三区 | 丰满人妻精品国产99aⅴ | 久久久av男人的天堂 | 精品久久8x国产免费观看 | 欧美亚洲日韩国产人成在线播放 | 少妇被粗大的猛进出69影院 | 日本免费一区二区三区最新 | 国产又粗又硬又大爽黄老大爷视 | 亚洲成av人片在线观看无码不卡 | 久久久成人毛片无码 | 久久综合狠狠综合久久综合88 | 男人扒开女人内裤强吻桶进去 | 亚洲 激情 小说 另类 欧美 | 欧美日本精品一区二区三区 | 中文字幕无码热在线视频 | 日本免费一区二区三区最新 | 亚洲精品一区二区三区大桥未久 | 日日麻批免费40分钟无码 | 成在人线av无码免观看麻豆 | 久久无码人妻影院 | 国产成人一区二区三区别 | 丰满人妻一区二区三区免费视频 | 永久免费观看美女裸体的网站 | 精品人妻人人做人人爽夜夜爽 | 国产激情综合五月久久 | 欧美性生交xxxxx久久久 | 九九综合va免费看 | 宝宝好涨水快流出来免费视频 | 性色欲情网站iwww九文堂 | 国产亚洲视频中文字幕97精品 | 黑人巨大精品欧美一区二区 | 性生交大片免费看女人按摩摩 | 麻豆精品国产精华精华液好用吗 | 久久久久久久女国产乱让韩 | 久久亚洲a片com人成 | 亚洲一区二区三区偷拍女厕 | 久久久成人毛片无码 | 国产女主播喷水视频在线观看 | 国产精品国产三级国产专播 | 最新国产麻豆aⅴ精品无码 | 无码免费一区二区三区 | 丁香花在线影院观看在线播放 | 亚洲中文字幕无码中字 | 欧美性生交活xxxxxdddd | 久久久久成人片免费观看蜜芽 | 超碰97人人射妻 | 伦伦影院午夜理论片 | 亚洲爆乳大丰满无码专区 | 国产精品久久久一区二区三区 | 精品无人区无码乱码毛片国产 | 在线亚洲高清揄拍自拍一品区 | 欧美三级不卡在线观看 | 一本精品99久久精品77 | 亚洲精品欧美二区三区中文字幕 | 国产亚洲视频中文字幕97精品 | 日韩人妻无码中文字幕视频 | 鲁大师影院在线观看 | 亚洲国产精品美女久久久久 | 久久精品无码一区二区三区 |