久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Deep Learning-论文翻译以及笔记

發(fā)布時間:2025/3/15 编程问答 18 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Deep Learning-论文翻译以及笔记 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

論文題目:Deep Learning
論文來源:Deep Learning_2015_Nature
翻譯人:莫陌莫墨

Deep Learning

Yann LeCun? Yoshua Bengio? Geoffrey Hinton

深度學(xué)習(xí)

Yann LeCun? Yoshua Bengio? Geoffrey Hinton

Abstract

Deep learning allows computational models that are composed of multiple processing layers to learn representations of data with multiple levels of abstraction. These methods have dramatically improved the state-of-the-art in speech rec-ognition, visual object recognition, object detection and many other domains such as drug discovery and genomics. Deep learning discovers intricate structure in large data sets by using the backpropagation algorithm to indicate how a machine should change its internal parameters that are used to compute the representation in each layer from the representation in the previous layer. Deep convolutional nets have brought about breakthroughs in processing images, video, speech and audio, whereas recurrent nets have shone light on sequential data such as text and speech.

摘要

深度學(xué)習(xí)允許由多個處理層組成的計(jì)算模型學(xué)習(xí)具有多個抽象級別的數(shù)據(jù)表示。這些方法極大地提升了語音識別、視覺目標(biāo)識別、目標(biāo)檢測以及許多其他領(lǐng)域的最新技術(shù),例如藥物發(fā)現(xiàn)和基因組學(xué)。深度學(xué)習(xí)通過使用反向傳播算法來指示機(jī)器應(yīng)如何更新其內(nèi)部參數(shù)(從上一層的表示形式計(jì)算每一層的表示形式),從而發(fā)現(xiàn)大型數(shù)據(jù)集中的復(fù)雜結(jié)構(gòu)。深層卷積網(wǎng)絡(luò)在處理圖像、視頻、語音和音頻方面帶來了突破,而遞歸網(wǎng)絡(luò)則對諸如文本和語音之類的順序數(shù)據(jù)有所啟發(fā)。

正文

Machine-learning technology powers many aspects of modern society: from web searches to content filtering on social networks to recommendations on e-commerce websites, and it is increasingly present in consumer products such as cameras and smartphones. Machine-learning systems are used to identify objects in images, transcribe speech into text, match news items, posts or products with users’ interests, and select relevant results of search. Increasingly, these applications make use of a class of techniques called deep learning.

Conventional machine-learning techniques were limited in their ability to process natural data in their raw form. For decades, constructing a pattern-recognition or machine-learning system required careful engineering and considerable domain expertise to design a feature extractor that transformed the raw data (such as the pixel values of an image) into a suitable internal representation or feature vector from which the learning subsystem, often a classifier, could detect or classify patterns in the input.

Representation learning is a set of methods that allows a machine to be fed with raw data and to automatically discover the representations needed for detection or classification. Deep-learning methods are representation-learning methods with multiple levels of representation, obtained by composing simple but non-linear modules that each transform the representation at one level (starting with the raw input) into a representation at a higher, slightly more abstract level. With the composition of enough such transformations, very complex functions can be learned. For classification tasks, higher layers of representation amplify aspects of the input that are important for discrimination and suppress irrelevant variations. An image, for example, comes in the form of an array of pixel values, and the learned features in the first layer of representation typically represent the presence or absence of edges at particular orientations and locations in the image. The second layer typically detects motifs by spotting particular arrangements of edges, regardless of small variations in the edge positions. The third layer may assemble motifs into larger combinations that correspond to parts of familiar objects, and subsequent layers would detect objects as combinations of these parts. The key aspect of deep learning is that these layers of features are not designed by human engineers: they are learned from data using a general-purpose learning procedure.

Deep learning is making major advances in solving problems that have resisted the best attempts of the artificial intelligence community for many years. It has turned out to be very good at discovering intricate structures in high-dimensional data and is therefore applicable to many domains of science, business and government. In addition to beating records in image recognition and speech recognition, it has beaten other machine-learning techniques at predicting the activity of potential drug molecules, analysing particle accelerator data, reconstructing brain circuits, and predicting the effects of mutations in non-coding DNA on gene expression and disease. Perhaps more surprisingly, deep learning has produced extremely promising results for various tasks in natural language understanding, particularly topic classification, sentiment analysis, question answering and lan-guage translation.

We think that deep learning will have many more successes in the near future because it requires very little engineering by hand, so it can easily take advantage of increases in the amount of available computation and data. New learning algorithms and architectures that are currently being developed for deep neural networks will only accelerate this progress.

機(jī)器學(xué)習(xí)技術(shù)為現(xiàn)代社會的各個方面提供了強(qiáng)大的支持:從網(wǎng)絡(luò)搜索到社交網(wǎng)絡(luò)上的內(nèi)容過濾再到電子商務(wù)網(wǎng)站上的推薦,并且它越來越多地出現(xiàn)在諸如相機(jī)和智能手機(jī)之類的消費(fèi)產(chǎn)品中。機(jī)器學(xué)習(xí)系統(tǒng)用于識別圖像中的目標(biāo),語音轉(zhuǎn)錄為文本,新聞標(biāo)題、帖子或具有用戶興趣的產(chǎn)品匹配,以及選擇相關(guān)的搜索結(jié)果。這些應(yīng)用程序越來越多地使用一類稱為深度學(xué)習(xí)的技術(shù)。

傳統(tǒng)的機(jī)器學(xué)習(xí)技術(shù)在處理原始格式的自然數(shù)據(jù)方面的能力受到限制。幾十年來,構(gòu)建模式識別或機(jī)器學(xué)習(xí)系統(tǒng)需要認(rèn)真的工程設(shè)計(jì)和相當(dāng)多的領(lǐng)域?qū)I(yè)知識,才能設(shè)計(jì)特征提取器,以將原始數(shù)據(jù)(例如圖像的像素值)轉(zhuǎn)換為合適的內(nèi)部表示或特征向量,學(xué)習(xí)子系統(tǒng)(通常是分類器)可以對輸入的圖片進(jìn)行檢測或分類。

表示學(xué)習(xí)是一組方法,這些方法允許向機(jī)器提供原始數(shù)據(jù)并自動發(fā)現(xiàn)檢測或分類所需的表示。深度學(xué)習(xí)方法是具有表示形式的多層次的表示學(xué)習(xí)方法,它是通過組合簡單但非線性的模塊而獲得的,每個模塊都將一個級別(從原始輸入開始)的表示形式轉(zhuǎn)換為更高、更抽象的級別的表示形式。有了足夠多的此類轉(zhuǎn)換,就可以學(xué)習(xí)非常復(fù)雜的功能。對于分類任務(wù),較高的表示層會放大輸入中對區(qū)分非常重要的方面,并抑制不相關(guān)的變化。例如,圖像以像素值序列的形式出現(xiàn),并且在表示的第一層中學(xué)習(xí)的特征通常表示圖像中特定方向和位置上是否存在邊緣。第二層通常通過發(fā)現(xiàn)邊緣的特定布置來檢測圖案,而與邊緣位置的微小變化無關(guān)。第三層可以將圖案組裝成與熟悉的對象的各個部分相對應(yīng)的較大組合,并且隨后的層將這些部分的組合作為目標(biāo)進(jìn)行檢測。深度學(xué)習(xí)的關(guān)鍵在于每層的功能不是由人類工程師設(shè)計(jì)的,而是通用訓(xùn)練過程從數(shù)據(jù)中學(xué)習(xí)的。

深度學(xué)習(xí)在解決多年來抵制人工智能界最大嘗試的問題方面取得了重大進(jìn)展。事實(shí)證明,它非常善于發(fā)現(xiàn)高維數(shù)據(jù)中的復(fù)雜結(jié)構(gòu),因此適用于科學(xué)、商業(yè)和政府的許多領(lǐng)域。除了打破圖像識別和語音識別中的記錄,它在預(yù)測潛在藥物分子的活性、分析粒子加速器數(shù)據(jù),重建腦回路和預(yù)測非編碼DNA突變對基因表達(dá)和疾病的影響方面還優(yōu)于其他機(jī)器學(xué)習(xí)技術(shù)。更令人驚訝的是,深度學(xué)習(xí)在自然語言理解中的各種任務(wù)上產(chǎn)生了非常有希望的結(jié)果,尤其是主題分類、情感分析、問答系統(tǒng)和語言翻譯。

由于深度學(xué)習(xí)只需要極少的人工操作,我們認(rèn)為其在不久的將來會取得更多的成功,因此可以輕松地利用增加的可用計(jì)算量和數(shù)據(jù)量的優(yōu)勢。目前正在為深度神經(jīng)網(wǎng)絡(luò)開發(fā)的新學(xué)習(xí)算法和體系結(jié)構(gòu)只會加速這一進(jìn)展。
總述:先敘述了機(jī)器學(xué)習(xí)的廣泛應(yīng)用,傳統(tǒng)的機(jī)器學(xué)習(xí)局限與輸入需要對原始數(shù)據(jù)加工,而加工是一個手藝活,需要很多的經(jīng)驗(yàn)和算法知識,然后引入Representation learning 。

Supervised learning

The most common form of machine learning, deep or not, is supervised learning. Imagine that we want to build a system that can classify images as containing, say, a house, a car, a person or a pet. We first collect a large data set of images of houses, cars, people and pets, each labelled with its category. During training, the machine is shown an image and produces an output in the form of a vector of scores, one for each category. We want the desired category to have the highest score of all categories, but this is unlikely to happen before training. We compute an objective function that measures the error (or distance) between the output scores and the desired pattern of scores. The machine then modifies its internal adjustable parameters to reduce this error. These adjustable parameters, often called weights, are real numbers that can be seen as ‘knobs’ that define the input–output function of the machine. In a typical deep-learning system, there may be hundreds of millions of these adjustable weights, and hundreds of millions of labelled examples with which to train the machine.

To properly adjust the weight vector, the learning algorithm computes a gradient vector that, for each weight, indicates by what amount the error would increase or decrease if the weight were increased by a tiny amount. The weight vector is then adjusted in the opposite direction to the gradient vector.

The objective function, averaged over all the training examples, can be seen as a kind of hilly landscape in the high-dimensional space of weight values. The negative gradient vector indicates the direction of steepest descent in this landscape, taking it closer to a minimum, where the output error is low on average.

In practice, most practitioners use a procedure called stochastic gradient descent (SGD). This consists of showing the input vector for a few examples, computing the outputs and the errors, computing the average gradient for those examples, and adjusting the weights accordingly. The process is repeated for many small sets of examples from the training set until the average of the objective function stops decreasing. It is called stochastic because each small set of examples gives a noisy estimate of the average gradient over all examples. This simple procedure usually finds a good set of weights surprisingly quickly when compared with far more elaborate optimization techniques. After training, the performance of the system is measured on a different set of examples called a test set. This serves to test the generalization ability of the machine — its ability to produce sensible answers on new inputs that it has never seen during training.

Many of the current practical applications of machine learning use linear classifiers on top of hand-engineered features. A two-class linear classifier computes a weighted sum of the feature vector components. If the weighted sum is above a threshold, the input is classified as belonging to a particular category.

Since the 1960s we have known that linear classifiers can only carve their input space into very simple regions, namely half-spaces separated by a hyperplane. But problems such as image and speech recognition require the input–output function to be insensitive to irrelevant variations of the input, such as variations in position, orientation or illumination of an object, or variations in the pitch or accent of speech, while being very sensitive to particular minute variations (for example, the difference between a white wolf and a breed of wolf-like white dog called a Samoyed). At the pixel level, images of two Samoyeds in different poses and in different environments may be very different from each other, whereas two images of a Samoyed and a wolf in the same position and on similar backgrounds may be very similar to each other. A linear classifier, or any other ‘shallow’ classifier operating on aw pixels could not possibly distinguish the latter two, while putting the former two in the same category. This is why shallow classifiers require a good feature extractor that solves the selectivity–invariance dilemma — one that produces representations that are selective to the aspects of the image that are important for discrimination, but that are invariant to irrelevant aspects such as the pose of the animal. To make classifiers more powerful, one can use generic non-linear features, as with kernel methods, but generic features such as those arising with the Gaussian kernel do not allow the learner to generalize well far from the training examples. The conventional option is to hand design good feature extractors, which requires a considerable amount of engineering skill and domain expertise. But this can all be avoided if good features can be learned automatically using a general-purpose learning procedure. This is the key advantage of deep learning.

A deep-learning architecture is a multilayer stack of simple modules, all (or most) of which are subject to learning, and many of which compute non-linear input–output mappings. Each module in the stack transforms its input to increase both the selectivity and the invariance of the representation. With multiple non-linear layers, say a depth of 5 to 20, a system can implement extremely intricate functions of its inputs that are simultaneously sensitive to minute details-distinguishing Samoyeds from white wolves-and insensitive to large irrelevant variations such as the background, pose, lighting and surrounding objects.

監(jiān)督學(xué)習(xí)

不論深度與否,機(jī)器學(xué)習(xí)最常見的形式都是監(jiān)督學(xué)習(xí)。想象一下,我們想建立一個可以將圖像分類為包含房屋、汽車、人或?qū)櫸锏南到y(tǒng)。我們首先收集大量的房屋、汽車、人和寵物的圖像數(shù)據(jù)集,每個圖像均標(biāo)有類別。在訓(xùn)練過程中,機(jī)器將顯示一張圖像,并輸出一個分?jǐn)?shù)向量,每個類別一個。我們希望所需的類別在所有類別中得分最高,但這不太可能在訓(xùn)練之前發(fā)生。我們計(jì)算一個目標(biāo)函數(shù),該函數(shù)測量輸出得分與期望得分模式之間的誤差(或距離)。然后機(jī)器修改其內(nèi)部可更新參數(shù)以減少此誤差。這些可更新的參數(shù)(通常稱為權(quán)重)是實(shí)數(shù),可以看作是定義機(jī)器輸入輸出功能的“旋鈕”。在典型的深度學(xué)習(xí)系統(tǒng)中,可能會有數(shù)以億計(jì)的可更新權(quán)重,以及數(shù)億個帶有標(biāo)簽的實(shí)例,用于訓(xùn)練模型。

為了適當(dāng)?shù)馗聶?quán)重向量,學(xué)習(xí)算法計(jì)算一個梯度向量,針對每個權(quán)重,該梯度向量表明,如果權(quán)重增加很小的量,誤差將增加或減少的相應(yīng)的量。然后沿與梯度向量相反的方向更新權(quán)重向量。

在所有訓(xùn)練示例中平均的目標(biāo)函數(shù)可以在權(quán)重值的高維空間中被視為一種丘陵地形。負(fù)梯度矢量指示此地形中最陡下降的方向,使其更接近最小值,其中輸出誤差平均較低。

在實(shí)踐中,大多數(shù)從業(yè)者使用一種稱為隨機(jī)梯度下降(SGD)的算法。這包括顯示幾個示例的輸入向量,計(jì)算輸出和誤差,計(jì)算這些示例的平均梯度以及相應(yīng)地更新權(quán)重。對訓(xùn)練集中的許多小樣本示例重復(fù)此過程,直到目標(biāo)函數(shù)的平均值停止下降。之所以稱其為隨機(jī)的,是因?yàn)槊總€小的示例集都會給出所有示例中平均梯度的噪聲估計(jì)。與更復(fù)雜的優(yōu)化技術(shù)相比[18],這種簡單的過程通常會出乎意料地快速找到一組良好的權(quán)重。訓(xùn)練后,系統(tǒng)的性能將在稱為測試集的不同示例集上進(jìn)行測量。這用于測試機(jī)器的泛化能力:機(jī)器在新的輸入數(shù)據(jù)上產(chǎn)生好的效果的能力,這些輸入數(shù)據(jù)在訓(xùn)練集上是沒有的。

機(jī)器學(xué)習(xí)的許多當(dāng)前實(shí)際應(yīng)用都在人工設(shè)計(jì)的基礎(chǔ)上使用線性分類器。兩類別線性分類器計(jì)算特征向量分量的加權(quán)和。如果加權(quán)和大于閾值,則將輸入分為特定類別。

自二十世紀(jì)六十年代以來,我們就知道線性分類器只能將其輸入空間劃分為非常簡單的區(qū)域,即由超平面分隔的對半空間。但是,諸如圖像和語音識別之類的問題要求輸入輸出功能對輸入的不相關(guān)變化不敏感,例如目標(biāo)的位置、方向或照明的變化,或語音的音高或口音的變化。對特定的微小變化敏感(例如,白狼與薩摩耶之間的差異,薩摩耶是很像狼的白狗)。在像素級別,兩幅處于不同姿勢和不同環(huán)境中的薩摩耶圖像可能差別很大,而兩幅位于相同位置且背景相似的薩摩耶和狼的圖像可能非常相似。線性分類器或其他任何在其上運(yùn)行的“淺”分類器無法區(qū)分后兩幅圖片,而將前兩幅圖像歸為同一類別。這就是為什么淺分類器需要一個好的特征提取器來解決選擇性不變性難題的原因。提取器可以產(chǎn)生對圖像中對于辨別重要的方面具有選擇性但對不相關(guān)方面(例如動物的姿態(tài))不變的表示形式。為了使分類器更強(qiáng)大,可以使用通用的非線性特征,如核方法,但是諸如高斯核所產(chǎn)生的那些通用特征,使學(xué)習(xí)者無法從訓(xùn)練示例中很好地概括。傳統(tǒng)的選擇是人工設(shè)計(jì)好的特征提取器,這需要大量的工程技術(shù)和領(lǐng)域?qū)I(yè)知識。但是,如果可以使用通用學(xué)習(xí)過程自動學(xué)習(xí)好的功能,則可以避免所有這些情況。這是深度學(xué)習(xí)的關(guān)鍵優(yōu)勢。

深度學(xué)習(xí)架構(gòu)是簡單模塊的多層堆疊,所有模塊(或大多數(shù)模塊)都需要學(xué)習(xí),并且其中許多模塊都會計(jì)算非線性的輸入-輸出映射。堆疊中的每個模塊都會轉(zhuǎn)換其輸入,以增加表示的選擇性和不變性。系統(tǒng)具有多個非線性層(例如深度為5到20),可以實(shí)現(xiàn)極為復(fù)雜的輸入功能,這些功能同時對細(xì)小的細(xì)節(jié)敏感(區(qū)分薩摩耶犬與白狼),并且對不相關(guān)的大變化不敏感,例如背景功能、姿勢、燈光和周圍物體。
2,敘述監(jiān)督學(xué)習(xí)(supervised learning):就是給各種狗的圖片(train dataset),提示網(wǎng)絡(luò)架構(gòu)這是狗(label),多次重復(fù)后再給一張狗的圖片,訓(xùn)練好的網(wǎng)絡(luò)能自動反應(yīng),給出結(jié)果,這是貓。那么到底是怎么train的呢?我們需要定義一個objective function,它的作用是計(jì)算預(yù)測值和label之間的distance,網(wǎng)絡(luò)learning的任務(wù)就是縮小這個objective function的值,也就是讓預(yù)測值不斷接近真值,這個objective function是關(guān)于weight的函數(shù),下面就粗略的提到一種優(yōu)化的方法,叫隨機(jī)梯度下降(SGD),就是每次在所有的樣本中隨機(jī)選一個樣本,計(jì)算objective function關(guān)于weight的偏導(dǎo)(梯度),讓weight往梯度的負(fù)方向(梯度的負(fù)方向就是objective function即誤差減小的方向)變化,然后多次重復(fù),最后發(fā)現(xiàn)objective function的值不變了或者變得很小了,就停止迭代,此時的參數(shù)weight,就是我們的網(wǎng)絡(luò)學(xué)習(xí)到的。最后就可以訓(xùn)練處有自己理解的一個架構(gòu),從而可以判斷新的物體是不是之前自己學(xué)習(xí)過的物體,給出結(jié)果

Backpropagation to train multilayer architectures

From the earliest days of pattern recognition, the aim of researchers has been to replace hand-engineered features with trainable multilayer networks, but despite its simplicity, the solution was not widely understood until the mid 1980s. As it turns out, multilayer architectures can be trained by simple stochastic gradient descent. As long as the modules are relatively smooth functions of their inputs and of their internal weights, one can compute gradients using the backpropagation procedure. The idea that this could be done, and that it worked, was discovered independently by several different groups during the 1970s and 1980s.

The backpropagation procedure to compute the gradient of an objective function with respect to the weights of a multilayer stack of modules is nothing more than a practical application of the chain rule for derivatives. The key insight is that the derivative (or gradient) of the objective with respect to the input of a module can be computed by working backwards from the gradient with respect to the output of that module (or the input of the subsequent module) (Fig. 1). The backpropagation equation can be applied repeatedly to propagate gradients through all modules, starting from the output at the top (where the network produces its prediction) all the way to the bottom (where the external input is fed). Once these gradients have been computed, it is straightforward to compute the gradients with respect to the weights of each module.
Many applications of deep learning use feedforward neural network architectures (Fig. 1), which learn to map a fixed-size input (for example, an image) to a fixed-size output (for example, a prob-ability for each of several categories). To go from one layer to the next, a set of units compute a weighted sum of their inputs from the previous layer and pass the result through a non-linear function. At present, the most popular non-linear function is the rectified linear unit (ReLU), which is simply the half-wave rectifier f(z)=max?(0,z)f(z)=max?(0,z)f(z)=max?(0,z). In past decades, neural nets used smoother non-linearities, such as tanh(z)tanh(z)tanh(z) or 1/(1+exp?(?z))1/(1+exp?(-z))1/(1+exp?(?z)), but the ReLU typically learns much faster in networks with many layers, allowing training of a deep supervised network without unsupervised pre-training. Units that are not in the input or output layer are conventionally called hidden units. The hidden layers can be seen as distorting the input in a non-linear way so that categories become linearly separable by the last layer (Fig. 1).

In the late 1990s, neural nets and backpropagation were largely forsaken by the machine-learning community and ignored by the computer-vision and speech-recognition communities. It was widely thought that learning useful, multistage, feature extractors with lit-tle prior knowledge was infeasible. In particular, it was commonly thought that simple gradient descent would get trapped in poor local minima-weight configurations for which no small change would reduce the average error.

In practice, poor local minima are rarely a problem with large networks. Regardless of the initial conditions, the system nearly always reaches solutions of very similar quality. Recent theoretical and empirical results strongly suggest that local minima are not a serious issue in general. Instead, the landscape is packed with a combinatorially large number of saddle points where the gradient is zero, and the surface curves up in most dimensions and curves down in the remainder. The analysis seems to show that saddle points with only a few downward curving directions are present in very large numbers, but almost all of them have very similar values of the objec-tive function. Hence, it does not much matter which of these saddle points the algorithm gets stuck at.

Interest in deep feedforward networks was revived around 2006 by a group of researchers brought together by the Canadian Institute for Advanced Research (CIFAR). The researchers intro-duced unsupervised learning procedures that could create layers of feature detectors without requiring labelled data. The objective in learning each layer of feature detectors was to be able to reconstruct or model the activities of feature detectors (or raw inputs) in the layer below. By ‘pre-training’ several layers of progressively more complex feature detectors using this reconstruction objective, the weights of a deep network could be initialized to sensible values. A final layer of output units could then be added to the top of the network and the whole deep system could be fine-tuned using standard backpropagation. This worked remarkably well for recognizing handwritten digits or for detecting pedestrians, especially when the amount of labelled data was very limited36.

The first major application of this pre-training approach was in speech recognition, and it was made possible by the advent of fast graphics processing units (GPUs) that were convenient to program and allowed researchers to train networks 10 or 20 times faster. In 2009, the approach was used to map short temporal windows of coef-ficients extracted from a sound wave to a set of probabilities for the various fragments of speech that might be represented by the frame in the centre of the window. It achieved record-breaking results on a standard speech recognition benchmark that used a small vocabu-lary and was quickly developed to give record-breaking results on a large vocabulary task. By 2012, versions of the deep net from 2009 were being developed by many of the major speech groups and were already being deployed in Android phones. For smaller data sets, unsupervised pre-training helps to prevent overfitting, leading to significantly better generalization when the number of labelled examples is small, or in a transfer setting where we have lots of examples for some ‘source’ tasks but very few for some ‘target’ tasks. Once deep learning had been rehabilitated, it turned out that the pre-training stage was only needed for small data sets.

There was, however, one particular type of deep, feedforward network that was much easier to train and generalized much better than networks with full connectivity between adjacent layers. This was the convolutional neural network (ConvNet). It achieved many practical successes during the period when neural networks were out of favour and it has recently been widely adopted by the computervision community

反向傳播訓(xùn)練多層架構(gòu)

從模式識別的早期開始,研究人員的目的一直是用可訓(xùn)練的多層網(wǎng)絡(luò)代替手工設(shè)計(jì)的功能,但是盡管它很簡單,但直到二十世紀(jì)八十年代中期才廣泛了解該解決方案。事實(shí)證明,可以通過簡單的隨機(jī)梯度下降來訓(xùn)練多層體系結(jié)構(gòu)。只要模塊是其輸入及其內(nèi)部權(quán)重的相對平滑函數(shù),就可以使用反向傳播過程來計(jì)算梯度。 二十世紀(jì)七十年代和二十世紀(jì)八十年代,幾個不同的小組獨(dú)立地發(fā)現(xiàn)了可以做到這一點(diǎn)并且起作用的想法。

反向傳播程序用于計(jì)算目標(biāo)函數(shù)相對于模塊多層堆疊權(quán)重的梯度,無非是導(dǎo)數(shù)鏈規(guī)則的實(shí)際應(yīng)用。關(guān)鍵的見解是,相對于模塊輸入的目標(biāo)的導(dǎo)數(shù)(或梯度)可以通過相對于該模塊的輸出(或后續(xù)模塊的輸入)的梯度進(jìn)行反運(yùn)算來計(jì)算(圖1)。反向傳播方程式可以反復(fù)應(yīng)用,以通過所有模塊傳播梯度,從頂部的輸出(網(wǎng)絡(luò)產(chǎn)生其預(yù)測)一直到底部的輸出(外部輸入被饋送)。一旦計(jì)算出這些梯度,就可以相對于每個模塊的權(quán)重來計(jì)算梯度。

深度學(xué)習(xí)的許多應(yīng)用都使用前饋神經(jīng)網(wǎng)絡(luò)體系結(jié)構(gòu)(圖1),該體系結(jié)構(gòu)會將固定大小的輸入(例如圖像)映射到固定大小的輸出(例如幾個類別中的每一個的概率)。為了從一層到下一層,一組單元計(jì)算它們來自上一層的輸入的加權(quán)和,并將結(jié)果傳遞給非線性函數(shù)。目前,最流行的非線性函數(shù)是整流線性單元(ReLU),即半波整流器f(z)=max?(0,z)f(z)=max?(0,z)f(z)=max?(0,z)。在過去的幾十年中,神經(jīng)網(wǎng)絡(luò)使用了更平滑的非線性,例如tanh(z)??tanh(z)??tanh(z)??1/(1+exp?(?z))1/(1+exp?(-z))1/(1+exp?(?z)),但ReLU通常在具有多個層的網(wǎng)絡(luò)中學(xué)習(xí)得更快,從而可以在無需監(jiān)督的情況下進(jìn)行深度監(jiān)督的網(wǎng)絡(luò)訓(xùn)練。不在輸入或輸出層中的單元通常稱為隱藏單元。隱藏的層可以被視為以非線性方式使輸入失真,以便類別可以由最后一層實(shí)現(xiàn)線性分別(圖1)。

在二十世紀(jì)九十年代后期,神經(jīng)網(wǎng)絡(luò)和反向傳播在很大程度上被機(jī)器學(xué)習(xí)領(lǐng)域拋棄,而被計(jì)算機(jī)視覺和語音識別領(lǐng)域所忽略。人們普遍認(rèn)為,在沒有先驗(yàn)知識的情況下學(xué)習(xí)有用的多階段特征提取器是不可行的。特別是,通常認(rèn)為簡單的梯度下降會陷入不良的局部極小值——權(quán)重配置,對其進(jìn)行很小的變化將減少平均誤差。

實(shí)際上,較差的局部最小值在大型網(wǎng)絡(luò)中很少出現(xiàn)問題。不管初始條件如何,該系統(tǒng)幾乎總是能獲得效果非常相似的解決方案。最近的理論和經(jīng)驗(yàn)結(jié)果強(qiáng)烈表明,局部極小值通常不是一個嚴(yán)重的問題。取而代之的是,景觀中堆積了許多鞍點(diǎn),其中梯度為零,并且曲面在大多數(shù)維度上都向上彎曲,而在其余維度上則向下彎曲。分析似乎表明,只有少數(shù)幾個向下彎曲方向的鞍點(diǎn)存在很多,但幾乎所有鞍點(diǎn)的目標(biāo)函數(shù)值都非常相似。因此,算法陷入這些鞍點(diǎn)中的哪一個都沒關(guān)系。

加拿大高級研究所(CIFAR)召集的一組研究人員在2006年左右恢復(fù)了對深層前饋網(wǎng)絡(luò)的興趣。研究人員介紹了無需監(jiān)督的學(xué)習(xí)程序,這些程序可以創(chuàng)建特征檢測器層,而無需標(biāo)記數(shù)據(jù)。學(xué)習(xí)特征檢測器每一層的目的是能夠在下一層中重建或建模特征檢測器(或原始輸入)的活動。通過使用此重建目標(biāo)“預(yù)訓(xùn)練”幾層逐漸復(fù)雜的特征檢測器,可以將深度網(wǎng)絡(luò)的權(quán)重初始化為合理的值。然后可以將輸出單元的最后一層添加到網(wǎng)絡(luò)的頂部,并且可以使用標(biāo)準(zhǔn)反向傳播對整個深度系統(tǒng)進(jìn)行微調(diào)。這對于識別手寫數(shù)字或檢測行人非常有效,特別是在標(biāo)記數(shù)據(jù)量非常有限的情況下。

這種預(yù)訓(xùn)練方法的第一個主要應(yīng)用是語音識別,而快速圖形處理單元(GPU)的出現(xiàn)使編程成為可能,并且使研究人員訓(xùn)練網(wǎng)絡(luò)的速度提高了10或20倍,從而使之成為可能。在2009年,該方法用于將從聲波提取的系數(shù)的短暫時間窗口映射到可能由窗口中心的幀表示的各種語音片段的一組概率。它在使用少量詞匯的標(biāo)準(zhǔn)語音識別基準(zhǔn)上取得了創(chuàng)紀(jì)錄的結(jié)果,并迅速發(fā)展為大型詞匯任上取得了創(chuàng)紀(jì)錄的結(jié)果。到2012年,許多主要的語音組織都在開發(fā)2009年以來的深度網(wǎng)絡(luò)版本,并且已經(jīng)在Android手機(jī)中進(jìn)行了部署。對于較小的數(shù)據(jù)集,無監(jiān)督的預(yù)訓(xùn)練有助于防止過擬合,從而在標(biāo)記的示例數(shù)量較少時或在轉(zhuǎn)移設(shè)置中,對于一些“源”任務(wù),我們有很多示例,而對于某些“源”任務(wù)卻很少,這會導(dǎo)致泛化效果更好“目標(biāo)”任務(wù)。恢復(fù)深度學(xué)習(xí)后,事實(shí)證明,僅對于小型數(shù)據(jù)集才需要進(jìn)行預(yù)訓(xùn)練。

但是,存在一種特定類型的深層前饋網(wǎng)絡(luò),它比相鄰層之間具有完全連接的網(wǎng)絡(luò)更容易訓(xùn)練和推廣。這就是卷積神經(jīng)網(wǎng)絡(luò)(ConvNet)。在神經(jīng)網(wǎng)絡(luò)未受關(guān)注期間,它取得了許多實(shí)際的成功,并且最近被計(jì)算機(jī)視覺界廣泛采用。
3,敘述BP算法(Backpropagation to train multilayer architectures ):核心思想就是 chain rule for derivatives(鏈?zhǔn)角髮?dǎo)),然后說神經(jīng)網(wǎng)絡(luò)和反向傳播算法在機(jī)器學(xué)習(xí)里被遺忘,后來在2006年有個團(tuán)隊(duì)提出了 unsupervised learning procedures,又revive了, unsupervised learning procedure顧名思義就是無監(jiān)督嘛,能夠用沒有標(biāo)簽的數(shù)據(jù)就創(chuàng)造網(wǎng)絡(luò),它的厲害之處就是做一個pre-training ,作用是能夠把我們的參數(shù)weight初始化到一個合適的值,并且呢對一些小的數(shù)據(jù)集,unsupervised pre-training能夠避免過擬合

Convolutional neural networks

ConvNets are designed to process data that come in the form of multiple arrays, for example a colour image composed of three 2D arrays containing pixel intensities in the three colour channels. Many data modalities are in the form of multiple arrays: 1D for signals and sequences, including language; 2D for images or audio spectrograms; and 3D for video or volumetric images. There are four key ideas behind ConvNets that take advantage of the properties of natural signals: local connections, shared weights, pooling and the use of many layers.

The architecture of a typical ConvNet (Fig. 2) is structured as a series of stages. The first few stages are composed of two types of layers: convolutional layers and pooling layers. Units in a convolutional layer are organized in feature maps, within which each unit is connected to local patches in the feature maps of the previous layer through a set of weights called a filter bank. The result of this local weighted sum is then passed through a non-linearity such as a ReLU. All units in a feature map share the same filter bank. Different feature maps in a layer use different filter banks. The reason for this architecture is twofold. First, in array data such as images, local groups of values are often highly correlated, forming distinctive local motifs that are easily detected. Second, the local statistics of images and other signals are invariant to location. In other words, if a motif can appear in one part of the image, it could appear anywhere, hence the idea of units at different locations sharing the same weights and detecting the same pattern in different parts of the array. Mathematically, the filtering operation performed by a feature map is a discrete convolution, hence the name.

Although the role of the convolutional layer is to detect local conjunctions of features from the previous layer, the role of the pooling layer is to merge semantically similar features into one. Because the relative positions of the features forming a motif can vary somewhat, reliably detecting the motif can be done by coarse-graining the position of each feature. A typical pooling unit computes the maximum of a local patch of units in one feature map (or in a few feature maps). Neighbouring pooling units take input from patches that are shifted by more than one row or column, thereby reducing the dimension of the representation and creating an invariance to small shifts and distortions. Two or three stages of convolution, non-linearity and pooling are stacked, followed by more convolutional and fully-connected layers. Backpropagating gradients through a ConvNet is as simple as through a regular deep network, allowing all the weights in all the filter banks to be trained.

Deep neural networks exploit the property that many natural signals are compositional hierarchies, in which higher-level features are obtained by composing lower-level ones. In images, local combinations of edges form motifs, motifs assemble into parts, and parts form objects. Similar hierarchies exist in speech and text from sounds to phones, phonemes, syllables, words and sentences. The pooling allows representations to vary very little when elements in the previous layer vary in position and appearance.

The convolutional and pooling layers in ConvNets are directly inspired by the classic notions of simple cells and complex cells in visual neuroscience, and the overall architecture is reminiscent of the LGN–V1–V2–V4–IT hierarchy in the visual cortex ventral pathway. When ConvNet models and monkeys are shown the same picture, the activations of high-level units in the ConvNet explains half of the variance of random sets of 160 neurons in the monkey’s inferotemporal cortex. ConvNets have their roots in the neocognitron, the architecture of which was somewhat similar, but did not have an end-to-end supervised-learning algorithm such as backpropagation. A primitive 1D ConvNet called a time-delay neural net was used for the recognition of phonemes and simple words.

There have been numerous applications of convolutional networks going back to the early 1990s, starting with time-delay neural networks for speech recognition and document reading. The document reading system used a ConvNet trained jointly with a probabilistic model that implemented language constraints. By the late 1990s this system was reading over 10% of all the cheques in the United States. A number of ConvNet-based optical character recognition and handwriting recognition systems were later deployed by Microsoft. ConvNets were also experimented with in the early 1990s for object detection in natural images, including faces and hands and for face recognition.

卷積神經(jīng)網(wǎng)絡(luò)

ConvNets被設(shè)計(jì)為處理以多個陣列形式出現(xiàn)的數(shù)據(jù),例如,由三個二維通道組成的彩色圖像,其中三個二維通道在三個彩色通道中包含像素強(qiáng)度。許多數(shù)據(jù)形式以多個數(shù)組的形式出現(xiàn):一維用于信號和序列,包括語言;2D用于圖像或音頻頻譜圖;和3D視頻或體積圖像。ConvNets有四個利用自然信號屬性的關(guān)鍵思想:局部連接,共享權(quán)重,池化和多層使用。

典型的ConvNet的體系結(jié)構(gòu)(圖2)由一系列階段構(gòu)成。前幾個階段由兩種類型的層組成:卷積層和池化層。卷積層中的單元組織在特征圖中,其中每個單元通過稱為濾波器組的一組權(quán)重連接到上一層特征圖中的局部塊。然后,該局部加權(quán)和的結(jié)果將通過非線性(如ReLU)傳遞。特征圖中的所有單元共享相同的過濾器組。圖層中的不同要素圖使用不同的濾鏡庫。這種體系結(jié)構(gòu)的原因有兩個。首先,在諸如圖像的陣列數(shù)據(jù)中,局部的值通常高度相關(guān),從而形成易于檢測的獨(dú)特局部圖案。其次,圖像和其他信號的局部統(tǒng)計(jì)量對于位置是不變的。換句話說,如果圖形可以出現(xiàn)在圖像的一部分中,則它可以出現(xiàn)在任何位置,因此,位于不同位置的單元在數(shù)組的不同部分共享相同的權(quán)重并檢測相同的圖案。在數(shù)學(xué)上,由特征圖執(zhí)行的過濾操作是離散卷積,因此得名。

盡管卷積層的作用是檢測上一層的特征的局部連接,但池化層的作用是將語義相似的要素合并為一個。由于形成圖案的特征的相對位置可能會略有變化,因此可以通過對每個特征的位置進(jìn)行粗粒度來可靠地檢測圖案。一個典型的池化單元計(jì)算一個特征圖中(或幾個特征圖中)的局部塊的最大值。相鄰的池化單元從移動了不止一個行或一列的色塊中獲取輸入,從而減小了表示的尺寸,并為小幅度的移位和失真創(chuàng)建了不變性。卷積、非線性和池化的兩個或三個階段被堆疊,隨后是更多卷積和全連接的層。通過ConvNet進(jìn)行反向傳播的梯度與通過常規(guī)深度網(wǎng)絡(luò)一樣簡單,從而可以訓(xùn)練所有濾波器組中的所有權(quán)重。

深度神經(jīng)網(wǎng)絡(luò)利用了許多自然信號是成分層次結(jié)構(gòu)的特性,其中通過組合較低層的特征獲得較高層的特征。在圖像中,邊緣的局部組合形成圖案,圖案組裝成零件,而零件形成對象。從聲音到電話,音素,音節(jié),單詞和句子,語音和文本中也存在類似的層次結(jié)構(gòu)。當(dāng)上一層中的元素的位置和外觀變化時,池化使表示形式的變化很小。

卷積網(wǎng)絡(luò)中的卷積和池化層直接受到視覺神經(jīng)科學(xué)中簡單細(xì)胞和復(fù)雜細(xì)胞的經(jīng)典概念的啟發(fā),整個架構(gòu)讓人聯(lián)想到視覺皮層腹側(cè)通路中的LGN-V1-V2-V4-IT層次結(jié)構(gòu)。當(dāng)ConvNet模型和猴子顯示相同的圖片時,ConvNet中高層單元的激活解釋了猴子下顳葉皮層中160個神經(jīng)元隨機(jī)集合的一半方差。 ConvNets的根源是新認(rèn)知器,其架構(gòu)有些相似,但沒有反向傳播等端到端監(jiān)督學(xué)習(xí)算法。稱為時延神經(jīng)網(wǎng)絡(luò)的原始一維ConvNet用于識別音素和簡單單詞。

卷積網(wǎng)絡(luò)的大量應(yīng)用可以追溯到二十世紀(jì)九十年代初,首先是用于語音識別和文檔閱讀的時延神經(jīng)網(wǎng)絡(luò)。該文檔閱讀系統(tǒng)使用了一個ConvNet,并與一個實(shí)現(xiàn)語言約束的概率模型一起進(jìn)行了培訓(xùn)。到二十世紀(jì)九十年代后期,該系統(tǒng)已讀取了美國所有支票的10%以上。 Microsoft隨后部署了許多基于ConvNet的光學(xué)字符識別和手寫識別系統(tǒng)。在二十世紀(jì)九十年代初,還對ConvNets進(jìn)行試驗(yàn),以檢測自然圖像中的物體,包括面部和手部,以及面部識別。
講卷積神經(jīng)網(wǎng)絡(luò)(Convolutional neural networks) :ConvNets背后的四個關(guān)鍵思想:
局部連接(local connections):每個神經(jīng)元其實(shí)沒有必要對全局圖像進(jìn)行感知,只需要對局部進(jìn)行感知,然后在更高層將局部的信息綜合起來就得到了全局的信息;
權(quán)值共享(shared weights):權(quán)值共享(也就是卷積操作)減少了權(quán)值數(shù)量,降低了網(wǎng)絡(luò)復(fù)雜度,可以看成是特征提取的方式。其中隱含的原理是:圖像中的一部分的統(tǒng)計(jì)特性與其他部分是一樣的。意味著我們在這一部分學(xué)習(xí)的特征也能用在另一部分上,所以對于這個圖像上的所有位置,我們都能使用同樣的學(xué)習(xí)特征;
池化( pooling):在通過卷積獲得了特征 (features) 之后,下一步我們希望利用這些特征去做分類。人們可以用所有提取得到的特征去訓(xùn)練分類器,例如 softmax 分類器,但這樣做面臨計(jì)算量的挑戰(zhàn),并且容易出現(xiàn)過擬合 (over-fitting),因此,為了描述大的圖像,可以對不同位置的特征進(jìn)行聚合統(tǒng)計(jì),如計(jì)算平均值或者是最大值,即mean-pooling和max-pooling; 多層(the use of many layers)。
接下來就講到,典型 ConvNet的結(jié)構(gòu): convolution layers, non-linearity and pooling ,分別是卷積層,非線性操作,池化層,然后將這個結(jié)構(gòu)多次堆疊就構(gòu)成了ConvNet的隱藏層,然后講了ConvNets中卷積層和池化層的設(shè)計(jì)靈感

Image understanding with deep convolutional networks

Since the early 2000s, ConvNets have been applied with great success to the detection, segmentation and recognition of objects and regions in images. These were all tasks in which labelled data was relatively abundant, such as traffic sign recognition, the segmentation of biological images particularly for connectomics, and the detection of faces, text, pedestrians and human bodies in natural images. A major recent practical success of ConvNets is face recognition.

Importantly, images can be labelled at the pixel level, which will have applications in technology, including autonomous mobile robots and self-driving cars. Companies such as Mobileye and NVIDIA are using such ConvNet-based methods in their upcoming vision systems for cars. Other applications gaining importance involve natural language understanding and speech recognition.

Despite these successes, ConvNets were largely forsaken by the mainstream computer-vision and machine-learning communities until the ImageNet competition in 2012. When deep convolutional networks were applied to a data set of about a million images from the web that contained 1,000 different classes, they achieved spectacular results, almost halving the error rates of the best competing approaches. This success came from the efficient use of GPUs, ReLUs, a new regularization technique called dropout, and techniques to generate more training examples by deforming the existing ones. This success has brought about a revolution in computer vision; ConvNets are now the dominant approach for almost all recognition and detection tasks and approach human performance on some tasks. A recent stunning demonstration combines ConvNets and recurrent net modules for the generation of image captions (Fig. 3).

Recent ConvNet architectures have 10 to 20 layers of ReLUs, hundreds of millions of weights, and billions of connections between units. Whereas training such large networks could have taken weeks only two years ago, progress in hardware, software and algorithm parallelization have reduced training times to a few hours.

The performance of ConvNet-based vision systems has caused most major technology companies, including Google, Facebook, Microsoft, IBM, Y ahoo!, Twitter and Adobe, as well as a quickly growing number of start-ups to initiate research and development projects and to deploy ConvNet-based image understanding products and services.

ConvNets are easily amenable to efficient hardware implementations in chips or field-programmable gate arrays. A number of companies such as NVIDIA, Mobileye, Intel, Qualcomm and Samsung are developing ConvNet chips to enable real-time vision applications in smartphones, cameras, robots and self-driving cars.

深度卷積網(wǎng)絡(luò)的圖像理解

自二十一世紀(jì)初以來,ConvNets已成功應(yīng)用于圖像中對象和區(qū)域的檢測、分割和識別。這些都是標(biāo)記數(shù)據(jù)相對豐富的任務(wù),例如交通標(biāo)志識別、生物圖像分割、尤其是用于連接組學(xué),以及在自然圖像中檢測人臉、文字、行人和人體。ConvNets最近在實(shí)踐中取得的主要成功是面部識別[59]。

重要的是,可以在像素級別標(biāo)記圖像,這將在技術(shù)中得到應(yīng)用,包括自動駕駛機(jī)器人和自動駕駛汽車。 Mobileye和NVIDIA等公司正在其即將推出的汽車視覺系統(tǒng)中使用基于ConvNet的方法。其他日益重要的應(yīng)用包括自然語言理解和語音識別。

盡管取得了這些成功,但ConvNet在很大程度上被主流計(jì)算機(jī)視覺和機(jī)器學(xué)習(xí)領(lǐng)域棄用,直到2012年ImageNet競賽為止。當(dāng)深度卷積網(wǎng)絡(luò)應(yīng)用于來自網(wǎng)絡(luò)的大約一百萬個圖像的數(shù)據(jù)集時,其中包含1000個不同的類別,取得了驚人的成績,幾乎使最佳競爭方法的錯誤率降低了一半。成功的原因是有效利用了GPU、ReLU、一種稱為dropout的新正則化技術(shù),以及通過使現(xiàn)有示例變形而生成更多訓(xùn)練示例的技術(shù)。這一成功帶來了計(jì)算機(jī)視覺的一場革命?,F(xiàn)在,ConvNets是幾乎所有識別和檢測任務(wù)的主要方法,并且在某些任務(wù)上達(dá)到了人類水平。最近的一次令人震驚的演示結(jié)合了ConvNets和遞歸網(wǎng)絡(luò)模塊以生成圖像字幕(圖3)。

最新的ConvNet架構(gòu)具有10到20層ReLU,數(shù)億個權(quán)重以及單元之間的數(shù)十億個連接。盡管培訓(xùn)如此大型的網(wǎng)絡(luò)可能僅在兩年前才花了幾周的時間,但是硬件、軟件和算法并行化方面的進(jìn)步已將培訓(xùn)時間減少到幾個小時。

基于ConvNet的視覺系統(tǒng)的性能已引起大多數(shù)主要技術(shù)公司的發(fā)展,其中包括Google、Facebook、Microsoft、IBM、Y ahoo、Twitter和Adobe,以及數(shù)量迅速增長的初創(chuàng)公司啟動了研究和開發(fā)項(xiàng)目,部署基于ConvNet的圖像理解產(chǎn)品和服務(wù)。

卷積網(wǎng)絡(luò)很容易適應(yīng)芯片或現(xiàn)場可編程門陣列中的高效硬件實(shí)現(xiàn)。 NVIDIA、Mobileye、英特爾、高通和三星等多家公司正在開發(fā)ConvNet芯片,以支持智能手機(jī)、相機(jī)、機(jī)器人和自動駕駛汽車中的實(shí)時視覺應(yīng)用。
深卷積網(wǎng)絡(luò)對圖像進(jìn)行理解(Image understanding with deep convolutional networks):感覺這段沒講什么技術(shù)上的類容,主要就是各個互聯(lián)網(wǎng)巨頭用DNN做出了厲害的成績

Distributed representations and language processing

Deep-learning theory shows that deep nets have two different exponential advantages over classic learning algorithms that do not use distributed representations. Both of these advantages arise from the power of composition and depend on the underlying data-generating distribution having an appropriate componential structure. First, learning distributed representations enable generalization to new combinations of the values of learned features beyond those seen during training (for example, 2n2n2n combinations are possible with nnn binary features). Second, composing layers of representation in a deep net brings the potential for another exponential advantage (exponential in the depth).

The hidden layers of a multilayer neural network learn to represent the network’s inputs in a way that makes it easy to predict the target outputs. This is nicely demonstrated by training a multilayer neural network to predict the next word in a sequence from a local context of earlier words. Each word in the context is presented to the network as a one-of-N vector, that is, one component has a value of 1 and the rest are 0. In the first layer, each word creates a different pattern of activations, or word vectors (Fig. 4). In a language model, the other layers of the network learn to convert the input word vectors into an output word vector for the predicted next word, which can be used to predict the probability for any word in the vocabulary to appear as the next word. The network learns word vectors that contain many active components each of which can be interpreted as a separate feature of the word, as was first demonstrated in the context of learning distributed representations for symbols. These semantic features were not explicitly present in the input. They were discovered by the learning procedure as a good way of factorizing the structured relationships between the input and output symbols into multiple ‘micro-rules’ . Learning word vectors turned out to also work very well when the word sequences come from a large corpus of real text and the individual micro-rules are unreliable. When trained to predict the next word in a news story, for example, the learned word vectors for Tuesday and Wednesday are very similar, as are the word vectors for Sweden and Norway. Such representations are called distributed representations because their elements (the features) are not mutually exclusive and their many configurations correspond to the variations seen in the observed data. These word vectors are composed of learned features that were not determined ahead of time by experts, but automatically discovered by the neural network. Vector representations of words learned from text are now very widely used in natural language applications.

The issue of representation lies at the heart of the debate between the logic-inspired and the neural-network-inspired paradigms for cognition. In the logic-inspired paradigm, an instance of a symbol is something for which the only property is that it is either identical or non-identical to other symbol instances. It has no internal structure that is relevant to its use; and to reason with symbols, they must be bound to the variables in judiciously chosen rules of inference. By contrast, neural networks just use big activity vectors, big weight matrices and scalar non-linearities to perform the type of fast ‘intuitive’ inference that underpins effortless commonsense reasoning.

Before the introduction of neural language models, the standard approach to statistical modelling of language did not exploit distributed representations: it was based on counting frequencies of occurrences of short symbol sequences of length up to NNN (called N?gramsN-gramsN?grams). The number of possible N?gramsN-gramsN?grams is on the order of VNV^NVN, where VVV is the vocabulary size, so taking into account a context of more than a handful of words would require very large training corpora. N?gramsN-gramsN?grams treat each word as an atomic unit, so they cannot generalize across semantically related sequences of words, whereas neural language models can because they associate each word with a vector of real valued features, and semantically related words end up close to each other in that vector space (Fig. 4).

分布式表示和語言處理

深度學(xué)習(xí)理論表明,與不使用分布式表示的經(jīng)典學(xué)習(xí)算法相比,深網(wǎng)具有兩個不同的指數(shù)優(yōu)勢。這兩個優(yōu)點(diǎn)都來自于組合的力量,并取決于具有適當(dāng)組件結(jié)構(gòu)的底層數(shù)據(jù)生成分布。首先,學(xué)習(xí)分布式表示可以將學(xué)習(xí)到的特征值的新組合推廣到訓(xùn)練期間看不到的那些新組合(例如使用nnn個二進(jìn)制特征可以進(jìn)行2n2n2n個組合)。其次,在一個深層網(wǎng)絡(luò)中構(gòu)成表示層會帶來另一個指數(shù)優(yōu)勢(深度指數(shù))。

多層神經(jīng)網(wǎng)絡(luò)的隱藏層學(xué)習(xí)以易于預(yù)測目標(biāo)輸出的方式來表示網(wǎng)絡(luò)的輸入。通過訓(xùn)練多層神經(jīng)網(wǎng)絡(luò)從較早單詞的局部上下文中預(yù)測序列中的下一個單詞,可以很好地證明這一點(diǎn)。上下文中的每個單詞都以NNN個向量的形式呈現(xiàn)給網(wǎng)絡(luò),也就是說,一個組成部分的值為1,其余均為0。在第一層中,每個單詞都會創(chuàng)建不同的激活模式,或者字向量(圖4)。在語言模型中,網(wǎng)絡(luò)的其他層學(xué)習(xí)將輸入的單詞矢量轉(zhuǎn)換為預(yù)測的下一個單詞的輸出單詞矢量,這可用于預(yù)測詞匯表中任何單詞出現(xiàn)為下一個單詞的概率。網(wǎng)絡(luò)學(xué)習(xí)包含許多有效成分的單詞向量,每個成分都可以解釋為單詞的一個獨(dú)立特征,如在學(xué)習(xí)符號的分布式表示形式時首先證明的那樣。這些語義特征未在輸入中明確顯示。通過學(xué)習(xí)過程可以發(fā)現(xiàn)它們,這是將輸入和輸出符號之間的結(jié)構(gòu)化關(guān)系分解為多個“微規(guī)則”的好方法。當(dāng)單詞序列來自大量的真實(shí)文本并且單個微規(guī)則不可靠時,學(xué)習(xí)單詞向量也可以很好地工作。例如,在訓(xùn)練以預(yù)測新聞故事中的下一個單詞時,周二和周三學(xué)到的單詞向量與瑞典和挪威的單詞向量非常相似。這樣的表示稱為分布式表示,因?yàn)樗鼈兊脑?#xff08;特征)不是互斥的,并且它們的許多配置對應(yīng)于在觀察到的數(shù)據(jù)中看到的變化。這些詞向量由專家事先未確定但由神經(jīng)網(wǎng)絡(luò)自動發(fā)現(xiàn)的學(xué)習(xí)特征組成。從文本中學(xué)到的單詞的矢量表示現(xiàn)在已在自然語言應(yīng)用中得到廣泛使用。

表示問題是邏輯啟發(fā)和神經(jīng)網(wǎng)絡(luò)啟發(fā)的認(rèn)知范式之間爭論的核心。在邏輯啟發(fā)范式中,符號實(shí)例是某些事物,其唯一屬性是它與其他符號實(shí)例相同或不同。它沒有與其使用相關(guān)的內(nèi)部結(jié)構(gòu);為了用符號進(jìn)行推理,必須將它們綁定到明智選擇的推理規(guī)則中的變量。相比之下,神經(jīng)網(wǎng)絡(luò)僅使用較大的活動矢量,較大的權(quán)重矩陣和標(biāo)量非線性來執(zhí)行快速的“直覺”推斷類型,從而支持毫不費(fèi)力的常識推理。

在引入神經(jīng)語言模型之前,語言統(tǒng)計(jì)建模的標(biāo)準(zhǔn)方法并未利用分布式表示形式:它是基于對長度不超過NNN(稱為N?gramsN-gramsN?grams)的短符號序列的出現(xiàn)頻率進(jìn)行計(jì)數(shù)??赡艿?span id="ze8trgl8bvbq" class="katex--inline">N?gramsN-gramsN?grams的數(shù)量在VNV^NVN的數(shù)量級上,其中VVV是詞匯量,因此考慮到少數(shù)單詞的上下文,將需要非常大的訓(xùn)練語料庫。N?gramsN-gramsN?grams將每個單詞視為一個原子單元,因此它們無法在語義上相關(guān)的單詞序列中進(jìn)行泛化,而神經(jīng)語言模型則可以將它們與實(shí)值特征向量相關(guān)聯(lián),而語義相關(guān)的單詞最終彼此靠近在該向量空間中(圖4)。
Distributed representations and language processing,深度學(xué)習(xí)理論表明,與不使用分布式表示的經(jīng)典學(xué)習(xí)算法相比,深網(wǎng)具有兩個不同的指數(shù)優(yōu)勢。這兩個優(yōu)點(diǎn)都來自于組合的力量,并取決于具有適當(dāng)組件結(jié)構(gòu)的底層數(shù)據(jù)生成分布,然后講述了下分布式以及應(yīng)用發(fā)展

Recurrent neural networks

When backpropagation was first introduced, its most exciting use was for training recurrent neural networks (RNNs). For tasks that involve sequential inputs, such as speech and language, it is often better to use RNNs (Fig. 5). RNNs process an input sequence one element at a time, maintaining in their hidden units a ‘state vector’ that implicitly contains information about the history of all the past elements of the sequence. When we consider the outputs of the hidden units at different discrete time steps as if they were the outputs of different neurons in a deep multilayer network (Fig. 5, right), it becomes clear how we can apply backpropagation to train RNNs.

RNNs are very powerful dynamic systems, but training them has proved to be problematic because the backpropagated gradients either grow or shrink at each time step, so over many time steps they typically explode or vanish.

Thanks to advances in their architecture and ways of training them, RNNs have been found to be very good at predicting the next character in the text or the next word in a sequence, but they can also be used for more complex tasks. For example, after reading an English sentence one word at a time, an English ‘encoder’ network can be trained so that the final state vector of its hidden units is a good representation of the thought expressed by the sentence. This thought vector can then be used as the initial hidden state of (or as extra input to) a jointly trained French ‘decoder’ network, which outputs a probability distribution for the first word of the French translation. If a particular first word is chosen from this distribution and provided as input to the decoder network it will then output a probability distribution for the second word of the translation and so on until a full stop is chosen. Overall, this process generates sequences of French words according to a probability distribution that depends on the English sentence. This rather naive way of performing machine translation has quickly become competitive with the state-of-the-art, and this raises serious doubts about whether understanding a sen-tence requires anything like the internal symbolic expressions that are manipulated by using inference rules. It is more compatible with the view that everyday reasoning involves many simultaneous analogies that each contribute plausibility to a conclusion.

Instead of translating the meaning of a French sentence into an English sentence, one can learn to ‘translate’ the meaning of an image into an English sentence (Fig. 3). The encoder here is a deep ConvNet that converts the pixels into an activity vector in its last hidden layer. The decoder is an RNN similar to the ones used for machine translation and neural language modelling. There has been a surge of interest in such systems recently .

RNNs, once unfolded in time (Fig. 5), can be seen as very deep feedforward networks in which all the layers share the same weights. Although their main purpose is to learn long-term dependencies, theoretical and empirical evidence shows that it is difficult to learn to store information for very long.

To correct for that, one idea is to augment the network with an explicit memory. The first proposal of this kind is the long short-term memory (LSTM) networks that use special hidden units, the natural behaviour of which is to remember inputs for a long time. A special unit called the memory cell acts like an accumulator or a gated leaky neuron: it has a connection to itself at the next time step that has a weight of one, so it copies its own real-valued state and accumulates the external signal, but this self-connection is multiplicatively gated by another unit that learns to decide when to clear the content of the memory.

LSTM networks have subsequently proved to be more effective than conventional RNNs, especially when they have several layers for each time step, enabling an entire speech recognition system that goes all the way from acoustics to the sequence of characters in the transcription. LSTM networks or related forms of gated units are also currently used for the encoder and decoder networks that perform so well at machine translation.

Over the past year, several authors have made different proposals to augment RNNs with a memory module. Proposals include the Neural Turing Machine in which the network is augmented by a ‘tape-like’ memory that the RNN can choose to read from or write to, and memory networks, in which a regular network is augmented by a kind of associative memory. Memory networks have yielded excellent performance on standard question-answering benchmarks. The memory is used to remember the story about which the network is later asked to answer questions.

Beyond simple memorization, neural Turing machines and memory networks are being used for tasks that would normally require reasoning and symbol manipulation. Neural Turing machines can be taught ‘a(chǎn)lgorithms’ . Among other things, they can learn to output a sorted list of symbols when their input consists of an unsorted sequence in which each symbol is accompanied by a real value that indicates its priority in the list. Memory networks can be trained to keep track of the state of the world in a setting similar to a text adventure game and after reading a story, they can answer questions that require complex inference90. In one test example, the network is shown a 15-sentence version of the The Lord of the Rings and correctly answers questions such as “where is Frodo now?”.

遞歸神經(jīng)網(wǎng)絡(luò)

首次引入反向傳播時,其最令人興奮的用途是訓(xùn)練循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)。對于涉及順序輸入的任務(wù),例如語音和語言,通常最好使用RNN(圖5)。 RNN一次處理一個輸入序列的一個元素,在其隱藏的單元中維護(hù)一個“狀態(tài)向量”,該“狀態(tài)向量”隱式包含有關(guān)該序列的所有過去元素的歷史信息。當(dāng)我們將隱藏單位在不同離散時間步長的輸出視為是深層多層網(wǎng)絡(luò)中不同神經(jīng)元的輸出時(圖5右),顯然我們可以如何應(yīng)用反向傳播來訓(xùn)練RNN。

RNN是非常強(qiáng)大的動態(tài)系統(tǒng),但是事實(shí)證明,訓(xùn)練它們是有問題的,因?yàn)榉聪騻鞑サ奶荻仍诿總€時間步長都會增大或縮小,因此在許多時間步長上它們通常會爆炸或消失。

由于其結(jié)構(gòu)和訓(xùn)練方法的進(jìn)步,人們發(fā)現(xiàn)RNN非常擅長預(yù)測文本中的下一個字符或序列中的下一個單詞,但它們也可以用于更復(fù)雜的任務(wù)。例如,一次讀一個單詞的英語句子后,可以訓(xùn)練英語的“編碼器”網(wǎng)絡(luò),使其隱藏單元的最終狀態(tài)向量很好地表示了該句子表達(dá)的思想。然后,可以將此思想向量用作聯(lián)合訓(xùn)練的法語“解碼器”網(wǎng)絡(luò)的初始隱藏狀態(tài)(或作為其額外輸入),該網(wǎng)絡(luò)將輸出法語翻譯的第一個單詞的概率分布。如果從該分布中選擇了一個特定的第一個單詞,并將其作為輸入提供給解碼器網(wǎng)絡(luò),則它將輸出翻譯的第二個單詞的概率分布,依此類推,直到選擇了句號。總體而言,此過程根據(jù)取決于英語句子的概率分布生成法語單詞序列。這種相當(dāng)幼稚的執(zhí)行機(jī)器翻譯的方式已迅速與最新技術(shù)競爭,這引起了人們對理解句子是否需要諸如通過使用推理規(guī)則操縱的內(nèi)部符號表達(dá)式之類的嚴(yán)重質(zhì)疑。日常推理涉及許多同時進(jìn)行的類比,每個類比都為結(jié)論提供了合理性,這一觀點(diǎn)與觀點(diǎn)更加兼容。

與其將法語句子的含義翻譯成英語句子,不如學(xué)習(xí)將圖像的含義“翻譯”成英語句子(圖3)。這里的編碼器是一個深層的ConvNet,可將像素轉(zhuǎn)換為其最后一個隱藏層中的活動矢量。解碼器是一個RNN,類似于用于機(jī)器翻譯和神經(jīng)語言建模的RNN。近年來,對此類系統(tǒng)的興趣激增。

RNNs隨時間展開(圖5),可以看作是非常深的前饋網(wǎng)絡(luò),其中所有層共享相同的權(quán)重。盡管它們的主要目的是學(xué)習(xí)長期依賴關(guān)系,但理論和經(jīng)驗(yàn)證據(jù)表明,很難長期存儲信息。

為了解決這個問題,一個想法是用顯式內(nèi)存擴(kuò)展網(wǎng)絡(luò)。此類第一種建議是使用特殊隱藏單元的長短期記憶(LSTM)網(wǎng)絡(luò),其自然行為是長時間記住輸入。稱為存儲單元的特殊單元的作用類似于累加器或門控泄漏神經(jīng)元:它在下一時間步與其自身具有連接,其權(quán)重為1,因此它復(fù)制自己的實(shí)值狀態(tài)并累積外部信號,但是此自連接是由另一個單元乘法控制的,該單元學(xué)會確定何時清除內(nèi)存內(nèi)容。

LSTM網(wǎng)絡(luò)隨后被證明比常規(guī)RNN更有效,特別是當(dāng)它們在每個時間步都有多層時,使整個語音識別系統(tǒng)從聲學(xué)到轉(zhuǎn)錄中的字符序列都一路走來。LSTM網(wǎng)絡(luò)或相關(guān)形式的門控單元目前也用于編碼器和解碼器網(wǎng)絡(luò),它們在機(jī)器翻譯方面表現(xiàn)出色。

在過去的一年中,幾位作者提出了不同的建議,以使用內(nèi)存模塊擴(kuò)展RNN。建議包括神經(jīng)圖靈機(jī),其中網(wǎng)絡(luò)由RNN可以選擇讀取或?qū)懭氲摹跋駧А贝鎯ζ鱽碓鰪?qiáng),以及存儲網(wǎng)絡(luò),其中常規(guī)網(wǎng)絡(luò)由一種關(guān)聯(lián)性存儲器來增強(qiáng)。內(nèi)存網(wǎng)絡(luò)在標(biāo)準(zhǔn)問答基準(zhǔn)方面已表現(xiàn)出出色的性能。存儲器用于記住故事,有關(guān)該故事后來被要求網(wǎng)絡(luò)回答問題。

除了簡單的記憶外,神經(jīng)圖靈機(jī)和存儲網(wǎng)絡(luò)還用于執(zhí)行通常需要推理和符號操作的任務(wù)。神經(jīng)圖靈機(jī)可以被稱為“算法”。除其他事項(xiàng)外,當(dāng)他們的輸入由未排序的序列組成時,他們可以學(xué)習(xí)輸出已排序的符號列表,其中每個符號都帶有一個實(shí)數(shù)值,該實(shí)數(shù)值指示其在列表中的優(yōu)先級。可以訓(xùn)練記憶網(wǎng)絡(luò),使其在類似于文字冒險游戲的環(huán)境中跟蹤世界狀況,閱讀故事后,它們可以回答需要復(fù)雜推理的問題。在一個測試示例中,該網(wǎng)絡(luò)顯示了15句的《指環(huán)王》,并正確回答了諸如“ Frodo現(xiàn)在在哪里?”之類的問題。

7,Recurrent neural networks 六,七部分都是講的DL在文本和語言處理領(lǐng)域的發(fā)展

The future of deep learning

Unsupervised learning had a catalytic effect in reviving interest in deep learning, but has since been overshadowed by the successes of purely supervised learning. Although we have not focused on it in this Review, we expect unsupervised learning to become far more important in the longer term. Human and animal learning is largely unsupervised: we discover the structure of the world by observing it, not by being told the name of every object.

Human vision is an active process that sequentially samples the optic array in an intelligent, task-specific way using a small, high-resolution fovea with a large, low-resolution surround. We expect much of the future progress in vision to come from systems that are trained end-to-end and combine ConvNets with RNNs that use reinforcement learning to decide where to look. Systems combining deep learning and rein-forcement learning are in their infancy, but they already outperform passive vision systems99 at classification tasks and produce impressive results in learning to play many different video game.

Natural language understanding is another area in which deep learning is poised to make a large impact over the next few years. We expect systems that use RNNs to understand sentences or whole documents will become much better when they learn strategies for selectively attending to one part at a time.

Ultimately, major progress in artificial intelligence will come about through systems that combine representation learning with complex reasoning. Although deep learning and simple reasoning have been used for speech and handwriting recognition for a long time, new paradigms are needed to replace rule-based manipulation of symbolic expressions by operations on large vectors.

深度學(xué)習(xí)的未來

無監(jiān)督學(xué)習(xí)在恢復(fù)對深度學(xué)習(xí)的興趣方面起了催化作用,但此后被監(jiān)督學(xué)習(xí)的成功所掩蓋。盡管我們在本評論中并未對此進(jìn)行關(guān)注,但我們希望從長遠(yuǎn)來看,無監(jiān)督學(xué)習(xí)將變得越來越重要。人類和動物的學(xué)習(xí)在很大程度上不受監(jiān)督:我們通過觀察來發(fā)現(xiàn)世界的結(jié)構(gòu),而不是通過告知每個物體的名稱來發(fā)現(xiàn)世界的結(jié)構(gòu)。

人的視覺是一個活躍的過程,它使用具有高分辨率,低分辨率環(huán)繞的小型高分辨率中央凹,以智能的,針對特定任務(wù)的方式對光學(xué)陣列進(jìn)行順序采樣。我們期望在視覺上未來的許多進(jìn)步都將來自端到端訓(xùn)練的系統(tǒng),并將ConvNets與RNN結(jié)合起來,后者使用強(qiáng)化學(xué)習(xí)來決定在哪里看。結(jié)合了深度學(xué)習(xí)和強(qiáng)化學(xué)習(xí)的系統(tǒng)尚處于起步階段,但在分類任務(wù)上它們已經(jīng)超過了被動視覺系統(tǒng),并且在學(xué)習(xí)玩許多不同的視頻游戲方面產(chǎn)生了令人印象深刻的結(jié)果。

自然語言理解是深度學(xué)習(xí)必將在未來幾年產(chǎn)生巨大影響的另一個領(lǐng)域。我們希望使用RNN理解句子或整個文檔的系統(tǒng)在學(xué)習(xí)一次選擇性地關(guān)注一部分的策略時會變得更好。

最終,人工智能的重大進(jìn)步將通過將表示學(xué)習(xí)與復(fù)雜推理相結(jié)合的系統(tǒng)來實(shí)現(xiàn)。盡管長期以來,深度學(xué)習(xí)和簡單推理已被用于語音和手寫識別,但仍需要新的范例來通過對大向量進(jìn)行運(yùn)算來代替基于規(guī)則的符號表達(dá)操縱。

深度學(xué)習(xí)的將來(The future of deep learning ):主要對Unsupervised learning 的發(fā)展有個很棒的展望

總結(jié)

以上是生活随笔為你收集整理的Deep Learning-论文翻译以及笔记的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

亚洲乱码中文字幕在线 | 自拍偷自拍亚洲精品被多人伦好爽 | 丰满少妇高潮惨叫视频 | 人人澡人摸人人添 | 国产明星裸体无码xxxx视频 | 欧美精品一区二区精品久久 | 2020最新国产自产精品 | 18禁止看的免费污网站 | 国产特级毛片aaaaaa高潮流水 | 日本丰满熟妇videos | 性生交片免费无码看人 | 小鲜肉自慰网站xnxx | 国产无套内射久久久国产 | 国产精品美女久久久网av | yw尤物av无码国产在线观看 | 欧美成人家庭影院 | 亚洲欧美国产精品专区久久 | 国内少妇偷人精品视频 | 狠狠噜狠狠狠狠丁香五月 | 丝袜足控一区二区三区 | 激情国产av做激情国产爱 | 亚洲小说春色综合另类 | 亚洲狠狠色丁香婷婷综合 | 成人无码精品一区二区三区 | 无码人妻黑人中文字幕 | 激情综合激情五月俺也去 | 国产av久久久久精东av | 99精品视频在线观看免费 | 国产精品亚洲一区二区三区喷水 | 国内老熟妇对白xxxxhd | 香港三级日本三级妇三级 | 亚洲色在线无码国产精品不卡 | 成人免费视频一区二区 | 欧美人与善在线com | 国产人成高清在线视频99最全资源 | 国产精品内射视频免费 | 亚洲中文字幕va福利 | 国产成人无码av一区二区 | 少妇人妻偷人精品无码视频 | 亚洲日韩中文字幕在线播放 | 国产美女精品一区二区三区 | 国产国语老龄妇女a片 | 青草视频在线播放 | 亚洲自偷精品视频自拍 | 乱人伦人妻中文字幕无码久久网 | 国产激情一区二区三区 | 亚洲日韩一区二区三区 | 1000部夫妻午夜免费 | 日本精品人妻无码免费大全 | 欧美成人家庭影院 | 人妻人人添人妻人人爱 | 欧美丰满老熟妇xxxxx性 | 国产麻豆精品一区二区三区v视界 | 骚片av蜜桃精品一区 | 国产精品第一国产精品 | 国产精品二区一区二区aⅴ污介绍 | 午夜丰满少妇性开放视频 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 无码精品国产va在线观看dvd | 日本大乳高潮视频在线观看 | 国产香蕉尹人视频在线 | 中文字幕色婷婷在线视频 | 久久精品国产日本波多野结衣 | 国内精品一区二区三区不卡 | 久久精品人人做人人综合试看 | 亚洲色无码一区二区三区 | 久久久久人妻一区精品色欧美 | 又色又爽又黄的美女裸体网站 | 国产艳妇av在线观看果冻传媒 | 无遮挡国产高潮视频免费观看 | 熟妇女人妻丰满少妇中文字幕 | 国产成人无码a区在线观看视频app | 国产人妻精品一区二区三区不卡 | 国产乱子伦视频在线播放 | 日日天干夜夜狠狠爱 | 全黄性性激高免费视频 | 一本久道久久综合狠狠爱 | 国产福利视频一区二区 | 一个人看的www免费视频在线观看 | 久久久久久久久蜜桃 | 成人精品一区二区三区中文字幕 | av无码久久久久不卡免费网站 | 欧美老熟妇乱xxxxx | 欧美丰满熟妇xxxx性ppx人交 | 久久久精品成人免费观看 | 色 综合 欧美 亚洲 国产 | 青青久在线视频免费观看 | a国产一区二区免费入口 | 女人和拘做爰正片视频 | 中文字幕无线码免费人妻 | 日韩精品无码一本二本三本色 | 亚洲色大成网站www | 色欲av亚洲一区无码少妇 | 久久亚洲精品成人无码 | 亚洲爆乳精品无码一区二区三区 | 窝窝午夜理论片影院 | 又粗又大又硬又长又爽 | 亚洲日韩av一区二区三区中文 | 伊人久久大香线蕉亚洲 | 人妻人人添人妻人人爱 | 国产精品亚洲五月天高清 | 亚洲一区二区三区四区 | 欧美性生交xxxxx久久久 | 樱花草在线播放免费中文 | 无码精品国产va在线观看dvd | 88国产精品欧美一区二区三区 | 国内老熟妇对白xxxxhd | 熟妇人妻无码xxx视频 | 久久久久久久久888 | 久久午夜无码鲁丝片午夜精品 | 窝窝午夜理论片影院 | 免费网站看v片在线18禁无码 | 亚洲成a人片在线观看日本 | 亚洲国产精品无码久久久久高潮 | 狠狠噜狠狠狠狠丁香五月 | 一本一道久久综合久久 | 99久久人妻精品免费一区 | 国产99久久精品一区二区 | 在线观看免费人成视频 | 精品国产一区av天美传媒 | 激情内射亚州一区二区三区爱妻 | 亚洲国产欧美日韩精品一区二区三区 | 狂野欧美性猛xxxx乱大交 | 日本免费一区二区三区最新 | 欧美肥老太牲交大战 | 久久99精品久久久久婷婷 | 九九综合va免费看 | 性生交大片免费看女人按摩摩 | 少妇无套内谢久久久久 | 少妇高潮喷潮久久久影院 | 亚洲色www成人永久网址 | 亚洲毛片av日韩av无码 | 国产网红无码精品视频 | 久久久久久a亚洲欧洲av冫 | 激情五月综合色婷婷一区二区 | 熟女体下毛毛黑森林 | 亚洲成在人网站无码天堂 | 国产国产精品人在线视 | 人人澡人人透人人爽 | 日本乱人伦片中文三区 | 奇米影视888欧美在线观看 | 在线а√天堂中文官网 | 久久99精品久久久久婷婷 | 18禁黄网站男男禁片免费观看 | 亚洲欧洲日本综合aⅴ在线 | 综合激情五月综合激情五月激情1 | 国产69精品久久久久app下载 | а√资源新版在线天堂 | 亚洲国产午夜精品理论片 | 日本熟妇人妻xxxxx人hd | 亚洲成a人片在线观看无码3d | 久热国产vs视频在线观看 | 亚洲人成网站色7799 | 国产午夜无码精品免费看 | 最近免费中文字幕中文高清百度 | 精品一二三区久久aaa片 | 女人高潮内射99精品 | 国产黑色丝袜在线播放 | 永久免费精品精品永久-夜色 | 成熟女人特级毛片www免费 | 高清国产亚洲精品自在久久 | 日本免费一区二区三区最新 | 九九综合va免费看 | 正在播放老肥熟妇露脸 | 久久午夜无码鲁丝片秋霞 | 亚洲精品国产精品乱码不卡 | 国产精品国产自线拍免费软件 | 久久久久亚洲精品男人的天堂 | 亚洲人成影院在线无码按摩店 | 爆乳一区二区三区无码 | 亚洲成av人影院在线观看 | 亚洲va欧美va天堂v国产综合 | 国产精品久久久 | 亚洲精品久久久久中文第一幕 | 麻豆国产人妻欲求不满 | 九九综合va免费看 | 搡女人真爽免费视频大全 | 性史性农村dvd毛片 | 麻花豆传媒剧国产免费mv在线 | 欧美黑人巨大xxxxx | 四虎影视成人永久免费观看视频 | 成人亚洲精品久久久久 | 国产成人综合美国十次 | 欧美亚洲日韩国产人成在线播放 | 亚洲色成人中文字幕网站 | 精品亚洲成av人在线观看 | 99久久精品午夜一区二区 | 少妇人妻av毛片在线看 | 国产成人综合色在线观看网站 | 亚洲一区av无码专区在线观看 | 草草网站影院白丝内射 | 免费观看黄网站 | 99久久精品午夜一区二区 | 国产无套内射久久久国产 | 国精品人妻无码一区二区三区蜜柚 | 亚洲综合色区中文字幕 | 国产午夜亚洲精品不卡下载 | 久久久久av无码免费网 | 亚洲狠狠婷婷综合久久 | 日本在线高清不卡免费播放 | 无码午夜成人1000部免费视频 | 日韩视频 中文字幕 视频一区 | 国产成人亚洲综合无码 | 性欧美大战久久久久久久 | 日韩精品久久久肉伦网站 | 人人妻人人澡人人爽欧美精品 | 麻豆精品国产精华精华液好用吗 | 伊人久久大香线焦av综合影院 | 日本精品人妻无码免费大全 | 沈阳熟女露脸对白视频 | 亚洲精品一区二区三区在线观看 | 国产精品va在线观看无码 | 乱人伦人妻中文字幕无码久久网 | 国产乱人伦av在线无码 | 国产精品永久免费视频 | 男女下面进入的视频免费午夜 | 国产成人无码专区 | 亚洲aⅴ无码成人网站国产app | 性生交大片免费看l | 麻豆md0077饥渴少妇 | 午夜丰满少妇性开放视频 | 四虎国产精品一区二区 | 东北女人啪啪对白 | 日韩人妻无码中文字幕视频 | 久久99精品久久久久久动态图 | 76少妇精品导航 | 国产超碰人人爽人人做人人添 | 又大又紧又粉嫩18p少妇 | 东北女人啪啪对白 | 男女性色大片免费网站 | 未满小14洗澡无码视频网站 | 亚洲精品国产精品乱码不卡 | 国产在线一区二区三区四区五区 | 国产成人无码av片在线观看不卡 | 少妇一晚三次一区二区三区 | 国产成人精品三级麻豆 | 一个人看的视频www在线 | 天堂久久天堂av色综合 | 色 综合 欧美 亚洲 国产 | 午夜精品久久久久久久 | 丰满岳乱妇在线观看中字无码 | 亚洲精品国产精品乱码不卡 | 少妇性荡欲午夜性开放视频剧场 | 亚洲成av人影院在线观看 | 清纯唯美经典一区二区 | 精品国产一区二区三区四区 | 少女韩国电视剧在线观看完整 | 人妻天天爽夜夜爽一区二区 | 狠狠色丁香久久婷婷综合五月 | 窝窝午夜理论片影院 | 又大又黄又粗又爽的免费视频 | 国产精品久久久一区二区三区 | 中文字幕乱码人妻无码久久 | 国产尤物精品视频 | 波多野结衣aⅴ在线 | 女人高潮内射99精品 | 免费中文字幕日韩欧美 | 成人精品一区二区三区中文字幕 | 欧美人与物videos另类 | 国产精品亚洲专区无码不卡 | 久久精品国产亚洲精品 | 国产免费久久精品国产传媒 | 久久午夜夜伦鲁鲁片无码免费 | 扒开双腿疯狂进出爽爽爽视频 | 日产国产精品亚洲系列 | 午夜性刺激在线视频免费 | 亚洲成av人片在线观看无码不卡 | 99精品视频在线观看免费 | 中文字幕无码人妻少妇免费 | 日韩欧美中文字幕在线三区 | 欧美日本精品一区二区三区 | 99久久99久久免费精品蜜桃 | 无码国产乱人伦偷精品视频 | 免费看男女做好爽好硬视频 | 在线 国产 欧美 亚洲 天堂 | 欧美熟妇另类久久久久久多毛 | 精品无码一区二区三区爱欲 | 中文字幕亚洲情99在线 | 偷窥日本少妇撒尿chinese | 欧美成人免费全部网站 | 成人无码视频免费播放 | 亚洲国产精品无码久久久久高潮 | 国产熟妇高潮叫床视频播放 | 小泽玛莉亚一区二区视频在线 | 正在播放老肥熟妇露脸 | 亚洲精品无码人妻无码 | 亚洲中文字幕久久无码 | 无码中文字幕色专区 | 2020久久香蕉国产线看观看 | 妺妺窝人体色www在线小说 | 亚洲中文字幕无码一久久区 | 成人免费视频在线观看 | 国产激情无码一区二区app | 色婷婷久久一区二区三区麻豆 | 国产成人无码av一区二区 | 久久久精品欧美一区二区免费 | 婷婷六月久久综合丁香 | 成人免费视频视频在线观看 免费 | 日本熟妇乱子伦xxxx | 欧美精品无码一区二区三区 | 99久久精品国产一区二区蜜芽 | 高中生自慰www网站 | 国产精品99久久精品爆乳 | 国产精品人妻一区二区三区四 | 亚洲综合在线一区二区三区 | 日产精品高潮呻吟av久久 | 美女扒开屁股让男人桶 | 97夜夜澡人人爽人人喊中国片 | 无套内射视频囯产 | 乱人伦人妻中文字幕无码久久网 | 日本精品人妻无码免费大全 | 亚洲精品国产第一综合99久久 | 欧美国产日韩久久mv | 狠狠cao日日穞夜夜穞av | 麻豆av传媒蜜桃天美传媒 | 激情人妻另类人妻伦 | 无码纯肉视频在线观看 | 久久无码专区国产精品s | 人妻无码αv中文字幕久久琪琪布 | 久久精品视频在线看15 | 欧美老人巨大xxxx做受 | 国产无遮挡吃胸膜奶免费看 | 亚洲精品久久久久久一区二区 | 男女超爽视频免费播放 | 精品一二三区久久aaa片 | 东京无码熟妇人妻av在线网址 | 国产精品成人av在线观看 | 日本一卡2卡3卡四卡精品网站 | 草草网站影院白丝内射 | 亚洲人成网站色7799 | 影音先锋中文字幕无码 | 国内精品一区二区三区不卡 | 无码av最新清无码专区吞精 | 精品无码一区二区三区的天堂 | 久久综合给久久狠狠97色 | 国产精品无码永久免费888 | 国产热a欧美热a在线视频 | 国产超碰人人爽人人做人人添 | 国产精品99久久精品爆乳 | 爆乳一区二区三区无码 | 国产精品自产拍在线观看 | 亲嘴扒胸摸屁股激烈网站 | 领导边摸边吃奶边做爽在线观看 | 激情内射亚州一区二区三区爱妻 | 亚洲aⅴ无码成人网站国产app | 美女毛片一区二区三区四区 | 午夜成人1000部免费视频 | 国产精品久久国产精品99 | 人妻无码久久精品人妻 | 牛和人交xxxx欧美 | 亚洲 a v无 码免 费 成 人 a v | 色综合久久久久综合一本到桃花网 | 亚洲欧美日韩国产精品一区二区 | 国产性生交xxxxx无码 | 1000部啪啪未满十八勿入下载 | 人人妻人人藻人人爽欧美一区 | 131美女爱做视频 | 大乳丰满人妻中文字幕日本 | 宝宝好涨水快流出来免费视频 | 日本欧美一区二区三区乱码 | 亚洲无人区一区二区三区 | 免费乱码人妻系列无码专区 | 中文字幕色婷婷在线视频 | 丰满岳乱妇在线观看中字无码 | av无码电影一区二区三区 | 久久久精品国产sm最大网站 | 5858s亚洲色大成网站www | 国产成人综合在线女婷五月99播放 | 日本一本二本三区免费 | 国产无遮挡又黄又爽又色 | 2020久久超碰国产精品最新 | 国产午夜手机精彩视频 | 亚洲无人区午夜福利码高清完整版 | 狂野欧美性猛xxxx乱大交 | 狠狠噜狠狠狠狠丁香五月 | 粉嫩少妇内射浓精videos | 无码精品国产va在线观看dvd | 中文字幕av日韩精品一区二区 | 欧洲熟妇精品视频 | 国产人成高清在线视频99最全资源 | 中文久久乱码一区二区 | 久久精品无码一区二区三区 | 性生交大片免费看女人按摩摩 | 亚洲欧美精品aaaaaa片 | 国产精品久久久久无码av色戒 | 2020久久超碰国产精品最新 | 澳门永久av免费网站 | 亚洲午夜福利在线观看 | 无套内谢的新婚少妇国语播放 | 少妇激情av一区二区 | 在线播放免费人成毛片乱码 | 日产精品99久久久久久 | 中文字幕色婷婷在线视频 | 我要看www免费看插插视频 | 亚洲日本一区二区三区在线 | 西西人体www44rt大胆高清 | 久久精品人人做人人综合试看 | 欧美黑人乱大交 | 色综合久久中文娱乐网 | 久久午夜无码鲁丝片午夜精品 | 日日碰狠狠躁久久躁蜜桃 | 在线精品国产一区二区三区 | 无人区乱码一区二区三区 | 国精品人妻无码一区二区三区蜜柚 | 激情内射日本一区二区三区 | 蜜桃臀无码内射一区二区三区 | 荫蒂添的好舒服视频囗交 | 中文字幕无码日韩专区 | 精品国产一区二区三区av 性色 | 一本久久a久久精品vr综合 | 成人免费无码大片a毛片 | 国产人妻精品午夜福利免费 | 国产做国产爱免费视频 | 色婷婷欧美在线播放内射 | 亚洲精品美女久久久久久久 | 国产精品久久久久久久9999 | 亚洲精品国产精品乱码不卡 | 日日干夜夜干 | 亚洲中文字幕在线观看 | 国产成人人人97超碰超爽8 | 无套内谢老熟女 | 内射老妇bbwx0c0ck | 波多野结衣 黑人 | 国产亚洲美女精品久久久2020 | av小次郎收藏 | 亚洲一区二区三区含羞草 | 一本大道伊人av久久综合 | 亚洲天堂2017无码 | 亚洲国产av精品一区二区蜜芽 | 亚洲 日韩 欧美 成人 在线观看 | 欧美日韩一区二区免费视频 | 国产成人无码av在线影院 | 久久人妻内射无码一区三区 | 国模大胆一区二区三区 | 国产精品毛多多水多 | a片在线免费观看 | 国产精品-区区久久久狼 | 亚洲人交乣女bbw | 性欧美videos高清精品 | 波多野结衣高清一区二区三区 | 亚洲国产一区二区三区在线观看 | 亚洲爆乳精品无码一区二区三区 | 久久zyz资源站无码中文动漫 | 无遮无挡爽爽免费视频 | 欧美人与物videos另类 | 亚洲人亚洲人成电影网站色 | 精品一区二区三区波多野结衣 | 免费看男女做好爽好硬视频 | 99精品国产综合久久久久五月天 | av人摸人人人澡人人超碰下载 | 无遮挡啪啪摇乳动态图 | 亚洲国产午夜精品理论片 | 动漫av网站免费观看 | 午夜熟女插插xx免费视频 | 国产精品嫩草久久久久 | 久久 国产 尿 小便 嘘嘘 | 成 人 免费观看网站 | 图片小说视频一区二区 | 欧美 丝袜 自拍 制服 另类 | 欧美人与禽zoz0性伦交 | 国产人成高清在线视频99最全资源 | 亚洲欧美综合区丁香五月小说 | 国产精品无码一区二区三区不卡 | 亚洲成av人在线观看网址 | 大屁股大乳丰满人妻 | 一本大道久久东京热无码av | 国产精品久久久久影院嫩草 | 日韩精品无码一本二本三本色 | 欧美人与物videos另类 | 自拍偷自拍亚洲精品10p | 久久精品视频在线看15 | 欧美xxxx黑人又粗又长 | 纯爱无遮挡h肉动漫在线播放 | 丝袜 中出 制服 人妻 美腿 | 国产成人综合色在线观看网站 | 日韩 欧美 动漫 国产 制服 | 国产精品二区一区二区aⅴ污介绍 | 国内揄拍国内精品人妻 | 亚洲精品www久久久 | 国内老熟妇对白xxxxhd | 无套内谢老熟女 | 久久久国产精品无码免费专区 | 国产午夜福利100集发布 | 久久亚洲日韩精品一区二区三区 | 亚洲国产高清在线观看视频 | 亚洲a无码综合a国产av中文 | 国产成人精品一区二区在线小狼 | 一本色道婷婷久久欧美 | 成人免费视频在线观看 | 精品乱码久久久久久久 | 亚洲国产精品久久久天堂 | 一个人看的www免费视频在线观看 | 丰满人妻翻云覆雨呻吟视频 | 免费无码一区二区三区蜜桃大 | 国产综合在线观看 | 成人影院yy111111在线观看 | 亚洲日韩av片在线观看 | 成人无码精品一区二区三区 | 国产av无码专区亚洲awww | 欧美精品无码一区二区三区 | 亚洲男人av天堂午夜在 | 人妻人人添人妻人人爱 | 国产色xx群视频射精 | 一本色道婷婷久久欧美 | 乱码午夜-极国产极内射 | 人妻尝试又大又粗久久 | 亚洲欧美色中文字幕在线 | 国产极品美女高潮无套在线观看 | 无码av免费一区二区三区试看 | 对白脏话肉麻粗话av | 小sao货水好多真紧h无码视频 | 欧美日本免费一区二区三区 | 婷婷丁香六月激情综合啪 | 97久久精品无码一区二区 | www成人国产高清内射 | 久久精品女人天堂av免费观看 | 亚洲国产精品久久人人爱 | 久久精品女人的天堂av | 老子影院午夜精品无码 | 76少妇精品导航 | 人妻尝试又大又粗久久 | 狠狠躁日日躁夜夜躁2020 | 人人妻人人澡人人爽人人精品 | 大乳丰满人妻中文字幕日本 | 夜精品a片一区二区三区无码白浆 | 国产艳妇av在线观看果冻传媒 | 亚洲s色大片在线观看 | 国产精品二区一区二区aⅴ污介绍 | 国产综合色产在线精品 | 麻豆精品国产精华精华液好用吗 | 日韩成人一区二区三区在线观看 | 成人欧美一区二区三区黑人免费 | 国产高潮视频在线观看 | 日产精品99久久久久久 | 亚洲欧美日韩国产精品一区二区 | 久久亚洲a片com人成 | 久久综合给合久久狠狠狠97色 | 亚洲一区av无码专区在线观看 | 中文字幕无线码免费人妻 | 欧美人与禽zoz0性伦交 | 欧美精品国产综合久久 | 性欧美熟妇videofreesex | 中文字幕无码av波多野吉衣 | 国产亚洲人成a在线v网站 | 欧洲熟妇精品视频 | 亚洲男人av天堂午夜在 | 成人精品天堂一区二区三区 | 亚洲精品成a人在线观看 | 国产精品内射视频免费 | 国产在线一区二区三区四区五区 | 一本色道久久综合狠狠躁 | 激情亚洲一区国产精品 | 一区二区三区高清视频一 | 国产真实伦对白全集 | 国产精品久久久午夜夜伦鲁鲁 | 中文字幕无码日韩专区 | 婷婷六月久久综合丁香 | 无套内射视频囯产 | 中文字幕无码免费久久99 | 国产精品高潮呻吟av久久4虎 | 日本爽爽爽爽爽爽在线观看免 | 少妇高潮一区二区三区99 | www成人国产高清内射 | 九九久久精品国产免费看小说 | 爆乳一区二区三区无码 | 国产精品国产自线拍免费软件 | 亚洲熟熟妇xxxx | 风流少妇按摩来高潮 | 国产精品欧美成人 | 欧美成人高清在线播放 | 午夜性刺激在线视频免费 | 图片区 小说区 区 亚洲五月 | av香港经典三级级 在线 | 黑人粗大猛烈进出高潮视频 | 激情亚洲一区国产精品 | 色情久久久av熟女人妻网站 | 中文字幕精品av一区二区五区 | 亚洲爆乳大丰满无码专区 | 久久综合狠狠综合久久综合88 | 国产小呦泬泬99精品 | 正在播放老肥熟妇露脸 | 日产国产精品亚洲系列 | 玩弄少妇高潮ⅹxxxyw | 日韩精品无码免费一区二区三区 | 欧美老熟妇乱xxxxx | 小泽玛莉亚一区二区视频在线 | 久久精品人人做人人综合 | 国产成人无码一二三区视频 | 国产午夜无码精品免费看 | 一本色道婷婷久久欧美 | 丰满妇女强制高潮18xxxx | 亚洲娇小与黑人巨大交 | 熟妇激情内射com | 亚洲日韩av片在线观看 | 日产国产精品亚洲系列 | 精品人妻人人做人人爽夜夜爽 | 色婷婷综合激情综在线播放 | 小泽玛莉亚一区二区视频在线 | 色一情一乱一伦一视频免费看 | 欧美日本免费一区二区三区 | 人妻插b视频一区二区三区 | 成熟妇人a片免费看网站 | 在线精品亚洲一区二区 | 伊人色综合久久天天小片 | 国产美女极度色诱视频www | 牲欲强的熟妇农村老妇女视频 | 亚洲综合伊人久久大杳蕉 | 成年美女黄网站色大免费全看 | 日韩欧美中文字幕公布 | 天天躁夜夜躁狠狠是什么心态 | 久久99精品国产麻豆 | 欧美丰满熟妇xxxx | 女人被爽到呻吟gif动态图视看 | 免费观看黄网站 | 小sao货水好多真紧h无码视频 | 欧美日韩一区二区三区自拍 | 夜精品a片一区二区三区无码白浆 | 国产欧美熟妇另类久久久 | 午夜无码人妻av大片色欲 | 欧美老熟妇乱xxxxx | 亚洲一区二区三区在线观看网站 | 老司机亚洲精品影院 | 人人澡人人透人人爽 | 性欧美牲交在线视频 | 成人综合网亚洲伊人 | 无码福利日韩神码福利片 | 少妇太爽了在线观看 | 粉嫩少妇内射浓精videos | 一本久久伊人热热精品中文字幕 | 国产人妻精品一区二区三区不卡 | 老头边吃奶边弄进去呻吟 | 亚洲午夜无码久久 | 亚洲中文字幕无码中文字在线 | 精品一区二区三区无码免费视频 | 日韩成人一区二区三区在线观看 | 一本无码人妻在中文字幕免费 | ass日本丰满熟妇pics | 十八禁视频网站在线观看 | 麻豆成人精品国产免费 | 小泽玛莉亚一区二区视频在线 | 在线观看国产午夜福利片 | 丰满少妇熟乱xxxxx视频 | 国产午夜亚洲精品不卡下载 | 最新国产麻豆aⅴ精品无码 | 成人aaa片一区国产精品 | 国产精品久久久av久久久 | 国产亚洲精品久久久久久久久动漫 | 牲交欧美兽交欧美 | 国产精品无码一区二区桃花视频 | 丰满人妻精品国产99aⅴ | 日韩精品无码一本二本三本色 | 嫩b人妻精品一区二区三区 | 无码任你躁久久久久久久 | 国内精品人妻无码久久久影院 | 激情内射亚州一区二区三区爱妻 | 久久久av男人的天堂 | 人妻少妇精品无码专区二区 | 欧美熟妇另类久久久久久不卡 | 亚洲国产精品成人久久蜜臀 | 搡女人真爽免费视频大全 | 人人妻人人澡人人爽精品欧美 | 国产精品沙发午睡系列 | 人妻少妇被猛烈进入中文字幕 | 国产午夜福利亚洲第一 | 国产无遮挡又黄又爽免费视频 | 国产九九九九九九九a片 | 成人精品天堂一区二区三区 | 国产成人无码一二三区视频 | 亚洲国产成人a精品不卡在线 | 国产99久久精品一区二区 | аⅴ资源天堂资源库在线 | 国产精品国产三级国产专播 | 日韩 欧美 动漫 国产 制服 | 亚洲热妇无码av在线播放 | 在线а√天堂中文官网 | 麻豆精品国产精华精华液好用吗 | av无码久久久久不卡免费网站 | 亚洲色成人中文字幕网站 | 午夜无码区在线观看 | 亚洲の无码国产の无码影院 | 国产激情精品一区二区三区 | 婷婷五月综合激情中文字幕 | 四十如虎的丰满熟妇啪啪 | 亚洲国产精品久久久天堂 | 久久国产精品二国产精品 | 国产 浪潮av性色四虎 | 国产性生大片免费观看性 | 亚洲aⅴ无码成人网站国产app | 久久综合九色综合欧美狠狠 | 色综合天天综合狠狠爱 | 久久精品国产99精品亚洲 | 亚洲色欲久久久综合网东京热 | 男人扒开女人内裤强吻桶进去 | 狠狠色欧美亚洲狠狠色www | 久久五月精品中文字幕 | 麻豆国产丝袜白领秘书在线观看 | 亚洲欧美日韩国产精品一区二区 | 国产国产精品人在线视 | 亚洲欧美国产精品专区久久 | 97夜夜澡人人双人人人喊 | 激情内射亚州一区二区三区爱妻 | 天堂无码人妻精品一区二区三区 | 日韩在线不卡免费视频一区 | 免费人成网站视频在线观看 | 亚洲综合精品香蕉久久网 | 色婷婷久久一区二区三区麻豆 | 欧美 日韩 人妻 高清 中文 | 人妻体内射精一区二区三四 | 强辱丰满人妻hd中文字幕 | 亚洲欧美日韩国产精品一区二区 | 亚洲成色www久久网站 | 狠狠躁日日躁夜夜躁2020 | 丰满少妇人妻久久久久久 | 2020最新国产自产精品 | 亚洲中文字幕va福利 | 亚洲欧美综合区丁香五月小说 | 欧美zoozzooz性欧美 | 乌克兰少妇xxxx做受 | 婷婷色婷婷开心五月四房播播 | 亚洲熟女一区二区三区 | 精品国产成人一区二区三区 | 高清国产亚洲精品自在久久 | 亚洲日韩一区二区三区 | 大乳丰满人妻中文字幕日本 | 爽爽影院免费观看 | 激情综合激情五月俺也去 | 国产一区二区不卡老阿姨 | 国产人妻人伦精品1国产丝袜 | 麻豆国产人妻欲求不满谁演的 | 国产色视频一区二区三区 | 日本大乳高潮视频在线观看 | 久久国产精品偷任你爽任你 | 国产亚洲精品久久久久久久 | 少妇人妻偷人精品无码视频 | 国产高清不卡无码视频 | 樱花草在线播放免费中文 | 国产一区二区三区精品视频 | 99久久久国产精品无码免费 | 国产另类ts人妖一区二区 | 色 综合 欧美 亚洲 国产 | 国产精品久久久久久久影院 | 人妻体内射精一区二区三四 | 精品成在人线av无码免费看 | 国产亚洲精品久久久闺蜜 | 亚洲日韩av片在线观看 | 男人扒开女人内裤强吻桶进去 | 3d动漫精品啪啪一区二区中 | 人妻少妇精品久久 | 精品国产麻豆免费人成网站 | 国产色精品久久人妻 | 午夜不卡av免费 一本久久a久久精品vr综合 | 日韩精品乱码av一区二区 | 偷窥日本少妇撒尿chinese | 国产无套粉嫩白浆在线 | 亚洲自偷自拍另类第1页 | 蜜臀aⅴ国产精品久久久国产老师 | 国产偷国产偷精品高清尤物 | 漂亮人妻洗澡被公强 日日躁 | 亚洲国产精品久久久天堂 | 激情内射亚州一区二区三区爱妻 | 国产乡下妇女做爰 | 精品偷拍一区二区三区在线看 | 久久精品99久久香蕉国产色戒 | 兔费看少妇性l交大片免费 | 男人扒开女人内裤强吻桶进去 | 国内揄拍国内精品人妻 | 国产成人综合在线女婷五月99播放 | 在线成人www免费观看视频 | 日韩欧美群交p片內射中文 | 久久国产劲爆∧v内射 | 在线播放无码字幕亚洲 | 欧美人妻一区二区三区 | 亚洲精品鲁一鲁一区二区三区 | 激情国产av做激情国产爱 | 中文字幕人成乱码熟女app | 青春草在线视频免费观看 | 无码人妻精品一区二区三区不卡 | 国产熟妇另类久久久久 | 在线观看欧美一区二区三区 | 青春草在线视频免费观看 | 午夜熟女插插xx免费视频 | 玩弄少妇高潮ⅹxxxyw | 全球成人中文在线 | 久久精品女人的天堂av | 少妇性l交大片欧洲热妇乱xxx | 日产精品高潮呻吟av久久 | 欧美熟妇另类久久久久久多毛 | 日本精品久久久久中文字幕 | 中文字幕乱码人妻二区三区 | 国产女主播喷水视频在线观看 | 成熟妇人a片免费看网站 | 欧美性黑人极品hd | 国产99久久精品一区二区 | 永久免费观看美女裸体的网站 | 桃花色综合影院 | 久久99精品久久久久久动态图 | 国产免费久久精品国产传媒 | 国产精品无码一区二区三区不卡 | 国产又爽又猛又粗的视频a片 | 无码国内精品人妻少妇 | 国产免费无码一区二区视频 | 色情久久久av熟女人妻网站 | 亚洲中文字幕在线无码一区二区 | 亚洲aⅴ无码成人网站国产app | 欧美野外疯狂做受xxxx高潮 | 免费乱码人妻系列无码专区 | 伊人久久婷婷五月综合97色 | 大地资源网第二页免费观看 | 久久精品国产亚洲精品 | 精品国偷自产在线视频 | 中文字幕人妻丝袜二区 | 天堂一区人妻无码 | 中文字幕无码人妻少妇免费 | 少妇太爽了在线观看 | 欧美真人作爱免费视频 | 久久99久久99精品中文字幕 | 国产午夜福利亚洲第一 | 麻豆成人精品国产免费 | 日本大乳高潮视频在线观看 | 无码av免费一区二区三区试看 | 大乳丰满人妻中文字幕日本 | 久久国产精品二国产精品 | 午夜精品久久久内射近拍高清 | 日本熟妇人妻xxxxx人hd | 日日摸天天摸爽爽狠狠97 | 精品国产aⅴ无码一区二区 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲一区二区三区无码久久 | 亚洲 a v无 码免 费 成 人 a v | 水蜜桃亚洲一二三四在线 | 日本一卡二卡不卡视频查询 | 国产黑色丝袜在线播放 | 国精产品一品二品国精品69xx | 国产无av码在线观看 | 精品无码av一区二区三区 | 国产亚洲精品精品国产亚洲综合 | 亚洲va中文字幕无码久久不卡 | 国产精品亚洲一区二区三区喷水 | 蜜桃av抽搐高潮一区二区 | 欧洲熟妇精品视频 | 亚洲国产精品久久久久久 | 亚洲理论电影在线观看 | 中文字幕av日韩精品一区二区 | 国产精品国产三级国产专播 | 天天做天天爱天天爽综合网 | 狠狠综合久久久久综合网 | 特级做a爰片毛片免费69 | 中文无码精品a∨在线观看不卡 | 曰韩少妇内射免费播放 | 成 人 免费观看网站 | 欧美兽交xxxx×视频 | 蜜桃视频韩日免费播放 | 亚洲大尺度无码无码专区 | 中文字幕人成乱码熟女app | 亚洲一区av无码专区在线观看 | 男女作爱免费网站 | 国内少妇偷人精品视频 | 激情内射日本一区二区三区 | 欧洲vodafone精品性 | 精品人人妻人人澡人人爽人人 | 男女性色大片免费网站 | 久久久久久久人妻无码中文字幕爆 | 精品乱码久久久久久久 | 欧美zoozzooz性欧美 | 亚洲 日韩 欧美 成人 在线观看 | 午夜精品一区二区三区的区别 | 久久www免费人成人片 | 色老头在线一区二区三区 | 国产亚洲精品久久久久久 | 99精品久久毛片a片 | 国产激情一区二区三区 | 国产办公室秘书无码精品99 | 国产免费久久久久久无码 | 狠狠色丁香久久婷婷综合五月 | 久久久久成人片免费观看蜜芽 | 国产成人无码一二三区视频 | 麻豆国产人妻欲求不满谁演的 | 免费无码午夜福利片69 | 久久综合给久久狠狠97色 | 国产成人无码专区 | 国产在线一区二区三区四区五区 | 天天做天天爱天天爽综合网 | 欧美 日韩 亚洲 在线 | 日韩精品无码一本二本三本色 | 1000部夫妻午夜免费 | 国产内射爽爽大片视频社区在线 | 亚洲乱码中文字幕在线 | 国产真人无遮挡作爱免费视频 | 无码帝国www无码专区色综合 | 精品人妻人人做人人爽 | 久久99精品久久久久久动态图 | 久久99精品久久久久婷婷 | 亚洲の无码国产の无码影院 | 精品熟女少妇av免费观看 | 国产精品无套呻吟在线 | 国产69精品久久久久app下载 | 久久无码中文字幕免费影院蜜桃 | 亚洲日韩中文字幕在线播放 | 日本丰满护士爆乳xxxx | 国产在热线精品视频 | 亚洲一区av无码专区在线观看 | 97精品国产97久久久久久免费 | 亚洲国产欧美日韩精品一区二区三区 | 久久综合给合久久狠狠狠97色 | 18禁止看的免费污网站 | 乌克兰少妇xxxx做受 | 国产明星裸体无码xxxx视频 | 亚洲国产av精品一区二区蜜芽 | 国产精品亚洲综合色区韩国 | 一二三四社区在线中文视频 | 色综合久久久无码网中文 | 国产成人综合色在线观看网站 | 国产舌乚八伦偷品w中 | 日日摸天天摸爽爽狠狠97 | 三上悠亚人妻中文字幕在线 | 少妇性荡欲午夜性开放视频剧场 | 波多野结衣高清一区二区三区 | 国精产品一区二区三区 | 亚洲欧美国产精品专区久久 | 日韩人妻无码中文字幕视频 | 国产成人精品久久亚洲高清不卡 | 无遮无挡爽爽免费视频 | 老司机亚洲精品影院 | 荫蒂添的好舒服视频囗交 | 色婷婷久久一区二区三区麻豆 | 国内揄拍国内精品少妇国语 | 久热国产vs视频在线观看 | 妺妺窝人体色www婷婷 | 国内精品久久毛片一区二区 | 亚洲色www成人永久网址 | 东京热男人av天堂 | 鲁一鲁av2019在线 | 久久精品视频在线看15 | 欧美日韩一区二区三区自拍 | 国产精品人人妻人人爽 | 亚洲精品无码人妻无码 | 亚洲色无码一区二区三区 | 鲁鲁鲁爽爽爽在线视频观看 | 国产人妻人伦精品 | 欧洲精品码一区二区三区免费看 | 老司机亚洲精品影院 | 精品一区二区不卡无码av | 无码中文字幕色专区 | 丝袜足控一区二区三区 | 亚洲男人av香蕉爽爽爽爽 | 少妇无套内谢久久久久 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲va中文字幕无码久久不卡 | 熟妇人妻中文av无码 | 国产农村乱对白刺激视频 | 成年美女黄网站色大免费视频 | 色婷婷久久一区二区三区麻豆 | 小鲜肉自慰网站xnxx | 丰满人妻翻云覆雨呻吟视频 | www国产精品内射老师 | 伊人久久大香线蕉av一区二区 | 久久久精品人妻久久影视 | 亚洲成熟女人毛毛耸耸多 | www成人国产高清内射 | 久久aⅴ免费观看 | 精品久久久久久亚洲精品 | 中文字幕人妻无码一区二区三区 | 国产精品99久久精品爆乳 | 成年女人永久免费看片 | 无码人妻出轨黑人中文字幕 | 国产成人一区二区三区在线观看 | 蜜桃av抽搐高潮一区二区 | 国产内射爽爽大片视频社区在线 | 成人精品天堂一区二区三区 | 巨爆乳无码视频在线观看 | 国产精品毛多多水多 | 强辱丰满人妻hd中文字幕 | 色一情一乱一伦一区二区三欧美 | 亚洲乱码国产乱码精品精 | 亚洲中文无码av永久不收费 | 久久综合九色综合欧美狠狠 | 色五月五月丁香亚洲综合网 | 97se亚洲精品一区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲国产欧美日韩精品一区二区三区 | 四虎永久在线精品免费网址 | 欧美野外疯狂做受xxxx高潮 | 亚洲精品国偷拍自产在线麻豆 | 久久久久久久久蜜桃 | 无码成人精品区在线观看 | 国产在线无码精品电影网 | 免费看男女做好爽好硬视频 | 色欲综合久久中文字幕网 | 国产av一区二区精品久久凹凸 | 日韩人妻少妇一区二区三区 | 亚洲欧美国产精品专区久久 | 少妇无套内谢久久久久 | 亚洲欧美综合区丁香五月小说 | 水蜜桃色314在线观看 | 国产精品高潮呻吟av久久 | 成人三级无码视频在线观看 | 夜夜高潮次次欢爽av女 | 成人一在线视频日韩国产 | 精品一区二区三区波多野结衣 | 久久综合色之久久综合 | 欧美xxxxx精品 | 久久综合狠狠综合久久综合88 | 日本精品久久久久中文字幕 | 俺去俺来也在线www色官网 | 精品久久久久久亚洲精品 | 一区二区三区高清视频一 | 亚洲人成网站在线播放942 | 精品人人妻人人澡人人爽人人 | 久青草影院在线观看国产 | 色欲人妻aaaaaaa无码 | 亚洲精品午夜国产va久久成人 | 又湿又紧又大又爽a视频国产 | 国产精品亚洲а∨无码播放麻豆 | 亚洲中文字幕va福利 | 少女韩国电视剧在线观看完整 | 又大又紧又粉嫩18p少妇 | 天天躁夜夜躁狠狠是什么心态 | 国内精品人妻无码久久久影院 | 免费国产成人高清在线观看网站 | 亚洲日韩一区二区 | 日韩精品乱码av一区二区 | 狠狠综合久久久久综合网 | 丰腴饱满的极品熟妇 | 国产精品怡红院永久免费 | 免费乱码人妻系列无码专区 | 图片区 小说区 区 亚洲五月 | 久久精品人妻少妇一区二区三区 | 成 人影片 免费观看 | 无遮挡国产高潮视频免费观看 | 中文字幕日韩精品一区二区三区 | 日韩在线不卡免费视频一区 | 人妻人人添人妻人人爱 | 亚洲区小说区激情区图片区 | 久久99热只有频精品8 | 欧美性色19p | 天堂а√在线地址中文在线 | 亚洲成av人片天堂网无码】 | 中文字幕无码视频专区 | 国产情侣作爱视频免费观看 | 国产特级毛片aaaaaa高潮流水 | 亚洲综合另类小说色区 | 国产激情艳情在线看视频 | 国产精品无码一区二区桃花视频 | 国内精品人妻无码久久久影院 | 超碰97人人做人人爱少妇 | 天堂在线观看www | 亚洲色欲色欲天天天www | 久久99精品久久久久婷婷 | 天天av天天av天天透 | 国产做国产爱免费视频 | 秋霞成人午夜鲁丝一区二区三区 | 两性色午夜视频免费播放 | 国产成人人人97超碰超爽8 | 黄网在线观看免费网站 | a在线观看免费网站大全 | 清纯唯美经典一区二区 | 樱花草在线播放免费中文 | 少妇久久久久久人妻无码 | 国产精品久久国产精品99 | 色欲久久久天天天综合网精品 | 亚洲精品午夜无码电影网 | 人妻熟女一区 | 东京热无码av男人的天堂 | 老熟妇仑乱视频一区二区 | 一本久道高清无码视频 | 99在线 | 亚洲 | 丰满少妇高潮惨叫视频 | 99久久99久久免费精品蜜桃 | 成 人 网 站国产免费观看 | 国产农村乱对白刺激视频 | 高潮喷水的毛片 | 久久久www成人免费毛片 | 台湾无码一区二区 | 欧美国产日产一区二区 | 免费国产黄网站在线观看 | 久在线观看福利视频 | 久久国产自偷自偷免费一区调 | 日本www一道久久久免费榴莲 | 国产在线精品一区二区三区直播 | 中国女人内谢69xxxxxa片 | 中文字幕 亚洲精品 第1页 | 日本一区二区三区免费高清 | 久久精品人人做人人综合试看 | 无码人妻丰满熟妇区毛片18 | 一个人看的www免费视频在线观看 | 欧美精品在线观看 | 国产精品理论片在线观看 | 亚洲午夜无码久久 | 日本护士xxxxhd少妇 | 久久久久久亚洲精品a片成人 | 精品国产一区av天美传媒 | 国内精品久久毛片一区二区 | 亚洲精品国产精品乱码不卡 | 中文字幕无码免费久久99 | 国内老熟妇对白xxxxhd | 成人无码影片精品久久久 | 国产精品毛片一区二区 | 成年美女黄网站色大免费视频 | 人妻无码αv中文字幕久久琪琪布 | 久久亚洲国产成人精品性色 | 日韩成人一区二区三区在线观看 | 偷窥村妇洗澡毛毛多 | 中文字幕无码av激情不卡 | 久久久久久a亚洲欧洲av冫 | 亚洲欧美综合区丁香五月小说 | 亚洲精品国产精品乱码视色 | 国产三级久久久精品麻豆三级 | 亚洲成a人片在线观看无码3d | 99久久精品无码一区二区毛片 | 欧美精品国产综合久久 | 欧美人与物videos另类 | 精品一区二区三区波多野结衣 | 国产成人无码午夜视频在线观看 | 老熟妇乱子伦牲交视频 | 巨爆乳无码视频在线观看 | 亚洲精品国产a久久久久久 | 国产美女极度色诱视频www | 鲁一鲁av2019在线 | 久久久精品欧美一区二区免费 | 天天摸天天透天天添 | 国产精品无码mv在线观看 | 日本熟妇大屁股人妻 | 欧美老熟妇乱xxxxx | 三级4级全黄60分钟 | 在线视频网站www色 | 日韩精品乱码av一区二区 | 欧美35页视频在线观看 | 青春草在线视频免费观看 | 欧美性猛交内射兽交老熟妇 | 97久久精品无码一区二区 | 午夜福利一区二区三区在线观看 | 欧美丰满熟妇xxxx | 亚洲乱码日产精品bd | 国产精品久久久久久无码 | 国产网红无码精品视频 | 波多野结衣高清一区二区三区 | 亚洲精品一区二区三区在线 | 精品久久综合1区2区3区激情 | 无码纯肉视频在线观看 | 国产午夜福利100集发布 | 人妻少妇精品无码专区动漫 | 狠狠cao日日穞夜夜穞av | 国产精品无码永久免费888 | 在线 国产 欧美 亚洲 天堂 | 好男人www社区 | 欧美老熟妇乱xxxxx | 国产69精品久久久久app下载 | 强辱丰满人妻hd中文字幕 | 久久亚洲国产成人精品性色 | 亚洲精品美女久久久久久久 | 初尝人妻少妇中文字幕 | 亚洲阿v天堂在线 | 玩弄中年熟妇正在播放 | 国产又爽又黄又刺激的视频 | 少女韩国电视剧在线观看完整 | 国产偷自视频区视频 | 日韩在线不卡免费视频一区 | 久久精品国产99精品亚洲 | 丰满少妇熟乱xxxxx视频 | 少妇厨房愉情理9仑片视频 | 欧美 丝袜 自拍 制服 另类 | 男女爱爱好爽视频免费看 | 国产精品无码一区二区桃花视频 | 亚洲国产精品无码一区二区三区 | 亚洲码国产精品高潮在线 | 中文字幕乱妇无码av在线 | 久久久精品456亚洲影院 | 2019nv天堂香蕉在线观看 | 午夜丰满少妇性开放视频 | 男人的天堂av网站 | 一个人免费观看的www视频 | 国产精品久久久久7777 | 亚洲精品国产第一综合99久久 | 国产精品二区一区二区aⅴ污介绍 | 综合网日日天干夜夜久久 | 又粗又大又硬又长又爽 | 丝袜美腿亚洲一区二区 | 色五月丁香五月综合五月 | 九九在线中文字幕无码 | 亚洲码国产精品高潮在线 | 国产无套内射久久久国产 | 黑森林福利视频导航 | 国产后入清纯学生妹 | 熟妇激情内射com | 熟妇人妻无乱码中文字幕 | 国产精品亚洲а∨无码播放麻豆 | 久久人妻内射无码一区三区 | v一区无码内射国产 | 日韩精品久久久肉伦网站 | 中文字幕人妻无码一夲道 | 在线 国产 欧美 亚洲 天堂 | 亚洲色大成网站www国产 | 国产激情无码一区二区app | 国产精品久久福利网站 | 国产av久久久久精东av | 日产精品99久久久久久 | 亚洲精品成a人在线观看 | 99久久亚洲精品无码毛片 | 成人综合网亚洲伊人 | 国产一区二区三区四区五区加勒比 | 久久精品丝袜高跟鞋 | 日韩人妻系列无码专区 | 性欧美大战久久久久久久 | 我要看www免费看插插视频 | 俄罗斯老熟妇色xxxx | 无码任你躁久久久久久久 | 国产特级毛片aaaaaa高潮流水 | 国产精品人人妻人人爽 | 中文字幕人成乱码熟女app | 97资源共享在线视频 | 日本一区二区三区免费高清 | 99久久精品无码一区二区毛片 | 性做久久久久久久免费看 | 又湿又紧又大又爽a视频国产 | 久久精品人人做人人综合 | 国产亚洲精品久久久ai换 | 成人欧美一区二区三区黑人 | 日本肉体xxxx裸交 | 一二三四在线观看免费视频 | 日日橹狠狠爱欧美视频 | 亚洲男人av天堂午夜在 | 在线看片无码永久免费视频 | 亚洲精品国产品国语在线观看 | 领导边摸边吃奶边做爽在线观看 | 国产成人综合美国十次 | 国产9 9在线 | 中文 | 亚洲精品美女久久久久久久 | 久在线观看福利视频 | 国产偷国产偷精品高清尤物 | 国产猛烈高潮尖叫视频免费 | 丝袜人妻一区二区三区 | 天天躁日日躁狠狠躁免费麻豆 | 亚洲の无码国产の无码影院 | 国产猛烈高潮尖叫视频免费 | 亚洲人成影院在线观看 | 免费看男女做好爽好硬视频 | 国产成人综合色在线观看网站 | 国产真实伦对白全集 | 风流少妇按摩来高潮 | 久久伊人色av天堂九九小黄鸭 | 爆乳一区二区三区无码 | 成 人 网 站国产免费观看 | 亚洲色欲久久久综合网东京热 | 国产一区二区三区精品视频 | 成人免费视频视频在线观看 免费 | 国产成人精品优优av | 免费观看又污又黄的网站 | 中文字幕乱妇无码av在线 | 色综合天天综合狠狠爱 | 少妇被粗大的猛进出69影院 | 麻豆av传媒蜜桃天美传媒 | 国产成人人人97超碰超爽8 | 樱花草在线社区www | 亚洲伊人久久精品影院 | ass日本丰满熟妇pics | 国内精品一区二区三区不卡 | 成人aaa片一区国产精品 | 亚洲熟悉妇女xxx妇女av | 少妇性l交大片欧洲热妇乱xxx | 精品夜夜澡人妻无码av蜜桃 | 国产成人无码a区在线观看视频app | 无码人妻精品一区二区三区下载 | 国产国产精品人在线视 | 日韩精品久久久肉伦网站 | 东京热男人av天堂 | 亚洲国产欧美在线成人 | 澳门永久av免费网站 | 久久精品国产精品国产精品污 | 人人妻人人澡人人爽精品欧美 | 国产特级毛片aaaaaa高潮流水 | 国产精品永久免费视频 | a在线亚洲男人的天堂 | 男女性色大片免费网站 | 亚洲欧美国产精品久久 | 乱人伦中文视频在线观看 | 欧美性生交xxxxx久久久 | 国产精品久久久久久亚洲影视内衣 | 色窝窝无码一区二区三区色欲 | 熟妇人妻中文av无码 | 狠狠躁日日躁夜夜躁2020 | 狠狠色丁香久久婷婷综合五月 | 久久综合香蕉国产蜜臀av | 人人妻人人藻人人爽欧美一区 | 免费看少妇作爱视频 | 无码成人精品区在线观看 | 欧美人与动性行为视频 | 激情爆乳一区二区三区 | 国产精品无码一区二区三区不卡 | 国产亚洲精品久久久闺蜜 | 久久亚洲精品中文字幕无男同 | 小sao货水好多真紧h无码视频 | www国产精品内射老师 | 亚洲а∨天堂久久精品2021 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 精品人妻中文字幕有码在线 | 国产内射爽爽大片视频社区在线 | 中文字幕无码av波多野吉衣 | 青草青草久热国产精品 | 亚洲精品一区二区三区在线观看 | 午夜成人1000部免费视频 | 麻豆国产丝袜白领秘书在线观看 | 国产成人综合在线女婷五月99播放 | 亚洲精品一区二区三区婷婷月 | 又紧又大又爽精品一区二区 | 国产三级久久久精品麻豆三级 | 欧美日韩综合一区二区三区 | 国产莉萝无码av在线播放 | 377p欧洲日本亚洲大胆 | 一个人看的www免费视频在线观看 | 国产亚洲精品久久久久久国模美 | 成人亚洲精品久久久久 | 爆乳一区二区三区无码 | 377p欧洲日本亚洲大胆 | 国产人妻大战黑人第1集 | 国产精品无套呻吟在线 | 亚洲娇小与黑人巨大交 | 亚洲人亚洲人成电影网站色 | 丰满肥臀大屁股熟妇激情视频 | 亚洲国产精品成人久久蜜臀 | 亚洲爆乳大丰满无码专区 | 亚洲熟妇色xxxxx欧美老妇 | 亚洲国产精品美女久久久久 | а天堂中文在线官网 | 国产精品无码一区二区三区不卡 | 国产欧美熟妇另类久久久 | 2020久久超碰国产精品最新 | 99久久精品午夜一区二区 | 亚洲精品一区三区三区在线观看 | 精品夜夜澡人妻无码av蜜桃 | 日本爽爽爽爽爽爽在线观看免 | 老熟妇仑乱视频一区二区 | 欧美精品免费观看二区 | 亚洲 激情 小说 另类 欧美 | 少妇被粗大的猛进出69影院 | 蜜臀aⅴ国产精品久久久国产老师 | 男女超爽视频免费播放 | 男人的天堂av网站 | 窝窝午夜理论片影院 | 亚无码乱人伦一区二区 | 久久午夜无码鲁丝片 | 天天av天天av天天透 | 国产成人一区二区三区别 | 熟妇人妻无码xxx视频 | 日本精品久久久久中文字幕 | 国产精品亚洲专区无码不卡 | 中文字幕无码人妻少妇免费 | 亚洲人成无码网www | 国产成人综合色在线观看网站 | 色欲综合久久中文字幕网 | 国产成人综合色在线观看网站 | 免费观看的无遮挡av | 久久久久成人精品免费播放动漫 | 人妻少妇精品久久 | 亚洲日本一区二区三区在线 | 国内精品一区二区三区不卡 | 人人妻人人澡人人爽欧美一区 | 麻豆精产国品 | 99精品无人区乱码1区2区3区 | 少妇久久久久久人妻无码 | 午夜精品一区二区三区在线观看 | 久久综合狠狠综合久久综合88 | 国产在线无码精品电影网 | 噜噜噜亚洲色成人网站 | 天海翼激烈高潮到腰振不止 | 一本一道久久综合久久 | 欧美阿v高清资源不卡在线播放 | 丰满人妻翻云覆雨呻吟视频 | 中文字幕乱码亚洲无线三区 | 亚洲の无码国产の无码步美 | 十八禁真人啪啪免费网站 | 乱人伦人妻中文字幕无码久久网 | 国产小呦泬泬99精品 | 高潮毛片无遮挡高清免费视频 | 国产成人精品久久亚洲高清不卡 | 国产人妻精品午夜福利免费 | 国产熟女一区二区三区四区五区 | 一本无码人妻在中文字幕免费 | 日韩av激情在线观看 | 爆乳一区二区三区无码 | 久久精品成人欧美大片 | 国产人妖乱国产精品人妖 | 国产欧美熟妇另类久久久 | 日本护士xxxxhd少妇 | 欧美刺激性大交 | 日本一区二区三区免费播放 | 久久精品国产亚洲精品 | 日韩人妻无码中文字幕视频 | 亚洲综合伊人久久大杳蕉 | 精品无码一区二区三区爱欲 | 欧美日本日韩 | 2020久久香蕉国产线看观看 | 国产精品久久久 | 国产av无码专区亚洲a∨毛片 | 国产亚洲精品久久久久久国模美 | 亚洲成色在线综合网站 | 欧美日韩亚洲国产精品 | 中文精品久久久久人妻不卡 | 亚洲狠狠色丁香婷婷综合 | 国产绳艺sm调教室论坛 | 免费人成网站视频在线观看 | 纯爱无遮挡h肉动漫在线播放 | 国产卡一卡二卡三 | 国产人妻精品一区二区三区 | 大肉大捧一进一出好爽视频 | 国产精品无码永久免费888 | 亚洲综合伊人久久大杳蕉 | 色综合天天综合狠狠爱 | 日韩成人一区二区三区在线观看 | 牛和人交xxxx欧美 | 亚洲日本在线电影 | 精品无人国产偷自产在线 | 亚洲色欲色欲天天天www | 无码人妻精品一区二区三区下载 | 亚洲成色www久久网站 | 精品一区二区三区无码免费视频 | 日本精品久久久久中文字幕 | 久久精品国产精品国产精品污 | 成人试看120秒体验区 | 青青青手机频在线观看 | 亚洲精品国偷拍自产在线麻豆 | 67194成是人免费无码 | 国产亚洲精品久久久ai换 | 久久天天躁夜夜躁狠狠 | 国产成人人人97超碰超爽8 | 一本久道久久综合婷婷五月 | 日本饥渴人妻欲求不满 | 亚洲无人区午夜福利码高清完整版 | 精品人妻人人做人人爽 | 狠狠亚洲超碰狼人久久 | 精品水蜜桃久久久久久久 | 国产特级毛片aaaaaaa高清 | 女人和拘做爰正片视频 | 未满小14洗澡无码视频网站 | 精品无码av一区二区三区 | 欧美人与善在线com | 久久精品中文闷骚内射 | 中文字幕 人妻熟女 | 国色天香社区在线视频 | www成人国产高清内射 | 日韩成人一区二区三区在线观看 | 伊人久久大香线蕉亚洲 | 98国产精品综合一区二区三区 | 国产明星裸体无码xxxx视频 | 伊人久久大香线蕉av一区二区 | 欧美亚洲日韩国产人成在线播放 | 77777熟女视频在线观看 а天堂中文在线官网 | 中文亚洲成a人片在线观看 | 国产sm调教视频在线观看 | 中文字幕精品av一区二区五区 | 玩弄人妻少妇500系列视频 | 免费观看又污又黄的网站 | 日韩成人一区二区三区在线观看 | 免费看男女做好爽好硬视频 | 日韩av无码一区二区三区 | 天海翼激烈高潮到腰振不止 | 噜噜噜亚洲色成人网站 | 少妇高潮喷潮久久久影院 | 亚洲男人av天堂午夜在 | 伦伦影院午夜理论片 | 国产亚洲精品精品国产亚洲综合 | 亲嘴扒胸摸屁股激烈网站 | 在线精品亚洲一区二区 | 67194成是人免费无码 | 精品水蜜桃久久久久久久 | 99久久精品日本一区二区免费 | 国产午夜福利100集发布 | 狠狠色丁香久久婷婷综合五月 | 精品国产一区av天美传媒 | 一个人看的www免费视频在线观看 | 国产av久久久久精东av | 国产成人一区二区三区别 | 亚洲精品国偷拍自产在线麻豆 | 欧美亚洲国产一区二区三区 | 国产性生交xxxxx无码 | 国产激情综合五月久久 | 最近免费中文字幕中文高清百度 | 亚洲精品一区二区三区在线观看 | 国内丰满熟女出轨videos | 荫蒂添的好舒服视频囗交 | 免费乱码人妻系列无码专区 | 天天躁日日躁狠狠躁免费麻豆 | 蜜臀av无码人妻精品 | 丰满诱人的人妻3 | 国产疯狂伦交大片 | 成人精品视频一区二区三区尤物 | 天天拍夜夜添久久精品 | 亚洲爆乳大丰满无码专区 | 一本久久a久久精品亚洲 | 国产成人无码午夜视频在线观看 | 激情亚洲一区国产精品 | 国产成人无码午夜视频在线观看 | 国産精品久久久久久久 | 色综合久久久久综合一本到桃花网 | 中文字幕无码免费久久9一区9 | 鲁大师影院在线观看 | 日本大香伊一区二区三区 | 女人被爽到呻吟gif动态图视看 | 中文字幕日产无线码一区 | 无码av免费一区二区三区试看 | 国产深夜福利视频在线 | 久久国产精品_国产精品 | 中文字幕无码日韩欧毛 | 国产超级va在线观看视频 | 性生交大片免费看女人按摩摩 | 久久国产精品萌白酱免费 | 疯狂三人交性欧美 | 亚洲国产精品成人久久蜜臀 | 久久综合网欧美色妞网 | 国产精品久久国产精品99 | 水蜜桃亚洲一二三四在线 | 麻豆av传媒蜜桃天美传媒 | 国产一精品一av一免费 | 欧美性色19p | 丰满妇女强制高潮18xxxx | 欧美精品在线观看 | 激情亚洲一区国产精品 | 国产 精品 自在自线 | 日本va欧美va欧美va精品 | 老司机亚洲精品影院无码 | 亚洲熟妇色xxxxx欧美老妇 | 国产亚洲视频中文字幕97精品 | 欧美喷潮久久久xxxxx | 亚洲性无码av中文字幕 | 97无码免费人妻超级碰碰夜夜 | 亚洲热妇无码av在线播放 | 男人和女人高潮免费网站 | 国产真人无遮挡作爱免费视频 | 亚洲经典千人经典日产 | √8天堂资源地址中文在线 | 亚洲一区二区三区偷拍女厕 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 中文无码成人免费视频在线观看 | 久久99久久99精品中文字幕 | 久久国产36精品色熟妇 | 国产精品美女久久久久av爽李琼 | 夜夜夜高潮夜夜爽夜夜爰爰 | 午夜福利一区二区三区在线观看 | 亚洲色在线无码国产精品不卡 | 久久亚洲日韩精品一区二区三区 | 成人欧美一区二区三区黑人免费 | 性啪啪chinese东北女人 | 欧美日韩人成综合在线播放 | 国内精品久久久久久中文字幕 | 国产精品久久精品三级 | 成人免费无码大片a毛片 | 国产精品va在线观看无码 | 亚洲理论电影在线观看 | 免费无码的av片在线观看 | 久久午夜夜伦鲁鲁片无码免费 | 四十如虎的丰满熟妇啪啪 | 蜜桃视频韩日免费播放 | 国产偷自视频区视频 | 67194成是人免费无码 | 亚洲国产一区二区三区在线观看 | 久久久精品456亚洲影院 | 亚洲精品国产品国语在线观看 | 亚洲成av人影院在线观看 | 少妇性荡欲午夜性开放视频剧场 | 少妇的肉体aa片免费 | 欧美日韩一区二区免费视频 | 国产莉萝无码av在线播放 | 牲欲强的熟妇农村老妇女 | 久久精品中文字幕一区 | 乱人伦人妻中文字幕无码久久网 | 国产精品亚洲lv粉色 | 亚洲爆乳精品无码一区二区三区 | 亚洲中文字幕乱码av波多ji | 精品 日韩 国产 欧美 视频 | 欧美怡红院免费全部视频 | 国产精品久久国产三级国 | 乌克兰少妇性做爰 | 久久精品国产一区二区三区 | 国产成人综合色在线观看网站 | 亚洲国产日韩a在线播放 | 无码人妻精品一区二区三区下载 | 思思久久99热只有频精品66 | 人人妻人人澡人人爽人人精品浪潮 | 乱码av麻豆丝袜熟女系列 | 在线a亚洲视频播放在线观看 | 午夜无码人妻av大片色欲 | 国产精品久久久久久亚洲毛片 | 欧美性猛交内射兽交老熟妇 | 人妻有码中文字幕在线 | 中国女人内谢69xxxx | 精品国产一区av天美传媒 | 天天躁日日躁狠狠躁免费麻豆 | 人人妻人人澡人人爽精品欧美 | 亚洲区欧美区综合区自拍区 | 久久精品中文字幕一区 | 黑人巨大精品欧美黑寡妇 | 国产精品无码mv在线观看 | 99久久精品国产一区二区蜜芽 | 久久精品人人做人人综合试看 | 天海翼激烈高潮到腰振不止 | 精品久久久久久亚洲精品 | 对白脏话肉麻粗话av | 国产精品久久久久7777 | 小sao货水好多真紧h无码视频 | 亚洲色成人中文字幕网站 | 国产精品久久久久无码av色戒 | 亚洲精品成人福利网站 | 国产97人人超碰caoprom | 亚洲成av人在线观看网址 | 国产亚洲精品久久久久久久 | 久久99精品久久久久久动态图 | 午夜无码人妻av大片色欲 | 久久久久国色av免费观看性色 | 毛片内射-百度 | 日本一本二本三区免费 | 丰满少妇人妻久久久久久 | 少妇无码一区二区二三区 | 国产亚洲美女精品久久久2020 | 少妇性荡欲午夜性开放视频剧场 | 无码福利日韩神码福利片 | 性欧美熟妇videofreesex | 天天av天天av天天透 | 国产xxx69麻豆国语对白 | 成 人影片 免费观看 | 老头边吃奶边弄进去呻吟 | 一本色道婷婷久久欧美 | 在教室伦流澡到高潮hnp视频 | 欧美性猛交xxxx富婆 | 久久久久99精品国产片 | 亚洲熟熟妇xxxx | 永久黄网站色视频免费直播 | 日本精品人妻无码77777 天堂一区人妻无码 | 久久久久成人片免费观看蜜芽 | 亚洲大尺度无码无码专区 | 日本一本二本三区免费 | 国产乱人无码伦av在线a | 久久精品女人的天堂av | 欧美日本精品一区二区三区 | 久久精品视频在线看15 | 377p欧洲日本亚洲大胆 | 成年美女黄网站色大免费全看 | 中文字幕av无码一区二区三区电影 | 荫蒂被男人添的好舒服爽免费视频 | 2020久久香蕉国产线看观看 | 又粗又大又硬毛片免费看 | 欧美丰满熟妇xxxx | 夫妻免费无码v看片 | 免费无码av一区二区 | 色综合久久久无码中文字幕 | 无码福利日韩神码福利片 | 麻豆av传媒蜜桃天美传媒 | 亚洲精品国产品国语在线观看 | 色综合久久久久综合一本到桃花网 | 日日噜噜噜噜夜夜爽亚洲精品 | 日本精品人妻无码77777 天堂一区人妻无码 | 风流少妇按摩来高潮 | 扒开双腿吃奶呻吟做受视频 | 秋霞特色aa大片 | 国产乱码精品一品二品 | 成人精品一区二区三区中文字幕 | 亚洲欧美综合区丁香五月小说 | 欧美老熟妇乱xxxxx | 亚洲成在人网站无码天堂 | 波多野结衣 黑人 | 国内少妇偷人精品视频 | 亚洲狠狠婷婷综合久久 | www国产精品内射老师 | 欧美人与禽zoz0性伦交 | 精品国产一区av天美传媒 | 无码午夜成人1000部免费视频 | 少妇无码吹潮 | 欧美黑人巨大xxxxx | 国产69精品久久久久app下载 | 鲁鲁鲁爽爽爽在线视频观看 | 性欧美牲交xxxxx视频 | 无码av最新清无码专区吞精 | 久久99热只有频精品8 | 色综合久久中文娱乐网 | 欧美性猛交内射兽交老熟妇 | 亚洲国产精品一区二区第一页 | 18精品久久久无码午夜福利 |