久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读

發(fā)布時間:2025/3/21 编程问答 30 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Paper:《Graph Neural Networks: A Review of Methods and Applications》翻譯與解讀

?

?

目錄

《Graph Neural Networks: A Review of Methods and Applications》翻譯與解讀

Abstract

1. Introduction

2. Neural Networks as Relational Graphs

2.1. Message Exchange over Graphs

2.2. Fixed-width MLPs as Relational Graphs

2.3. General Neural Networks as Relational Graphs

3. Exploring Relational Graphs

3.1. Selection of Graph Measures

3.2. Design of Graph Generators

3.3. Controlling Computational Budget

4. Experimental Setup

4.1. Base Architectures

4.2. Exploration with Relational Graphs

5. Results

5.1. A Sweet Spot for Top Neural Networks

5.2. Neural Network Performance as a Smooth Function over Graph Measures

5.3. Consistency across Architectures

5.4. Quickly Identifying a Sweet Spot

5.5. Network Science and Neuroscience Connections

6. Related Work

7. Discussions

8. Conclusion

Acknowledgments


?

?

《Graph Neural Networks: A Review of Methods and Applications》翻譯與解讀

原論文地址
https://arxiv.org/pdf/2007.06559.pdf
https://arxiv.org/abs/2007.06559

Comments:

ICML 2020

[Submitted on 13 Jul 2020]

Subjects:Machine Learning (cs.LG); Computer Vision and Pattern Recognition (cs.CV); Social and Information Networks (cs.SI); Machine Learning (stat.ML)
Cite as:arXiv:2007.06559?[cs.LG]
(or?arXiv:2007.06559v1?[cs.LG]?for this version)

?

Abstract

Neural networks are often represented as graphs of connections between neurons. However, despite their wide use, there is currently little understanding of the relationship between the graph structure of the neural network and its predictive performance. Here we systematically investigate how does the graph structure of neural networks affect their predictive performance. To this end, we develop a novel graph-based representation of neural networks called relational graph, where layers of neural network computation correspond to rounds of message exchange along the graph structure. Using this representation we show that: (1) a "sweet spot" of relational graphs leads to neural networks with significantly improved predictive performance; (2) neural network's performance is approximately a smooth function of the clustering coefficient and average path length of its relational graph; (3) our findings are consistent across many different tasks and datasets; (4) the sweet spot can be identified efficiently; (5) top-performing neural networks have graph structure surprisingly similar to those of real biological neural networks. Our work opens new directions for the design of neural architectures and the understanding on neural networks in general.

神經網絡通常用神經元之間的連接圖來表示。然而,盡管它們被廣泛使用,目前人們對神經網絡的圖結構與其預測性能之間的關系知之甚少。在這里,我們系統(tǒng)地研究如何圖結構的神經網絡影響其預測性能。為此,我們開發(fā)了一種新的基于圖的神經網絡表示,稱為關系圖,其中神經網絡計算的層對應于沿著圖結構的消息交換輪數(shù)。利用這種表示法,我們證明:

  • (1)關系圖的“最佳點”可以顯著提高神經網絡的預測性能;
  • (2)神經網絡的性能近似為其關系圖的聚類系數(shù)和平均路徑長度的平滑函數(shù);
  • (3)我們的發(fā)現(xiàn)在許多不同的任務和數(shù)據(jù)集上是一致的;
  • (4)有效識別最佳點;
  • (5)性能最好的神經網絡具有與真實生物神經網絡驚人相似的圖結構。我們的工作為一般神經網絡的設計和理解開辟了新的方向。

?

?

1. Introduction

Deep neural networks consist of neurons organized into layers and connections between them. Architecture of a neural network can be captured by its “computational graph” where neurons are represented as nodes and directed edges link neurons in different layers. Such graphical representation demonstrates how the network passes and transforms the information from its input neurons, through hidden layers?all the way to the output neurons (McClelland et al., 1986). While it has been widely observed that performance of neural networks depends on their architecture (LeCun et al., 1998; Krizhevsky et al., 2012; Simonyan & Zisserman, 2015; Szegedy et al., 2015; He et al., 2016), there is currently little systematic understanding on the relation between a neural network’s accuracy and its underlying graph structure. This is especially important for the neural architecture search, which today exhaustively searches over all possible connectivity patterns (Ying et al., 2019). From this perspective, several open questions arise:

  • Is there a systematic link between the network structure and its predictive performance?
  • What are structural signatures of well-performing neural networks?
  • How do such structural signatures generalize across tasks and datasets?
  • Is there an efficient way to check whether a given neural network is promising or not?

Establishing such a relation is both scientifically and practically important because it would have direct consequences on designing more efficient and more accurate architectures. It would also inform the design of new hardware architectures that execute neural networks. Understanding the graph structures that underlie neural networks would also advance the science of deep learning.

However, establishing the relation between network architecture and its accuracy is nontrivial, because it is unclear how to map a neural network to a graph (and vice versa). The natural choice would be to use computational graph representation but it has many limitations: (1) lack of generality: Computational graphs are constrained by the allowed graph properties, e.g., these graphs have to be directed and acyclic (DAGs), bipartite at the layer level, and single-in-single-out at the network level (Xie et al., 2019). This limits the use of the rich tools developed for general graphs. (2) Disconnection with biology/neuroscience: Biological neural networks have a much richer and less templatized structure (Fornito et al., 2013). There are information exchanges, rather than just single-directional flows, in the brain networks (Stringer et al., 2018). Such biological or neurological models cannot be simply represented by directed acyclic graphs.

深層神經網絡由神經元組成,這些神經元被組織成層,并在層與層之間建立聯(lián)系。神經網絡的結構可以通過它的“計算圖”來捕獲,其中神經元被表示為節(jié)點,有向邊連接不同層次的神經元。這樣的圖形表示演示了網絡如何傳遞和轉換來自輸入神經元的信息,通過隱藏層一直到輸出神經元(McClelland et al., 1986)。雖然已廣泛觀察到神經網絡的性能取決于其結構(LeCun et al., 1998;Krizhevsky等,2012;Simonyan & Zisserman, 2015;Szegedy等,2015;對于神經網絡的精度與其底層圖結構之間的關系,目前尚無系統(tǒng)的認識。這對于神經結構搜索來說尤為重要,如今,神經結構搜索遍尋所有可能的連通性模式(Ying等人,2019)。從這個角度來看,幾個開放的問題出現(xiàn)了:

  • 網絡結構和它的預測性能之間是否有系統(tǒng)的聯(lián)系?
  • 性能良好的神經網絡的結構特征是什么?
  • 這種結構特征如何在任務和數(shù)據(jù)集之間泛化?
  • 有沒有一種有效的方法來檢查一個給定的神經網絡是否有前途?

建立這樣的關系在科學上和實踐上都很重要,因為它將直接影響到設計更高效、更精確的架構。它還將指導執(zhí)行神經網絡的新硬件架構的設計。理解神經網絡的圖形結構也將推進深度學習科學。

然而,建立網絡架構與其準確度之間的關系并非無關緊要,因為還不清楚如何將神經網絡映射到圖(反之亦然)。自然選擇是使用計算圖表示,但它有很多限制:(1)缺乏普遍性:計算圖被限制允許圖形屬性,例如,這些圖表必須指導和無環(huán)(無進取心的人),在層級別由兩部分構成的,single-in-single-out在網絡層(謝et al ., 2019)。這限制了為一般圖形開發(fā)的豐富工具的使用。(2)與生物學/神經科學的分離:生物神經網絡具有更豐富的、更少圣殿化的結構(Fornito et al., 2013)。大腦網絡中存在著信息交換,而不僅僅是單向流動(Stringer et al., 2018)。這樣的生物或神經模型不能簡單地用有向無環(huán)圖來表示。

Here we systematically study the relationship between the graph structure of a neural network and its predictive performance. We develop a new way of representing a neural network as a graph, which we call relational graph. Our?key insight is to focus on message exchange, rather than just on directed data flow. As a simple example, for a fixedwidth fully-connected layer, we can represent one input channel and one output channel together as a single node, and an edge in the relational graph represents the message exchange between the two nodes (Figure 1(a)). Under this formulation, using appropriate message exchange definition, we show that the relational graph can represent many types of neural network layers (a fully-connected layer, a convolutional layer, etc.), while getting rid of many constraints of computational graphs (such as directed, acyclic, bipartite, single-in-single-out). One neural network layer corresponds to one round of message exchange over a relational graph, and to obtain deep networks, we perform message exchange over the same graph for several rounds. Our new representation enables us to build neural networks that are richer and more diverse and analyze them using well-established tools of network science (Barabasi & Psfai ′ , 2016).

We then design a graph generator named WS-flex that allows us to systematically explore the design space of neural networks (i.e., relation graphs). Based on the insights from neuroscience, we characterize neural networks by the clustering coefficient and average path length of their relational graphs (Figure 1(c)). Furthermore, our framework is flexible and general, as we can translate relational graphs into diverse neural architectures, including Multilayer Perceptrons (MLPs), Convolutional Neural Networks (CNNs), ResNets, etc. with controlled computational budgets (Figure 1(d)).

本文系統(tǒng)地研究了神經網絡的圖結構與其預測性能之間的關系。我們提出了一種將神經網絡表示為圖的新方法,即關系圖。我們的重點是關注消息交換,而不僅僅是定向數(shù)據(jù)流。作為一個簡單的例子,對于固定寬度的全連接層,我們可以將一個輸入通道和一個輸出通道一起表示為單個節(jié)點,關系圖中的一條邊表示兩個節(jié)點之間的消息交換(圖1(a))。在此公式下,利用適當?shù)南⒔粨Q定義,我們表明關系圖可以表示多種類型的神經網絡層(全連通層、卷積層等),同時擺脫了計算圖的許多約束(如有向、無環(huán)、二部圖、單入單出)。一個神經網絡層對應于在關系圖上進行一輪消息交換,為了獲得深度網絡,我們在同一圖上進行幾輪消息交換。我們的新表示使我們能夠構建更加豐富和多樣化的神經網絡,并使用成熟的網絡科學工具對其進行分析(Barabasi & Psfai, 2016)。

然后我們設計了一個名為WS-flex的圖形生成器,它允許我們系統(tǒng)地探索神經網絡的設計空間。關系圖)?;谏窠浛茖W的見解,我們通過聚類系數(shù)和關系圖的平均路徑長度來描述神經網絡(圖1(c))。此外,我們的框架是靈活和通用的,因為我們可以將關系圖轉換為不同的神經結構,包括多層感知器(MLPs)、卷積神經網絡(CNNs)、ResNets等,并控制計算預算(圖1(d))。

Using standard image classification datasets CIFAR-10 and ImageNet, we conduct a systematic study on how the architecture of neural networks affects their predictive performance. We make several important empirical observations:

  • A “sweet spot” of relational graphs lead to neural net?works with significantly improved performance under controlled computational budgets (Section 5.1).
  • Neural network’s performance is approximately a smooth function of the clustering coefficient and average path length of its relational graph. (Section 5.2).
  • Our findings are consistent across many architectures (MLPs, CNNs, ResNets, EfficientNet) and tasks (CIFAR-10, ImageNet) (Section 5.3).
  • The sweet spot can be identified efficiently. Identifying a sweet spot only requires a few samples of relational graphs and a few epochs of training (Section 5.4).
  • Well-performing neural networks have graph structure surprisingly similar to those of real biological neural networks (Section 5.5).

Our results have implications for designing neural network architectures, advancing the science of deep learning and improving our understanding of neural networks in general.

使用標準圖像分類數(shù)據(jù)集CIFAR-10和ImageNet,我們對神經網絡的結構如何影響其預測性能進行了系統(tǒng)研究。我們做了幾個重要的經驗觀察:

  • 關系圖的一個“最佳點”可以使神經網絡在受控的計算預算下顯著提高性能(第5.1節(jié))。
  • 神經網絡的性能近似于其聚類系數(shù)和關系圖平均路徑長度的平滑函數(shù)。(5.2節(jié))。
  • 我們的發(fā)現(xiàn)在許多體系結構(MLPs, CNNs, resnet, EfficientNet)和任務(ci遠-10,ImageNet)中是一致的(第5.3節(jié))。
  • 最佳點可以被有效地確定。確定一個最佳點只需要幾個關系圖的樣本和幾個時期的訓練(第5.4節(jié))。
  • 性能良好的神經網絡的圖形結構與真實的生物神經網絡驚人地相似(第5.5節(jié))。
  • 我們的研究結果對設計神經網絡架構、推進深度學習的科學以及提高我們對神經網絡的總體理解都有意義。

?

Figure 1: Overview of our approach. (a) A layer of a neural network can be viewed as a relational graph where we connect nodes that exchange messages. (b) More examples of neural network layers and relational graphs. (c) We explore the design space of relational graphs according to their graph measures, including average path length and clustering coefficient, where the complete graph corresponds to a fully-connected layer. (d) We translate these relational graphs to neural networks and study how their predictive performance depends on the graph measures of their corresponding relational graphs.

圖1:我們方法的概述。(a)神經網絡的一層可以看作是一個關系圖,在這里我們連接交換消息的節(jié)點。(b)神經網絡層和關系圖的更多例子。(c)我們根據(jù)關系圖的圖度量來探索關系圖的設計空間,包括平均路徑長度和聚類系數(shù),其中完全圖對應一個全連通層。我們將這些關系圖轉換為神經網絡,并研究它們的預測性能如何取決于對應關系圖的圖度量。

?

?

2. Neural Networks as Relational Graphs

To explore the graph structure of neural networks, we first introduce the concept of our relational graph representation and its instantiations. We demonstrate how our representation can capture diverse neural network architectures under a unified framework. Using the language of graph in the context of deep learning helps bring the two worlds together and establish a foundation for our study.

為了探討神經網絡的圖結構,我們首先介紹關系圖表示的概念及其實例。我們將演示如何在統(tǒng)一框架下捕獲不同的神經網絡架構。在深度學習的背景下使用graph語言有助于將這兩個世界結合起來,為我們的研究奠定基礎。

2.1. Message Exchange over Graphs

We start by revisiting the definition of a neural network from the graph perspective. We define a graph G = (V, E) by its node set V = {v1, ..., vn} and edge set E ? {(vi , vj )|vi , vj ∈ V}. We assume each node v has a node feature scalar/vector xv.
我們首先從圖的角度重新討論神經網絡的定義。通過圖G = (V, E)的節(jié)點集V = {v1,…, vn}和邊集E?{(vi, vj)|vi, vj∈V}。我們假設每個節(jié)點v有一個節(jié)點特征標量/向量xv。

Table 1: Diverse neural architectures expressed in the language of relational graphs. These architectures are usually implemented as complete relational graphs, while we systematically explore more graph structures for these architectures.

表1:用關系圖語言表示的各種神經結構。這些架構通常被實現(xiàn)為完整的關系圖,而我們系統(tǒng)地為這些架構探索更多的圖結構。

Figure 2: Example of translating a 4-node relational graph to a 4-layer 65-dim MLP. We highlight the message exchange for node x1. Using different definitions of xi , fi(·), AGG(·) and R (those defined in Table 1), relational graphs can be translated to diverse neural architectures.

圖2:將4節(jié)點關系圖轉換為4層65-dim MLP的示例。我們將重點介紹節(jié)點x1的消息交換。使用xi、fi(·)、AGG(·)和R(表1中定義的)的不同定義,關系圖可以轉換為不同的神經結構。

We call graph G a relational graph, when it is associated with message exchanges between neurons. Specifically, a message exchange is defined by a message function, whose input is a node’s feature and output is a message, and an aggregation function, whose input is a set of messages and output is the updated node feature. At each round of message exchange, each node sends messages to its neighbors, and aggregates incoming messages from its neighbors. Each message is transformed at each edge through a message function f(·), then they are aggregated at each node via an aggregation function AGG(·). Suppose we conduct R rounds of message exchange, then the r-th round of message exchange for a node v can be described as

Equation 1 provides a general definition for message exchange. In the remainder of this section, we discuss how this general message exchange definition can be instantiated as different neural architectures. We summarize the different instantiations in Table 1, and provide a concrete example of instantiating a 4-layer 65-dim MLP in Figure 2.

我們稱圖G為關系圖,當它與神經元之間的信息交換有關時。具體來說,消息交換由消息函數(shù)和聚合函數(shù)定義,前者的輸入是節(jié)點的特性,輸出是消息,后者的輸入是一組消息,輸出是更新后的節(jié)點特性。在每一輪消息交換中,每個節(jié)點向它的鄰居發(fā)送消息,并聚合從它的鄰居傳入的消息。每個消息通過消息函數(shù)f(·)在每個邊進行轉換,然后通過聚合函數(shù)AGG(·)在每個節(jié)點進行聚合。假設我們進行了R輪的消息交換,那么節(jié)點v的第R輪消息交換可以描述為

公式1提供了消息交換的一般定義。在本節(jié)的其余部分中,我們將討論如何將這個通用消息交換定義實例化為不同的神經結構。我們在表1中總結了不同的實例,并在圖2中提供了實例化4層65-dim MLP的具體示例。

?

2.2. Fixed-width MLPs as Relational Graphs

A Multilayer Perceptron (MLP) consists of layers of computation units (neurons), where each neuron performs a weighted sum over scalar inputs and outputs, followed by some non-linearity. Suppose the r-th layer of an MLP takes x (r) as input and x (r+1) as output, then a neuron computes:

一個多層感知器(MLP)由多層計算單元(神經元)組成,其中每個神經元執(zhí)行標量輸入和輸出的加權和,然后是一些非線性。假設MLP的第r層以x (r)為輸入,x (r+1)為輸出,則有一個神經元計算:

The above discussion reveals that a fixed-width MLP can be viewed as a complete relational graph with a special message exchange function. Therefore, a fixed-width MLP is a special case under a much more general model family, where the message function, aggregation function, and most importantly, the relation graph structure can vary.

This insight allows us to generalize fixed-width MLPs from using complete relational graph to any general relational graph G. Based on the general definition of message exchange in Equation 1, we have:

上面的討論表明,可以將固定寬度的MLP視為具有特殊消息交換功能的完整關系圖。因此,固定寬度的MLP是更為通用的模型系列中的一種特殊情況,其中消息函數(shù)、聚合函數(shù)以及最重要的關系圖結構可能會發(fā)生變化。

這使得我們可以將固定寬度MLPs從使用完全關系圖推廣到任何一般關系圖g。根據(jù)公式1中消息交換的一般定義,我們有:

?

2.3. General Neural Networks as Relational Graphs

The graph viewpoint in Equation 3 lays the foundation of representing fixed-width MLPs as relational graphs. In this?section, we discuss how we can further generalize relational graphs to general neural networks.

Variable-width MLPs as relational graphs. An important design consideration for general neural networks is that layer width often varies through out the network. For example, in CNNs, a common practice is to double the layer width (number of feature channels) after spatial down-sampling.

式3中的圖點為將定寬MLPs表示為關系圖奠定了基礎。在這一節(jié)中,我們將討論如何進一步將關系圖推廣到一般的神經網絡。

可變寬度MLPs作為關系圖。對于一般的神經網絡,一個重要的設計考慮是網絡的層寬經常是不同的。例如,在CNNs中,常用的做法是在空間下采樣后將層寬(特征通道數(shù))增加一倍。

Note that under this definition, the maximum number of nodes of a relational graph is bounded by the width of the narrowest layer in the corresponding neural network (since the feature dimension for each node must be at least 1).

注意,在這個定義下,關系圖的最大節(jié)點數(shù)以對應神經網絡中最窄層的寬度為界(因為每個節(jié)點的特征維數(shù)必須至少為1)。

Modern neural architectures as relational graphs. Finally, we generalize relational graphs to represent modern neural architectures with more sophisticated designs. For?example, to represent a ResNet (He et al., 2016), we keep the residual connections between layers unchanged. To represent neural networks with bottleneck transform (He et al., 2016), a relational graph alternatively applies message exchange with 3×3 and 1×1 convolution; similarly, in the efficient computing setup, the widely used separable convolution (Howard et al., 2017; Chollet, 2017) can be viewed as alternatively applying message exchange with 3×3 depth-wise convolution and 1×1 convolution.

Overall, relational graphs provide a general representation for neural networks. With proper definitions of node features and message exchange, relational graphs can represent diverse neural architectures, as is summarized in Table 1.

作為關系圖的現(xiàn)代神經結構。最后,我們推廣了關系圖,用更復雜的設計來表示現(xiàn)代神經結構。例如,為了表示ResNet (He et al., 2016),我們保持層之間的剩余連接不變。為了用瓶頸變換表示神經網絡(He et al., 2016),關系圖交替應用3×3和1×1卷積的消息交換;同樣,在高效的計算設置中,廣泛使用的可分離卷積(Howard et al., 2017;Chollet, 2017)可以看作是3×3深度卷積和1×1卷積交替應用消息交換。

總的來說,關系圖提供了神經網絡的一般表示。通過正確定義節(jié)點特性和消息交換,關系圖可以表示不同的神經結構,如表1所示。

?

3. Exploring Relational Graphs

In this section, we describe in detail how we design and explore the space of relational graphs defined in Section 2, in order to study the relationship between the graph structure of neural networks and their predictive performance. Three main components are needed to make progress: (1) graph measures that characterize graph structural properties, (2) graph generators that can generate diverse graphs, and (3) a way to control the computational budget, so that the differences in performance of different neural networks are due to their diverse relational graph structures.

在本節(jié)中,我們將詳細描述如何設計和探索第二節(jié)中定義的關系圖空間,以研究神經網絡的圖結構與其預測性能之間的關系。三個主要組件是需要取得進展:(1)圖的措施描述圖的結構性質,(2)圖形發(fā)生器,可以產生不同的圖表,和(3)一種方法來控制計算預算,以便不同神經網絡的性能的差異是由于各自不同的關系圖結構。

?

3.1. Selection of Graph Measures

Given the complex nature of graph structure, graph measures are often used to characterize graphs. In this paper, we focus on one global graph measure, average path length, and one local graph measure, clustering coefficient. Notably, these two measures are widely used in network science (Watts & Strogatz, 1998) and neuroscience (Sporns, 2003; Bassett & Bullmore, 2006). Specifically, average path length measures the average shortest path distance between any pair of nodes; clustering coefficient measures the proportion of edges between the nodes within a given node’s neighborhood, divided by the number of edges that could possibly exist between them, averaged over all the nodes. There are other graph measures that can be used for analysis, which are included in the Appendix.

由于圖結構的復雜性,圖測度通常被用來刻畫圖的特征。本文主要研究了一個全局圖測度,即平均路徑長度,和一個局部圖測度,即聚類系數(shù)。值得注意的是,這兩種方法在網絡科學(Watts & Strogatz, 1998)和神經科學(Sporns, 2003;巴西特和布爾莫爾,2006年)。具體來說,平均路徑長度度量任意對節(jié)點之間的平均最短路徑距離;聚類系數(shù)度量給定節(jié)點鄰域內節(jié)點之間的邊的比例,除以它們之間可能存在的邊的數(shù)量,平均到所有節(jié)點上。還有其他可以用于分析的圖表度量,包括在附錄中。

?

3.2. Design of Graph Generators

Given selected graph measures, we aim to generate diverse graphs that can cover a large span of graph measures, using a graph generator. However, such a goal requires careful generator designs: classic graph generators can only generate a limited class of graphs, while recent learning-based graph generators are designed to imitate given exemplar graphs (Kipf & Welling, 2017; Li et al., 2018b; You et al., 2018a;b; 2019a).

Limitations of existing graph generators. To illustrate the limitation of existing graph generators, we investigate the following classic graph generators: (1) Erdos-R ? enyi ′ (ER) model that can sample graphs with given node and edge number uniformly at random (Erdos & R ? enyi ′ , 1960); (2) Watts-Strogatz (WS) model that can generate graphs with small-world properties (Watts & Strogatz, 1998); (3) Barabasi-Albert (BA) model that can generate scale-free ′ graphs (Albert & Barabasi ′ , 2002); (4) Harary model that can generate graphs with maximum connectivity (Harary, 1962); (5) regular ring lattice graphs (ring graphs); (6) complete graphs. For all types of graph generators, we control the number of nodes to be 64, enumerate all possible discrete parameters and grid search over all continuous parameters of the graph generator. We generate 30 random graphs with different random seeds under each parameter setting. In total, we generate 486,000 WS graphs, 53,000 ER graphs, 8,000 BA graphs, 1,800 Harary graphs, 54 ring graphs and 1 complete graph (more details provided in the Appendix). In Figure 3, we can observe that graphs generated by those classic graph generators have a limited span in the space of average path length and clustering coefficient.

給定選定的圖度量,我們的目標是使用圖生成器生成能夠覆蓋大范圍圖度量的不同圖。然而,這樣的目標需要仔細的生成器設計:經典的圖形生成器只能生成有限的圖形類,而最近的基于學習的圖形生成器被設計用來模仿給定的范例圖形(Kipf & Welling, 2017;李等,2018b;You等,2018a;b;2019年)。

現(xiàn)有圖形生成器的局限性。為了說明現(xiàn)有圖生成器的限制,我們調查以下經典圖生成器:(1)可以隨機統(tǒng)一地用給定節(jié)點和邊數(shù)采樣圖的厄多斯-R圖表生成器(厄多斯& R他們是在1960年);(2)能夠生成具有小世界特性圖的Watts-Strogatz (WS)模型(Watts & Strogatz, 1998);(3) barabsi -Albert (BA)模型,可以生成無尺度的’圖(Albert & Barabasi, 2002);(4)可生成最大連通性圖的Harary模型(Harary, 1962);(5)正則環(huán)格圖(環(huán)圖);(6)完成圖表。對于所有類型的圖生成器,我們控制節(jié)點數(shù)為64,枚舉所有可能的離散參數(shù),并對圖生成器的所有連續(xù)參數(shù)進行網格搜索。我們在每個參數(shù)設置下生成30個帶有不同隨機種子的隨機圖??偣采?86,000個WS圖、53,000個ER圖、8,000個BA圖、1,800個Harary圖、54個環(huán)圖和1個完整圖(詳情見附錄)。在圖3中,我們可以看到經典的圖生成器生成的圖在平均路徑長度和聚類系數(shù)的空間中具有有限的跨度。

?

WS-flex graph generator. Here we propose the WS-flex graph generator that can generate graphs with a wide coverage of graph measures; notably, WS-flex graphs almost encompass all the graphs generated by classic random generators mentioned above, as is shown in Figure 3. WSflex generator generalizes WS model by relaxing the constraint that all the nodes have the same degree before random rewiring. Specifically, WS-flex generator is parametrized by node n, average degree k and rewiring probability p. The number of edges is determined as e = bn ? k/2c. Specifically, WS-flex generator first creates a ring graph where each node connects to be/nc neighboring nodes; then the generator randomly picks e mod n nodes and connects each node to one closest neighboring node; finally, all the edges are randomly rewired with probability p. We use WS-flex generator to smoothly sample within the space of clustering coefficient and average path length, then sub-sample 3942 graphs for our experiments, as is shown in Figure 1(c).WS-flex圖生成器。在這里,我們提出了WS-flex圖形生成器,它可以生成覆蓋范圍廣泛的圖形度量;值得注意的是,WS-flex圖幾乎包含了上面提到的經典隨機生成器生成的所有圖,如圖3所示。WSflex生成器是對WS模型的一般化,它放寬了隨機重新布線前所有節(jié)點具有相同程度的約束。具體來說,WS-flex生成器由節(jié)點n、平均度k和重新布線概率p參數(shù)化。邊的數(shù)量確定為e = bn?k/2c。具體來說,WS-flex生成器首先創(chuàng)建一個環(huán)圖,其中每個節(jié)點連接到be/nc相鄰節(jié)點;然后隨機選取e mod n個節(jié)點,將每個節(jié)點連接到一個最近的相鄰節(jié)點;最后,以概率p隨機重新連接所有的邊。我們使用WS-flex生成器在聚類系數(shù)和平均路徑長度的空間內平滑采樣,然后進行我們實驗的子樣本3942張圖,如圖1(c)所示。

?

?

3.3. Controlling Computational Budget

To compare the neural networks translated by these diverse graphs, it is important to ensure that all networks have approximately the same complexity, so that the differences in performance are due to their relational graph structures. We use FLOPS (# of multiply-adds) as the metric. We first compute the FLOPS of our baseline network instantiations (i.e. complete relational graph), and use them as the reference complexity in each experiment. As described in Section 2.3, a relational graph structure can be instantiated as a neural network with variable width, by partitioning dimensions or channels into disjoint set of node features. Therefore, we?can conveniently adjust the width of a neural network to match the reference complexity (within 0.5% of baseline FLOPS) without changing the relational graph structures. We provide more details in the Appendix.

?

為了比較由這些不同圖轉換的神經網絡,確保所有網絡具有近似相同的復雜性是很重要的,這樣性能上的差異是由于它們的關系圖結構造成的。我們使用FLOPS (number of multiply- added)作為度量標準。我們首先計算我們的基線網絡實例化的失敗(即完全關系圖),并使用它們作為每個實驗的參考復雜度。如2.3節(jié)所述,通過將維度或通道劃分為節(jié)點特征的不相交集,可以將關系圖結構實例化為寬度可變的神經網絡。因此,我們可以方便地調整神經網絡的寬度,以匹配參考復雜度(在基線失敗的0.5%以內),而不改變關系圖結構。我們在附錄中提供了更多細節(jié)。

?

4. Experimental Setup

Considering the large number of candidate graphs (3942 in total) that we want to explore, we first investigate graph structure of MLPs on the CIFAR-10 dataset (Krizhevsky, 2009) which has 50K training images and 10K validation images. We then further study the larger and more complex task of ImageNet classification (Russakovsky et al., 2015), which consists of 1K image classes, 1.28M training images and 50K validation images.

考慮到我們想要探索的候選圖數(shù)量很大(總共3942個),我們首先在CIFAR-10數(shù)據(jù)集(Krizhevsky, 2009)上研究MLPs的圖結構,該數(shù)據(jù)集有50K訓練圖像和10K驗證圖像。然后,我們進一步研究了更大、更復雜的ImageNet分類任務(Russakovsky et al., 2015),包括1K圖像類、1.28M訓練圖像和50K驗證圖像。

?

?

4.1. Base Architectures

For CIFAR-10 experiments, We use a 5-layer MLP with 512 hidden units as the baseline architecture. The input of the MLP is a 3072-d flattened vector of the (32×32×3) image, the output is a 10-d prediction. Each MLP layer has a ReLU non-linearity and a BatchNorm layer (Ioffe & Szegedy, 2015). We train the model for 200 epochs with batch size 128, using cosine learning rate schedule (Loshchilov & Hutter, 2016) with an initial learning rate of 0.1 (annealed to 0, no restarting). We train all MLP models with 5 different random seeds and report the averaged results.在CIFAR-10實驗中,我們使用一個5層的MLP和512個隱藏單元作為基線架構。MLP的輸入是(32×32×3)圖像的3072 d平坦向量,輸出是10 d預測。每個MLP層具有ReLU非線性和BatchNorm層(Ioffe & Szegedy, 2015)。我們使用余弦學習率計劃(Loshchilov & Hutter, 2016)訓練批量大小為128的200個epoch的模型,初始學習率為0.1(退火到0,不重新啟動)。我們用5種不同的隨機種子訓練所有的MLP模型,并報告平均結果。
For ImageNet experiments, we use three ResNet-family architectures, including (1) ResNet-34, which only consists of basic blocks of 3×3 convolutions (He et al., 2016); (2) ResNet-34-sep, a variant where we replace all 3×3 dense convolutions in ResNet-34 with 3×3 separable convolutions (Chollet, 2017); (3) ResNet-50, which consists of bottleneck blocks (He et al., 2016) of 1×1, 3×3, 1×1 convolutions. Additionally, we use EfficientNet-B0 architecture (Tan & Le, 2019) that achieves good performance in the small computation regime. Finally, we use a simple 8- layer CNN with 3×3 convolutions. The model has 3 stages with [64, 128, 256] hidden units. Stride-2 convolutions are used for down-sampling. The stem and head layers are?the same as a ResNet. We train all the ImageNet models for 100 epochs using cosine learning rate schedule with initial learning rate of 0.1. Batch size is 256 for ResNetfamily models and 512 for EfficientNet-B0. We train all ImageNet models with 3 random seeds and report the averaged performance. All the baseline architectures have a complete relational graph structure. The reference computational complexity is 2.89e6 FLOPS for MLP, 3.66e9 FLOPS for ResNet-34, 0.55e9 FLOPS for ResNet-34-sep, 4.09e9 FLOPS for ResNet-50, 0.39e9 FLOPS for EffcientNet-B0, and 0.17e9 FLOPS for 8-layer CNN. Training an MLP model roughly takes 5 minutes on a NVIDIA Tesla V100 GPU, and training a ResNet model on ImageNet roughly takes a day on 8 Tesla V100 GPUs with data parallelism. We provide more details in Appendix.在ImageNet實驗中,我們使用了三種resnet系列架構,包括(1)ResNet-34,它只包含3×3卷積的基本塊(He et al., 2016);(2) ResNet-34-sep,將ResNet-34中的所有3×3稠密卷積替換為3×3可分離卷積(Chollet, 2017);(3) ResNet-50,由1×1,3×3,1×1卷積的瓶頸塊(He et al., 2016)組成。此外,我們使用了efficiency - net - b0架構(Tan & Le, 2019),在小計算環(huán)境下取得了良好的性能。最后,我們使用一個簡單的8層CNN, 3×3卷積。模型有3個階段,隱含單元為[64,128,256]。Stride-2卷積用于下采樣。莖和頭層與ResNet相同。我們使用初始學習率為0.1的余弦學習率計劃對所有ImageNet模型進行100個epoch的訓練。批大小是256的ResNetfamily模型和512的效率網- b0。我們用3個隨機種子訓練所有的ImageNet模型,并報告平均性能。所有的基線架構都有一個完整的關系圖結構。MLP的參考計算復雜度是2.89e6失敗,ResNet-34的3.66e9失敗,ResNet-34-sep的0.55e9失敗,ResNet-50的4.09e9失敗,EffcientNet-B0的0.39e9失敗,8層CNN的0.17e9失敗。在NVIDIA Tesla V100 GPU上訓練一個MLP模型大約需要5分鐘,而在ImageNet上訓練一個ResNet模型大約需要一天,在8個Tesla V100 GPU上使用數(shù)據(jù)并行。我們在附錄中提供更多細節(jié)。

Figure 4: Key results. The computational budgets of all the experiments are rigorously controlled. Each visualized result is averaged over at least 3 random seeds. A complete graph with C = 1 and L = 1 (lower right corner) is regarded as the baseline. (a)(c) Graph measures vs. neural network performance. The best graphs significantly outperform the baseline complete graphs. (b)(d) Single graph measure vs. neural network performance. Relational graphs that fall within the given range are shown as grey points. The overall smooth function is indicated by the blue regression line. (e) Consistency across architectures. Correlations of the performance of the same set of 52 relational graphs when translated to different neural architectures are shown. (f) Summary of all the experiments. Best relational graphs (the red crosses) consistently outperform the baseline complete graphs across different settings. Moreover, we highlight the “sweet spots” (red rectangular regions), in which relational graphs are not statistically worse than the best relational graphs (bins with red crosses). Bin values of 5-layer MLP on CIFAR-10 are average over all the relational graphs whose C and L fall into the given bin

圖4:關鍵結果。所有實驗的計算預算都是嚴格控制的。每個可視化結果至少在3個隨機種子上取平均值。以C = 1, L = 1(右下角)的完整圖作為基線。(a)(c)圖形測量與神經網絡性能。最好的圖表明顯優(yōu)于基線完整的圖表。(b)(d)單圖測量與神經網絡性能。在給定范圍內的關系圖顯示為灰色點。整體平滑函數(shù)用藍色回歸線表示。(e)架構之間的一致性。當轉換到不同的神經結構時,同一組52個關系圖的性能的相關性被顯示出來。(f)總結所有實驗。在不同的設置中,最佳關系圖(紅色叉)的表現(xiàn)始終優(yōu)于基線完整圖。此外,我們強調了“甜蜜點”(紅色矩形區(qū)域),其中關系圖在統(tǒng)計上并不比最佳關系圖(紅色叉的箱子)差。CIFAR-10上5層MLP的Bin值是C和L屬于給定Bin的所有關系圖的平均值

?

4.2. Exploration with Relational Graphs

For all the architectures, we instantiate each sampled relational graph as a neural network, using the corresponding definitions outlined in Table 1. Specifically, we replace all the dense layers (linear layers, 3×3 and 1×1 convolution layers) with their relational graph counterparts. We leave?the input and output layer unchanged and keep all the other designs (such as down-sampling, skip-connections, etc.) intact. We then match the reference computational complexity for all the models, as discussed in Section 3.3.

對于所有的架構,我們使用表1中列出的相應定義將每個抽樣的關系圖實例化為一個神經網絡。具體來說,我們將所有的稠密層(線性層、3×3和1×1卷積層)替換為對應的關系圖。我們保持輸入和輸出層不變,并保持所有其他設計(如下采樣、跳接等)不變。然后我們匹配所有模型的參考計算復雜度,如3.3節(jié)所討論的。

For CIFAR-10 MLP experiments, we study 3942 sampled relational graphs of 64 nodes as described in Section 3.2. For ImageNet experiments, due to high computational cost, we sub-sample 52 graphs uniformly from the 3942 graphs. Since EfficientNet-B0 is a small model with a layer that has only 16 channels, we can not reuse the 64-node graphs sampled for other setups. We re-sample 48 relational graphs with 16 nodes following the same procedure in Section 3.

對于CIFAR-10 MLP實驗,我們研究了包含64個節(jié)點的3942個抽樣關系圖,如3.2節(jié)所述。在ImageNet實驗中,由于計算量大,我們從3942個圖中均勻地抽取52個圖。因為efficient - b0是一個只有16個通道的層的小模型,我們不能在其他設置中重用64節(jié)點圖。我們按照第3節(jié)中相同的步驟,對48個有16個節(jié)點的關系圖重新采樣。

?

?

5. Results

In this section, we summarize the results of our experiments and discuss our key findings. We collect top-1 errors for all the sampled relational graphs on different tasks and architectures, and also record the graph measures (average path length L and clustering coefficient C) for each sampled graph. We present these results as heat maps of graph measures vs. predictive performance (Figure 4(a)(c)(f)).

在本節(jié)中,我們將總結我們的實驗結果并討論我們的主要發(fā)現(xiàn)。我們收集了不同任務和架構上的所有抽樣關系圖的top-1錯誤,并記錄了每個抽樣圖的圖度量(平均路徑長度L和聚類系數(shù)C)。我們將這些結果作為圖表測量與預測性能的熱圖(圖4(a)(c)(f))。

?

5.1. A Sweet Spot for Top Neural Networks

Overall, the heat maps of graph measures vs. predictive performance (Figure 4(f)) show that there exist graph structures that can outperform the complete graph (the pixel on bottom right) baselines. The best performing relational graph can outperform the complete graph baseline by 1.4% top-1 error on CIFAR-10, and 0.5% to 1.2% for models on ImageNet. Notably, we discover that top-performing graphs tend to cluster into a sweet spot in the space defined by C and L (red rectangles in Figure 4(f)). We follow these steps to identify a sweet spot: (1) we downsample and aggregate the 3942 graphs in Figure 4(a) into a coarse resolution of 52 bins, where each bin records the performance of graphs that fall into the bin; (2) we identify the bin with best average performance (red cross in Figure 4(f)); (3) we conduct onetailed t-test over each bin against the best-performing bin, and record the bins that are not significantly worse than the best-performing bin (p-value 0.05 as threshold). The minimum area rectangle that covers these bins is visualized as a sweet spot. For 5-layer MLP on CIFAR-10, the sweet spot is C ∈ [0.10, 0.50], L ∈ [1.82, 2.75].總的來說,圖度量與預測性能的熱圖(圖4(f))表明,存在的圖結構可以超過整個圖(右下角的像素)基線。在CIFAR-10中,表現(xiàn)最好的關系圖的top-1誤差比整個圖基線高出1.4%,而在ImageNet中,模型的top-1誤差為0.5%到1.2%。值得注意的是,我們發(fā)現(xiàn)性能最好的圖往往聚集在C和L定義的空間中的一個最佳點(圖4(f)中的紅色矩形)。我們按照以下步驟來確定最佳點:(1)我們向下采樣并將圖4(a)中的3942個圖匯總為52個大致分辨率的bin,每個bin記錄落入bin的圖的性能;(2)我們確定平均性能最佳的bin(圖4(f)中的紅十字會);(3)對每個箱子與性能最好的箱子進行最小t檢驗,記錄性能不明顯差的箱子(p-value 0.05為閾值)。覆蓋這些箱子的最小面積矩形被可視化為一個甜點點。對于CIFAR-10上的5層MLP,最優(yōu)點C∈[0.10,0.50],L∈[1.82,2.75]。

?

5.2. Neural Network Performance as a Smooth Function over Graph Measures

In Figure 4(f), we observe that neural network’s predictive performance is approximately a smooth function of the clustering coefficient and average path length of its relational graph. Keeping one graph measure fixed in a small range (C ∈ [0.4, 0.6], L ∈ [2, 2.5]), we visualize network performances against the other measure (shown in Figure 4(b)(d)). We use second degree polynomial regression to visualize the overall trend. We observe that both clustering coefficient and average path length are indicative of neural network performance, demonstrating a smooth U-shape correlation

在圖4(f)中,我們觀察到神經網絡的預測性能近似是其聚類系數(shù)和關系圖平均路徑長度的平滑函數(shù)。將一個圖度量固定在一個小范圍內(C∈[0.4,0.6],L∈[2,2.5]),我們將網絡性能與另一個度量進行可視化(如圖4(b)(d)所示)。我們使用二次多項式回歸來可視化總體趨勢。我們觀察到,聚類系數(shù)和平均路徑長度都是神經網絡性能的指標,呈平滑的u形相關

?

?

5.3. Consistency across Architectures

Figure 5: Quickly identifying a sweet spot. Left: The correlation between sweet spots identified using fewer samples of relational graphs and using all 3942 graphs. Right: The correlation between sweet spots identified at the intermediate training epochs and the final epoch (100 epochs).

圖5:快速確定最佳點。左圖:使用較少的關系圖樣本和使用全部3942幅圖識別出的甜點之間的相關性。右圖:中間訓練時期和最后訓練時期(100個時期)確定的甜蜜點之間的相關性。

Given that relational graph defines a shared design space across various neural architectures, we observe that relational graphs with certain graph measures may consistently perform well regardless of how they are instantiated.

Qualitative consistency. We visually observe in Figure 4(f) that the sweet spots are roughly consistent across different architectures. Specifically, if we take the union of the sweet spots across architectures, we have C ∈ [0.43, 0.50], L ∈ [1.82, 2.28] which is the consistent sweet spot across architectures. Moreover, the U-shape trends between graph measures and corresponding neural network performance, shown in Figure 4(b)(d), are also visually consistent.

Quantitative consistency. To further quantify this consistency across tasks and architectures, we select the 52 bins?in the heat map in Figure 4(f), where the bin value indicates the average performance of relational graphs whose graph measures fall into the bin range. We plot the correlation of the 52 bin values across different pairs of tasks, shown in Figure 4(e). We observe that the performance of relational graphs with certain graph measures correlates across different tasks and architectures. For example, even though a ResNet-34 has much higher complexity than a 5-layer MLP, and ImageNet is a much more challenging dataset than CIFAR-10, a fixed set relational graphs would perform similarly in both settings, indicated by a Pearson correlation of 0.658 (p-value < 10?8 ).

假設關系圖定義了跨各種神經結構的共享設計空間,我們觀察到,無論如何實例化,具有特定圖度量的關系圖都可以始終執(zhí)行得很好。

定性的一致性。在圖4(f)中,我們可以直觀地看到,不同架構之間的甜點點基本上是一致的。具體來說,如果我們取跨架構的甜蜜點的并集,我們有C∈[0.43,0.50],L∈[1.82,2.28],這是跨架構的一致的甜蜜點。此外,圖4(b)(d)所示的圖測度與對應的神經網絡性能之間的u形趨勢在視覺上也是一致的。

量化一致性。為了進一步量化跨任務和架構的一致性,我們在圖4(f)的熱圖中選擇了52個bin,其中bin值表示圖度量在bin范圍內的關系圖的平均性能。我們繪制52個bin值在不同任務對之間的相關性,如圖4(e)所示。我們觀察到,具有特定圖形的關系圖的性能度量了不同任務和架構之間的關聯(lián)。例如,盡管ResNet-34比5層MLP復雜得多,ImageNet是一個比ciremote -10更具挑戰(zhàn)性的數(shù)據(jù)集,一個固定的集合關系圖在兩種設置中表現(xiàn)相似,通過0.658的Pearson相關性表示(p值< 10?8)。

?

5.4. Quickly Identifying a Sweet Spot

Training thousands of relational graphs until convergence might be computationally prohibitive. Therefore, we quantitatively show that a sweet spot can be identified with much less computational cost, e.g., by sampling fewer graphs and training for fewer epochs.

How many graphs are needed? Using the 5-layer MLP on CIFAR-10 as an example, we consider the heat map over 52 bins in Figure 4(f) which is computed using 3942 graph samples. We investigate if a similar heat map can be produced with much fewer graph samples. Specifically, we sub-sample the graphs in each bin while making sure each bin has at least one graph. We then compute the correlation between the 52 bin values computed using all 3942 graphs and using sub-sampled fewer graphs, as is shown in Figure 5 (left). We can see that bin values computed using only 52 samples have a high 0.90 Pearson correlation with the bin values computed using full 3942 graph samples. This finding suggests that, in practice, much fewer graphs are needed to conduct a similar analysis.

訓練成千上萬的關系圖,直到運算上無法收斂為止。因此,我們定量地表明,可以用更少的計算成本來確定一個最佳點,例如,通過采樣更少的圖和訓練更少的epoch。

需要多少個圖?以CIFAR-10上的5層MLP為例,我們考慮圖4(f)中52個箱子上的熱圖,該熱圖使用3942個圖樣本計算。我們研究了是否可以用更少的圖表樣本制作類似的熱圖。具體來說,我們對每個容器中的圖進行子采樣,同時確保每個容器至少有一個圖。然后,我們計算使用所有3942圖和使用更少的次采樣圖計算的52個bin值之間的相關性,如圖5(左)所示。我們可以看到,僅使用52個樣本計算的bin值與使用全部3942個圖樣本計算的bin值有很高的0.90 Pearson相關性。這一發(fā)現(xiàn)表明,實際上,進行類似分析所需的圖表要少得多。

?

?

5.5. Network Science and Neuroscience Connections

Network science. The average path length that we measure characterizes how well information is exchanged across the network (Latora & Marchiori, 2001), which aligns with our definition of relational graph that consists of rounds of message exchange. Therefore, the U-shape correlation in Figure 4(b)(d) might indicate a trade-off between message exchange efficiency (Sengupta et al., 2013) and capability of learning distributed representations (Hinton, 1984). Neuroscience. The best-performing relational graph that we discover surprisingly resembles biological neural networks, as is shown in Table 2 and Figure 6. The similarities are in two-fold: (1) the graph measures (L and C) of top artificial neural networks are highly similar to biological neural networks; (2) with the relational graph representation, we can translate biological neural networks to 5-layer MLPs, and found that these networks also outperform the baseline complete graphs. While our findings are preliminary, our approach opens up new possibilities for interdisciplinary research in network science, neuroscience and deep learning.網絡科學。我們測量的平均路徑長度表征了信息在網絡中交換的良好程度(Latora & Marchiori, 2001),這與我們對包含輪消息交換的關系圖的定義一致。因此,圖4(b)(d)中的u形相關性可能表明消息交換效率(Sengupta et al., 2013)和學習分布式表示的能力(Hinton, 1984)之間的權衡。神經科學。我們發(fā)現(xiàn)的性能最好的關系圖與生物神經網絡驚人地相似,如表2和圖6所示。相似點有兩方面:
  • (1)top人工神經網絡的圖測度(L和C)與生物神經網絡高度相似;
  • (2)利用關系圖表示,我們可以將生物神經網絡轉換為5層MLPs,并發(fā)現(xiàn)這些網絡的性能也優(yōu)于基線完整圖。

雖然我們的發(fā)現(xiàn)還處于初步階段,但我們的方法為網絡科學、神經科學和深度學習領域的跨學科研究開辟了新的可能性。

?

6. Related Work

Neural network connectivity. The design of neural network connectivity patterns has been focused on computational graphs at different granularity: the macro structures, i.e. connectivity across layers (LeCun et al., 1998; Krizhevsky et al., 2012; Simonyan & Zisserman, 2015; Szegedy et al., 2015; He et al., 2016; Huang et al., 2017; Tan & Le, 2019), and the micro structures, i.e. connectivity within a layer (LeCun et al., 1998; Xie et al., 2017; Zhang et al., 2018; Howard et al., 2017; Dao et al., 2019; Alizadeh et al., 2019). Our current exploration focuses on the latter, but the same methodology can be extended to the macro space. Deep Expander Networks (Prabhu et al., 2018) adopt expander graphs to generate bipartite structures. RandWire (Xie et al., 2019) generates macro structures using existing graph generators. However, the statistical relationships between graph structure measures and network predictive performances were not explored in those works. Another related work is Cross-channel Communication Networks (Yang et al., 2019) which aims to encourage the neuron communication through message passing, where only a complete graph structure is considered.

神經網絡的連通性。神經網絡連通性模式的設計一直關注于不同粒度的計算圖:宏觀結構,即跨層連通性(LeCun et al., 1998;Krizhevsky等,2012;Simonyan & Zisserman, 2015;Szegedy等,2015;He et al., 2016;黃等,2017;Tan & Le, 2019)和微觀結構,即層內的連通性(LeCun et al., 1998;謝等,2017;張等,2018;Howard等人,2017;Dao等,2019年;Alizadeh等,2019)。我們目前的研究重點是后者,但同樣的方法可以擴展到宏觀空間。深度擴展器網絡(Prabhu et al., 2018)采用擴展器圖生成二部圖結構。RandWire (Xie等人,2019)使用現(xiàn)有的圖生成器生成宏結構。然而,圖結構測度與網絡預測性能之間的統(tǒng)計關系并沒有在這些工作中探索。另一項相關工作是跨通道通信網絡(Yang et al., 2019),旨在通過消息傳遞促進神經元通信,其中只考慮了完整的圖結構。

Neural architecture search. Efforts on learning the connectivity patterns at micro (Ahmed & Torresani, 2018; Wortsman et al., 2019; Yang et al., 2018), or macro (Zoph & Le, 2017; Zoph et al., 2018) level mostly focus on improving learning/search algorithms (Liu et al., 2018; Pham et al., 2018; Real et al., 2019; Liu et al., 2019). NAS-Bench101 (Ying et al., 2019) defines a graph search space by enumerating DAGs with constrained sizes (≤ 7 nodes, cf. 64-node graphs in our work). Our work points to a new path: instead of exhaustively searching over all the possible connectivity patterns, certain graph generators and graph measures could define a smooth space where the search cost could be significantly reduced.神經結構搜索。在micro學習連接模式的努力(Ahmed & Torresani, 2018;Wortsman等人,2019年;Yang et al., 2018),或macro (Zoph & Le, 2017;Zoph等,2018)水平主要關注于改進學習/搜索算法(Liu等,2018;Pham等人,2018年;Real等人,2019年;Liu等,2019)。NAS-Bench101 (Ying et al., 2019)通過枚舉大小受限的DAGs(≤7個節(jié)點,我們的工作cf. 64節(jié)點圖)來定義圖搜索空間。我們的工作指向了一個新的路徑:不再對所有可能的連通性模式進行窮舉搜索,某些圖生成器和圖度量可以定義一個平滑的空間,在這個空間中搜索成本可以顯著降低。

?

7. Discussions

Hierarchical graph structure of neural networks. As the first step in this direction, our work focuses on graph structures at the layer level. Neural networks are intrinsically hierarchical graphs (from connectivity of neurons to that of layers, blocks, and networks) which constitute a more complex design space than what is considered in this paper. Extensive exploration in that space will be computationally prohibitive, but we expect our methodology and findings to generalize.

Efficient implementation. Our current implementation uses standard CUDA kernels thus relies on weight masking, which leads to worse wall-clock time performance compared with baseline complete graphs. However, the practical adoption of our discoveries is not far-fetched. Complementary?to our work, there are ongoing efforts such as block-sparse kernels (Gray et al., 2017) and fast sparse ConvNets (Elsen et al., 2019) which could close the gap between theoretical FLOPS and real-world gains. Our work might also inform the design of new hardware architectures, e.g., biologicallyinspired ones with spike patterns (Pei et al., 2019).

神經網絡的層次圖結構。作為這個方向的第一步,我們的工作集中在層層次上的圖結構。神經網絡本質上是層次圖(從神經元的連通性到層、塊和網絡的連通性),它構成了比本文所考慮的更復雜的設計空間。在那個空間進行廣泛的探索在計算上是不可能的,但我們希望我們的方法和發(fā)現(xiàn)可以一般化。

高效的實現(xiàn)。我們目前的實現(xiàn)使用標準CUDA內核,因此依賴于weight masking,這導致wall-clock時間性能比基線完整圖更差。然而,實際應用我們的發(fā)現(xiàn)并不牽強。作為我們工作的補充,還有一些正在進行的工作,如塊稀疏核(Gray et al., 2017)和快速稀疏卷積網絡(Elsen et al., 2019),它們可以縮小理論失敗和現(xiàn)實收獲之間的差距。我們的工作也可能為新的硬件架構的設計提供信息,例如,受生物學啟發(fā)的帶有spike圖案的架構(Pei et al., 2019)。

Prior vs. Learning. We currently utilize the relational graph representation as a structural prior, i.e., we hard-wire the graph structure on neural networks throughout training. It has been shown that deep ReLU neural networks can automatically learn sparse representations (Glorot et al., 2011). A further question arises: without imposing graph priors, does any graph structure emerge from training a (fully-connected) neural network?

Figure 7: Prior vs. Learning. Results for 5-layer MLPs on CIFAR-10. We highlight the best-performing graph when used as a structural prior. Additionally, we train a fullyconnected MLP, and visualize the learned weights as a relational graph (different points are graphs under different thresholds). The learned graph structure moves towards the “sweet spot” after training but does not close the gap.

之前與學習。我們目前利用關系圖表示作為結構先驗,即。,在整個訓練過程中,我們將圖形結構硬連接到神經網絡上。已有研究表明,深度ReLU神經網絡可以自動學習稀疏表示(Glorot et al., 2011)。一個進一步的問題出現(xiàn)了:在不強加圖先驗的情況下,訓練一個(完全連接的)神經網絡會產生任何圖結構嗎?

?

?

?

?

?

?

?

?

圖7:先驗與學習。5層MLPs在CIFAR-10上的結果。當使用結構先驗時,我們會突出顯示表現(xiàn)最佳的圖。此外,我們訓練一個完全連接的MLP,并將學習到的權重可視化為一個關系圖(不同的點是不同閾值下的圖)。學習后的圖結構在訓練后向“最佳點”移動,但并沒有縮小差距。

As a preliminary exploration, we “reverse-engineer” a trained neural network and study the emerged relational graph structure. Specifically, we train a fully-connected 5-layer MLP on CIFAR-10 (the same setup as in previous experiments). We then try to infer the underlying relational graph structure of the network via the following steps: (1) to get nodes in a relational graph, we stack the weights from all the hidden layers and group them into 64 nodes, following the procedure described in Section 2.2; (2) to get undirected edges, the weights are summed by their transposes; (3) we compute the Frobenius norm of the weights as the edge value; (4) we get a sparse graph structure by binarizing edge values with a certain threshold.

We show the extracted graphs under different thresholds in Figure 7. As expected, the extracted graphs at initialization follow the patterns of E-R graphs (Figure 3(left)), since weight matrices are randomly i.i.d. initialized. Interestingly, after training to convergence, the extracted graphs are no longer E-R random graphs and move towards the sweet spot region we found in Section 5. Note that there is still a gap?between these learned graphs and the best-performing graph imposed as a structural prior, which might explain why a fully-connected MLP has inferior performance.

In our experiments, we also find that there are a few special cases where learning the graph structure can be superior (i.e., when the task is simple and the network capacity is abundant). We provide more discussions in the Appendix. Overall, these results further demonstrate that studying the graph structure of a neural network is crucial for understanding its predictive performance.

?

作為初步的探索,我們“逆向工程”一個訓練過的神經網絡和研究出現(xiàn)的關系圖結構。具體來說,我們在CIFAR-10上訓練了一個完全連接的5層MLP(與之前的實驗相同的設置)。然后嘗試通過以下步驟來推斷網絡的底層關系圖結構:(1)為了得到關系圖中的節(jié)點,我們將所有隱含層的權值進行疊加,并按照2.2節(jié)的步驟將其分組為64個節(jié)點;(2)對權值的轉置求和,得到無向邊;(3)計算權值的Frobenius范數(shù)作為邊緣值;(4)通過對具有一定閾值的邊值進行二值化,得到一種稀疏圖結構。

?

我們在圖7中顯示了在不同閾值下提取的圖。正如預期的那樣,初始化時提取的圖遵循E-R圖的模式(圖3(左)),因為權重矩陣是隨機初始化的。有趣的是,經過收斂訓練后,提取的圖不再是E-R隨機圖,而是朝著我們在第5節(jié)中發(fā)現(xiàn)的最佳點區(qū)域移動。請注意,在這些學習圖和作為結構先驗的最佳性能圖之間仍然存在差距,這可能解釋了為什么完全連接的MLP性能較差。

在我們的實驗中,我們也發(fā)現(xiàn)在一些特殊的情況下學習圖結構是更好的。當任務簡單且網絡容量充足時)。我們在附錄中提供了更多的討論??偟膩碚f,這些結果進一步證明了研究神經網絡的圖結構對于理解其預測性能是至關重要的。

?

?

Unified view of Graph Neural Networks (GNNs) and general neural architectures. The way we define neural networks as a message exchange function over graphs is partly inspired by GNNs (Kipf & Welling, 2017; Hamilton et al., 2017; Velickovi ˇ c et al. ′ , 2018). Under the relational graph representation, we point out that GNNs are a special class of general neural architectures where: (1) graph structure is regarded as the input instead of part of the neural architecture; consequently, (2) message functions are shared across all the edges to respect the invariance properties of the input graph. Concretely, recall how we define general neural networks as relational graphs:

Therefore, our work offers a unified view of GNNs and general neural architecture design, which we hope can bridge the two communities and inspire new innovations. On one hand, successful techniques in general neural architectures can be naturally introduced to the design of GNNs, such as separable convolution (Howard et al., 2017), group normalization (Wu & He, 2018) and Squeeze-and-Excitation block (Hu et al., 2018); on the other hand, novel GNN architectures (You et al., 2019b; Chen et al., 2019) beyond the commonly used paradigm (i.e., Equation 6) may inspire more advanced neural architecture designs.

圖形神經網絡(GNNs)和一般神經結構的統(tǒng)一視圖。我們將神經網絡定義為圖形上的信息交換功能的方式,部分受到了gnn的啟發(fā)(Kipf & Welling, 2017;Hamilton等,2017;Velickoviˇc et al .′, 2018)。在關系圖表示下,我們指出gnn是一類特殊的一般神經結構,其中:(1)將圖結構作為輸入,而不是神經結構的一部分;因此,(2)消息函數(shù)在所有邊之間共享,以尊重輸入圖的不變性。具體地說,回想一下我們是如何將一般的神經網絡定義為關系圖的:

因此,我們的工作提供了一個關于gnn和一般神經結構設計的統(tǒng)一觀點,我們希望能夠搭建這兩個社區(qū)的橋梁,激發(fā)新的創(chuàng)新。一方面,一般神經結構中的成功技術可以自然地引入到gnn的設計中,如可分離卷積(Howard et al., 2017)、群歸一化(Wu & He, 2018)和擠壓-激勵塊(Hu et al., 2018);另一方面,新的GNN架構(You et al., 2019b;陳等人,2019)超越了常用的范式(即,(6)可以啟發(fā)更先進的神經結構設計。

?

8. Conclusion

In sum, we propose a new perspective of using relational graph representation for analyzing and understanding neural networks. Our work suggests a new transition from studying conventional computation architecture to studying graph structure of neural networks. We show that well-established graph techniques and methodologies offered in other science disciplines (network science, neuroscience, etc.) could contribute to understanding and designing deep neural networks. We believe this could be a fruitful avenue of future research that tackles more complex situations.

最后,我們提出了一種利用關系圖表示來分析和理解神經網絡的新觀點。我們的工作提出了一個新的過渡,從研究傳統(tǒng)的計算結構到研究神經網絡的圖結構。我們表明,在其他科學學科(網絡科學、神經科學等)中提供的成熟的圖形技術和方法可以有助于理解和設計深度神經網絡。我們相信這將是未來解決更復雜情況的研究的一個富有成效的途徑。

?

Acknowledgments

This work is done during Jiaxuan You’s internship at Facebook AI Research. Jure Leskovec is a Chan Zuckerberg Biohub investigator. The authors thank Alexander Kirillov, Ross Girshick, Jonathan Gomes Selman, Pan Li for their helpful discussions.這項工作是在You Jiaxuan在Facebook AI Research實習期間完成的。Jure Leskovec是陳-扎克伯格生物中心的調查員。作者感謝Alexander Kirillov, Ross Girshick, Jonathan Gomes Selman和Pan Li的討論。

?

?

?

?

?

?

?

?

總結

以上是生活随笔為你收集整理的Paper:《Graph Neural Networks: A Review of Methods and Applications》翻译与解读的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

亚洲自偷自拍另类第1页 | 黑森林福利视频导航 | 国产人妖乱国产精品人妖 | 国产香蕉97碰碰久久人人 | 精品午夜福利在线观看 | 国产亚洲精品久久久久久 | 粉嫩少妇内射浓精videos | 成在人线av无码免观看麻豆 | 无码毛片视频一区二区本码 | 婷婷五月综合缴情在线视频 | 午夜精品久久久久久久 | 日日摸天天摸爽爽狠狠97 | 国产精品久久国产精品99 | 乱人伦人妻中文字幕无码久久网 | 国内揄拍国内精品人妻 | 亚洲国产精品一区二区第一页 | 俺去俺来也在线www色官网 | 国产精品多人p群无码 | 国产熟妇高潮叫床视频播放 | 少妇一晚三次一区二区三区 | 内射巨臀欧美在线视频 | 久久久久久a亚洲欧洲av冫 | 亚洲va欧美va天堂v国产综合 | 久久久久免费看成人影片 | 伊人久久婷婷五月综合97色 | 无码乱肉视频免费大全合集 | 妺妺窝人体色www婷婷 | 狠狠色欧美亚洲狠狠色www | 精品亚洲成av人在线观看 | 亚洲国产精品毛片av不卡在线 | 日本免费一区二区三区最新 | 最近的中文字幕在线看视频 | www国产精品内射老师 | 99久久亚洲精品无码毛片 | 国产成人无码一二三区视频 | 久久国语露脸国产精品电影 | 日韩 欧美 动漫 国产 制服 | 爽爽影院免费观看 | 欧美日韩综合一区二区三区 | 纯爱无遮挡h肉动漫在线播放 | www成人国产高清内射 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲中文字幕无码一久久区 | 亚洲精品欧美二区三区中文字幕 | 国产精品久久久久久亚洲毛片 | 日产国产精品亚洲系列 | 综合网日日天干夜夜久久 | 在线 国产 欧美 亚洲 天堂 | 久久久久av无码免费网 | 久久精品国产一区二区三区肥胖 | yw尤物av无码国产在线观看 | 色综合视频一区二区三区 | 精品无人区无码乱码毛片国产 | 97久久国产亚洲精品超碰热 | 色综合天天综合狠狠爱 | 欧美人与禽zoz0性伦交 | 国产一区二区三区精品视频 | 国产熟妇另类久久久久 | 国产内射爽爽大片视频社区在线 | 国精产品一区二区三区 | 色五月丁香五月综合五月 | 国产精品va在线播放 | 99精品国产综合久久久久五月天 | 成人欧美一区二区三区黑人 | 亚洲精品国产精品乱码视色 | 中文毛片无遮挡高清免费 | 精品偷自拍另类在线观看 | 精品亚洲成av人在线观看 | 蜜臀av无码人妻精品 | 丁香啪啪综合成人亚洲 | 国产精品办公室沙发 | 久久精品人人做人人综合试看 | 天堂亚洲免费视频 | 久久综合久久自在自线精品自 | 国产精品亚洲а∨无码播放麻豆 | 久久视频在线观看精品 | 国产深夜福利视频在线 | 97久久超碰中文字幕 | 全球成人中文在线 | 免费视频欧美无人区码 | 少妇无码一区二区二三区 | 亚洲精品国产精品乱码不卡 | 又色又爽又黄的美女裸体网站 | 在教室伦流澡到高潮hnp视频 | 亚洲性无码av中文字幕 | 久久99精品国产麻豆蜜芽 | 亚洲人成网站在线播放942 | 成人精品视频一区二区三区尤物 | 亚洲国产成人a精品不卡在线 | 国产亚洲精品久久久久久 | 荡女精品导航 | 宝宝好涨水快流出来免费视频 | 西西人体www44rt大胆高清 | 精品久久久久香蕉网 | 久热国产vs视频在线观看 | 国产97色在线 | 免 | 精品偷拍一区二区三区在线看 | 国产一区二区三区四区五区加勒比 | 国产成人无码av片在线观看不卡 | 亚洲精品一区二区三区四区五区 | 无套内谢的新婚少妇国语播放 | 2020久久香蕉国产线看观看 | 亚洲色成人中文字幕网站 | 天天躁夜夜躁狠狠是什么心态 | 国产一区二区三区日韩精品 | 亚洲精品国产第一综合99久久 | 东京无码熟妇人妻av在线网址 | 国产亚洲精品久久久闺蜜 | 日日橹狠狠爱欧美视频 | 国产人妻精品一区二区三区 | 亚洲国产成人a精品不卡在线 | 亚洲一区二区三区偷拍女厕 | 国产绳艺sm调教室论坛 | 国产精品鲁鲁鲁 | 亚洲男人av天堂午夜在 | 疯狂三人交性欧美 | 麻豆精产国品 | 午夜福利电影 | 牲欲强的熟妇农村老妇女 | 欧美午夜特黄aaaaaa片 | 一区二区传媒有限公司 | 男女性色大片免费网站 | 帮老师解开蕾丝奶罩吸乳网站 | 国产在线一区二区三区四区五区 | 天天躁日日躁狠狠躁免费麻豆 | 131美女爱做视频 | 麻豆md0077饥渴少妇 | 国产激情无码一区二区app | 久9re热视频这里只有精品 | 亚洲日本一区二区三区在线 | 国产 浪潮av性色四虎 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲男人av香蕉爽爽爽爽 | 国产在线精品一区二区三区直播 | 亚洲色大成网站www国产 | 色一情一乱一伦 | 日本精品人妻无码免费大全 | 婷婷丁香六月激情综合啪 | 国产福利视频一区二区 | 色妞www精品免费视频 | 国产深夜福利视频在线 | 国产精品igao视频网 | 丰满人妻精品国产99aⅴ | 成年美女黄网站色大免费全看 | 欧洲欧美人成视频在线 | 国产精品怡红院永久免费 | 日本乱偷人妻中文字幕 | 国产口爆吞精在线视频 | 任你躁国产自任一区二区三区 | 一二三四社区在线中文视频 | 永久免费观看美女裸体的网站 | 中文字幕 亚洲精品 第1页 | 午夜嘿嘿嘿影院 | 婷婷综合久久中文字幕蜜桃三电影 | 成熟女人特级毛片www免费 | 亚洲欧洲日本无在线码 | 亚洲国产欧美在线成人 | 午夜无码人妻av大片色欲 | 未满成年国产在线观看 | 国产suv精品一区二区五 | 四虎影视成人永久免费观看视频 | 国产精品成人av在线观看 | 久久99精品久久久久婷婷 | 麻豆国产人妻欲求不满 | 在教室伦流澡到高潮hnp视频 | 日欧一片内射va在线影院 | 亚洲一区二区三区播放 | 精品成在人线av无码免费看 | 国产激情艳情在线看视频 | 国产精品va在线观看无码 | 国产精品久久精品三级 | 欧美黑人乱大交 | 午夜性刺激在线视频免费 | 2019nv天堂香蕉在线观看 | 国内丰满熟女出轨videos | 国产精品亚洲专区无码不卡 | 51国偷自产一区二区三区 | 亚洲 激情 小说 另类 欧美 | 久久久久久久久蜜桃 | 国产欧美亚洲精品a | 少妇无码吹潮 | 国产亚洲精品久久久久久久久动漫 | 免费看少妇作爱视频 | 丰满人妻被黑人猛烈进入 | 日本护士xxxxhd少妇 | 精品无码av一区二区三区 | 欧洲熟妇色 欧美 | а√天堂www在线天堂小说 | 欧洲熟妇精品视频 | 久久久久成人片免费观看蜜芽 | 曰本女人与公拘交酡免费视频 | 久久久久免费精品国产 | 波多野结衣乳巨码无在线观看 | 亚洲国产精华液网站w | 丰满少妇女裸体bbw | √天堂资源地址中文在线 | 熟妇女人妻丰满少妇中文字幕 | 任你躁在线精品免费 | 免费无码一区二区三区蜜桃大 | 99久久久无码国产精品免费 | 国产亚洲精品久久久久久久 | 国产激情一区二区三区 | 在线成人www免费观看视频 | 俺去俺来也在线www色官网 | 露脸叫床粗话东北少妇 | 日韩少妇内射免费播放 | 18禁止看的免费污网站 | 欧美阿v高清资源不卡在线播放 | 亚洲精品国产精品乱码视色 | 午夜精品久久久久久久 | 久久人妻内射无码一区三区 | 精品无码一区二区三区的天堂 | 国产成人无码a区在线观看视频app | 亚洲国产欧美日韩精品一区二区三区 | 天天燥日日燥 | 又色又爽又黄的美女裸体网站 | 日本又色又爽又黄的a片18禁 | 丰腴饱满的极品熟妇 | 久久综合给久久狠狠97色 | 国产亚洲精品久久久闺蜜 | 国产人妻人伦精品1国产丝袜 | 亚洲成a人片在线观看无码3d | 成熟人妻av无码专区 | av无码电影一区二区三区 | 久久人人97超碰a片精品 | 免费视频欧美无人区码 | 白嫩日本少妇做爰 | 99riav国产精品视频 | 国产国产精品人在线视 | 亚洲国产精品无码久久久久高潮 | 国产无遮挡又黄又爽又色 | 最近的中文字幕在线看视频 | 国产精品手机免费 | 亚洲日本va午夜在线电影 | 人人澡人人妻人人爽人人蜜桃 | 欧美日韩在线亚洲综合国产人 | 日韩无套无码精品 | 亚洲欧美色中文字幕在线 | 国精品人妻无码一区二区三区蜜柚 | 久久精品女人天堂av免费观看 | 高清无码午夜福利视频 | 久久综合色之久久综合 | 亚洲精品无码国产 | 欧美亚洲日韩国产人成在线播放 | 97se亚洲精品一区 | 大地资源网第二页免费观看 | 亚洲精品成人av在线 | 丁香啪啪综合成人亚洲 | 亚洲精品中文字幕乱码 | 亚洲精品综合五月久久小说 | 天天燥日日燥 | 国产99久久精品一区二区 | 欧美丰满熟妇xxxx | 久久久精品欧美一区二区免费 | 亚洲国产精品一区二区第一页 | 日韩欧美中文字幕在线三区 | 国产婷婷色一区二区三区在线 | 帮老师解开蕾丝奶罩吸乳网站 | 日韩少妇白浆无码系列 | 久久精品人人做人人综合试看 | 秋霞成人午夜鲁丝一区二区三区 | 亚洲精品国偷拍自产在线观看蜜桃 | 秋霞成人午夜鲁丝一区二区三区 | 青草视频在线播放 | 九九综合va免费看 | 成 人影片 免费观看 | 午夜肉伦伦影院 | 国产熟女一区二区三区四区五区 | 久在线观看福利视频 | 国产精品怡红院永久免费 | 国产特级毛片aaaaaaa高清 | av无码不卡在线观看免费 | 亚洲欧洲中文日韩av乱码 | 300部国产真实乱 | 九月婷婷人人澡人人添人人爽 | 成在人线av无码免观看麻豆 | 图片小说视频一区二区 | 欧美一区二区三区视频在线观看 | 亚洲中文字幕无码中字 | 99久久精品日本一区二区免费 | 国产乱人偷精品人妻a片 | av香港经典三级级 在线 | 国产精品亚洲综合色区韩国 | 免费观看的无遮挡av | 伊人久久大香线蕉午夜 | 成人无码精品一区二区三区 | 免费无码的av片在线观看 | 国产精品久免费的黄网站 | 日韩av激情在线观看 | 亚洲第一无码av无码专区 | 伊人久久婷婷五月综合97色 | 国产精品.xx视频.xxtv | 婷婷综合久久中文字幕蜜桃三电影 | a在线观看免费网站大全 | 国产一区二区三区日韩精品 | 国产精品久久久久久无码 | 日韩欧美成人免费观看 | 亚洲日本va中文字幕 | 99久久精品无码一区二区毛片 | 午夜成人1000部免费视频 | 色一情一乱一伦 | 欧美真人作爱免费视频 | 人人爽人人爽人人片av亚洲 | 永久免费精品精品永久-夜色 | 国产精品高潮呻吟av久久4虎 | 一本色道久久综合狠狠躁 | 少妇性荡欲午夜性开放视频剧场 | 人人妻人人澡人人爽欧美精品 | 色 综合 欧美 亚洲 国产 | 清纯唯美经典一区二区 | 精品一二三区久久aaa片 | 精品无码成人片一区二区98 | 亚洲精品午夜无码电影网 | 免费观看激色视频网站 | 免费中文字幕日韩欧美 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 欧美性生交xxxxx久久久 | 国产亚洲精品久久久久久久久动漫 | 国产超碰人人爽人人做人人添 | 激情人妻另类人妻伦 | 亚洲综合无码一区二区三区 | 久久久精品456亚洲影院 | 亚洲成a人一区二区三区 | 亚洲精品久久久久久一区二区 | 在线a亚洲视频播放在线观看 | 精品久久久久久人妻无码中文字幕 | 丁香啪啪综合成人亚洲 | 少妇一晚三次一区二区三区 | 亚洲中文字幕在线观看 | 少妇无码一区二区二三区 | 白嫩日本少妇做爰 | 偷窥村妇洗澡毛毛多 | 久久久www成人免费毛片 | 国产人妖乱国产精品人妖 | 亚洲精品一区二区三区在线观看 | 久久aⅴ免费观看 | 国产成人精品久久亚洲高清不卡 | 国产精品久久久久9999小说 | 无码人妻黑人中文字幕 | 18禁止看的免费污网站 | 久久久成人毛片无码 | 日韩亚洲欧美中文高清在线 | 扒开双腿吃奶呻吟做受视频 | 亚洲精品国偷拍自产在线观看蜜桃 | 欧美日韩一区二区综合 | 中文字幕乱妇无码av在线 | 日日摸日日碰夜夜爽av | 三级4级全黄60分钟 | 免费看男女做好爽好硬视频 | 久久综合网欧美色妞网 | 中文字幕 亚洲精品 第1页 | 国产精品香蕉在线观看 | 亚洲最大成人网站 | 午夜免费福利小电影 | 欧美xxxx黑人又粗又长 | 国产午夜无码视频在线观看 | 中文字幕精品av一区二区五区 | 六月丁香婷婷色狠狠久久 | 久久五月精品中文字幕 | 老熟女重囗味hdxx69 | 国产精品亚洲lv粉色 | 日韩精品无码一区二区中文字幕 | 无码精品国产va在线观看dvd | 成人免费视频一区二区 | 99久久人妻精品免费二区 | 久久久久99精品成人片 | 精品国产国产综合精品 | 玩弄少妇高潮ⅹxxxyw | 草草网站影院白丝内射 | 最新版天堂资源中文官网 | 大地资源网第二页免费观看 | av无码不卡在线观看免费 | 亚洲精品久久久久中文第一幕 | 国产精品a成v人在线播放 | 国产精品亚洲五月天高清 | 免费国产成人高清在线观看网站 | 亚洲国产综合无码一区 | 中文字幕乱码人妻二区三区 | 欧美精品在线观看 | 国产av一区二区精品久久凹凸 | 三上悠亚人妻中文字幕在线 | 国产成人一区二区三区在线观看 | 久久久久久a亚洲欧洲av冫 | 亚洲中文字幕av在天堂 | 夜夜夜高潮夜夜爽夜夜爰爰 | 香蕉久久久久久av成人 | 成人精品天堂一区二区三区 | 亚洲日本va中文字幕 | 中文字幕无码视频专区 | 蜜桃av抽搐高潮一区二区 | 久久 国产 尿 小便 嘘嘘 | 国产精品美女久久久 | 国产亚洲精品久久久久久大师 | 日本精品人妻无码免费大全 | 亚洲国产精品一区二区第一页 | 77777熟女视频在线观看 а天堂中文在线官网 | 熟妇人妻无乱码中文字幕 | 国产精品亚洲一区二区三区喷水 | 中文字幕人成乱码熟女app | 亚洲国产一区二区三区在线观看 | 成人片黄网站色大片免费观看 | 水蜜桃亚洲一二三四在线 | 国产精品国产三级国产专播 | 久久亚洲精品中文字幕无男同 | 在线观看免费人成视频 | 精品国产乱码久久久久乱码 | 亚洲色欲色欲欲www在线 | 搡女人真爽免费视频大全 | 无码av岛国片在线播放 | 亚洲精品午夜国产va久久成人 | 一二三四社区在线中文视频 | 丰满护士巨好爽好大乳 | 国产99久久精品一区二区 | 亚洲综合色区中文字幕 | 76少妇精品导航 | 中文字幕无线码 | 女人被男人躁得好爽免费视频 | 久久精品无码一区二区三区 | 国产热a欧美热a在线视频 | 亚洲日韩一区二区三区 | 久久精品人妻少妇一区二区三区 | 免费观看又污又黄的网站 | 99久久亚洲精品无码毛片 | 亚洲精品成a人在线观看 | 国产av一区二区精品久久凹凸 | 亚洲熟妇色xxxxx欧美老妇y | 久久久久久九九精品久 | 人人妻人人澡人人爽欧美精品 | 午夜理论片yy44880影院 | 亚洲欧美色中文字幕在线 | 亚洲精品成人av在线 | 丝袜 中出 制服 人妻 美腿 | 国产在线aaa片一区二区99 | 国产99久久精品一区二区 | 国产成人无码av片在线观看不卡 | 青草青草久热国产精品 | 中文字幕 亚洲精品 第1页 | 免费观看黄网站 | 无码一区二区三区在线观看 | 无码人妻出轨黑人中文字幕 | 无人区乱码一区二区三区 | 人人妻人人澡人人爽欧美一区 | 亚洲成a人片在线观看无码3d | 欧美老熟妇乱xxxxx | 无码人妻丰满熟妇区毛片18 | 国产乱人无码伦av在线a | 亚洲人成影院在线无码按摩店 | 成年美女黄网站色大免费视频 | 精品国产乱码久久久久乱码 | 日日天日日夜日日摸 | 成人试看120秒体验区 | 18禁黄网站男男禁片免费观看 | 亚洲一区av无码专区在线观看 | 中文字幕人成乱码熟女app | 久久精品国产日本波多野结衣 | 国色天香社区在线视频 | 国产一精品一av一免费 | 精品国产一区二区三区四区在线看 | 5858s亚洲色大成网站www | 无码人妻丰满熟妇区毛片18 | 欧美兽交xxxx×视频 | 在线亚洲高清揄拍自拍一品区 | 性史性农村dvd毛片 | 妺妺窝人体色www在线小说 | 内射欧美老妇wbb | 精品一区二区三区波多野结衣 | 中文精品无码中文字幕无码专区 | 欧美熟妇另类久久久久久多毛 | 黑人玩弄人妻中文在线 | 亚洲а∨天堂久久精品2021 | 久久国产精品精品国产色婷婷 | 亚洲经典千人经典日产 | 亚洲精品鲁一鲁一区二区三区 | 青青草原综合久久大伊人精品 | 亚洲 a v无 码免 费 成 人 a v | 四虎影视成人永久免费观看视频 | 我要看www免费看插插视频 | 久久熟妇人妻午夜寂寞影院 | 在线精品国产一区二区三区 | 久久久精品成人免费观看 | 又色又爽又黄的美女裸体网站 | 久久精品国产日本波多野结衣 | 老熟妇乱子伦牲交视频 | 国产无套内射久久久国产 | 又紧又大又爽精品一区二区 | 日本护士毛茸茸高潮 | 日本大香伊一区二区三区 | 丝袜 中出 制服 人妻 美腿 | 欧美精品一区二区精品久久 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产尤物精品视频 | 国产成人久久精品流白浆 | 精品国产一区二区三区四区在线看 | 亚洲中文字幕成人无码 | 18精品久久久无码午夜福利 | 精品无码一区二区三区爱欲 | 亚洲欧洲中文日韩av乱码 | 噜噜噜亚洲色成人网站 | 亚洲一区二区三区偷拍女厕 | 国产亚洲精品久久久闺蜜 | 永久免费精品精品永久-夜色 | 少妇邻居内射在线 | 丰满诱人的人妻3 | 色综合久久久久综合一本到桃花网 | 俺去俺来也在线www色官网 | 亚洲狠狠色丁香婷婷综合 | 亚洲精品一区三区三区在线观看 | 四虎国产精品一区二区 | 又大又黄又粗又爽的免费视频 | 东京一本一道一二三区 | 亚洲熟妇色xxxxx亚洲 | 极品嫩模高潮叫床 | 激情国产av做激情国产爱 | 国产亚洲人成a在线v网站 | 中文字幕+乱码+中文字幕一区 | 欧美一区二区三区 | 久久久成人毛片无码 | 2019nv天堂香蕉在线观看 | 久久综合网欧美色妞网 | 久久精品国产99久久6动漫 | 国产亚洲精品久久久久久大师 | 少妇被粗大的猛进出69影院 | 男女性色大片免费网站 | 成在人线av无码免费 | 国内精品九九久久久精品 | 人妻夜夜爽天天爽三区 | 亚洲热妇无码av在线播放 | 国产无遮挡又黄又爽免费视频 | 99久久婷婷国产综合精品青草免费 | 日日碰狠狠丁香久燥 | 在线视频网站www色 | 亚洲va中文字幕无码久久不卡 | 亚洲 激情 小说 另类 欧美 | 97久久国产亚洲精品超碰热 | 久久午夜无码鲁丝片午夜精品 | 欧美日韩一区二区三区自拍 | 国产人妻人伦精品 | 久久精品人人做人人综合试看 | 中文字幕乱码中文乱码51精品 | 熟妇激情内射com | 5858s亚洲色大成网站www | 久久久久久久久蜜桃 | 人人爽人人澡人人人妻 | 偷窥日本少妇撒尿chinese | 欧洲熟妇色 欧美 | 天海翼激烈高潮到腰振不止 | 久久 国产 尿 小便 嘘嘘 | 国产精品二区一区二区aⅴ污介绍 | 99久久久国产精品无码免费 | 日日干夜夜干 | 亚洲一区二区观看播放 | 国产亚洲欧美在线专区 | 中文字幕av伊人av无码av | 亚洲精品久久久久avwww潮水 | 人妻互换免费中文字幕 | 国产亲子乱弄免费视频 | 久久久婷婷五月亚洲97号色 | 精品国产一区av天美传媒 | 一个人看的www免费视频在线观看 | 2020最新国产自产精品 | 人妻人人添人妻人人爱 | 国产精品美女久久久网av | 无码乱肉视频免费大全合集 | 亚洲中文字幕成人无码 | 无码吃奶揉捏奶头高潮视频 | 精品国产国产综合精品 | 国产精品美女久久久网av | 亚洲熟熟妇xxxx | 亚拍精品一区二区三区探花 | 国产成人人人97超碰超爽8 | 精品国产国产综合精品 | 久久国内精品自在自线 | av香港经典三级级 在线 | 久激情内射婷内射蜜桃人妖 | 国产人妻精品一区二区三区不卡 | 久青草影院在线观看国产 | 色综合久久久久综合一本到桃花网 | 精品一区二区三区无码免费视频 | 久久熟妇人妻午夜寂寞影院 | 精品无码成人片一区二区98 | 亚洲熟女一区二区三区 | 国产亚洲精品久久久ai换 | 婷婷五月综合缴情在线视频 | 久久99国产综合精品 | 欧美丰满少妇xxxx性 | 亚洲狠狠婷婷综合久久 | 国产成人无码a区在线观看视频app | 国产免费观看黄av片 | 国产成人无码av片在线观看不卡 | 97精品人妻一区二区三区香蕉 | 国产色xx群视频射精 | 狂野欧美性猛xxxx乱大交 | 国产真实伦对白全集 | 欧美变态另类xxxx | 国产午夜手机精彩视频 | а天堂中文在线官网 | 久久精品丝袜高跟鞋 | 欧美人与物videos另类 | 97资源共享在线视频 | 精品久久久无码人妻字幂 | 老熟妇乱子伦牲交视频 | 成人无码精品一区二区三区 | 国内精品久久毛片一区二区 | 亚洲国产成人a精品不卡在线 | 高潮毛片无遮挡高清免费视频 | 免费人成在线视频无码 | 色婷婷av一区二区三区之红樱桃 | 欧洲欧美人成视频在线 | 亚洲乱码国产乱码精品精 | 麻豆国产97在线 | 欧洲 | www成人国产高清内射 | 久久精品人人做人人综合 | 无码av最新清无码专区吞精 | 国产精品爱久久久久久久 | 色窝窝无码一区二区三区色欲 | 亚洲精品国偷拍自产在线观看蜜桃 | 欧美精品在线观看 | 狠狠亚洲超碰狼人久久 | 久久 国产 尿 小便 嘘嘘 | 国产成人精品优优av | 午夜福利一区二区三区在线观看 | 国产精品欧美成人 | 国产精品久久久久久亚洲毛片 | 亚洲中文字幕在线观看 | 樱花草在线播放免费中文 | 好屌草这里只有精品 | 中文无码伦av中文字幕 | 久久精品丝袜高跟鞋 | 国产猛烈高潮尖叫视频免费 | 亚洲色偷偷男人的天堂 | 国产真实乱对白精彩久久 | 窝窝午夜理论片影院 | 久久久亚洲欧洲日产国码αv | 无码一区二区三区在线 | 久青草影院在线观看国产 | 中文字幕av日韩精品一区二区 | 红桃av一区二区三区在线无码av | 国产精品18久久久久久麻辣 | 欧美老妇交乱视频在线观看 | 国产精品亚洲五月天高清 | 人妻aⅴ无码一区二区三区 | 国产97色在线 | 免 | 亚洲国精产品一二二线 | 东京无码熟妇人妻av在线网址 | 天天拍夜夜添久久精品 | 无码精品人妻一区二区三区av | 日本免费一区二区三区最新 | 十八禁真人啪啪免费网站 | 精品国产av色一区二区深夜久久 | 强伦人妻一区二区三区视频18 | 亚洲乱码中文字幕在线 | 欧洲熟妇精品视频 | 正在播放老肥熟妇露脸 | 又大又硬又黄的免费视频 | 国产一区二区三区四区五区加勒比 | 国产美女极度色诱视频www | 乌克兰少妇xxxx做受 | 老子影院午夜伦不卡 | 又湿又紧又大又爽a视频国产 | 亚洲精品一区二区三区四区五区 | 2019nv天堂香蕉在线观看 | 免费视频欧美无人区码 | 久久久久久国产精品无码下载 | 在线播放无码字幕亚洲 | 久精品国产欧美亚洲色aⅴ大片 | 国产亚洲精品久久久久久 | 亚洲一区二区三区在线观看网站 | 人人妻人人澡人人爽欧美一区九九 | 荫蒂添的好舒服视频囗交 | 久久国产精品精品国产色婷婷 | 极品尤物被啪到呻吟喷水 | 性色欲情网站iwww九文堂 | 精品国产精品久久一区免费式 | 中文字幕av日韩精品一区二区 | 性生交大片免费看女人按摩摩 | 国产成人精品久久亚洲高清不卡 | 精品久久综合1区2区3区激情 | 十八禁视频网站在线观看 | 国产三级精品三级男人的天堂 | 亚洲综合色区中文字幕 | 国产精品内射视频免费 | 露脸叫床粗话东北少妇 | 成人无码视频免费播放 | 麻豆果冻传媒2021精品传媒一区下载 | 国产激情无码一区二区 | 亚洲 另类 在线 欧美 制服 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 欧美大屁股xxxxhd黑色 | 美女黄网站人色视频免费国产 | 国产精华av午夜在线观看 | 精品国产成人一区二区三区 | 99国产精品白浆在线观看免费 | 人妻少妇精品久久 | 激情综合激情五月俺也去 | 人妻中文无码久热丝袜 | 久久综合给久久狠狠97色 | 国产精品久久久久久无码 | 中文字幕无码人妻少妇免费 | 久久综合给久久狠狠97色 | 亚洲一区二区三区偷拍女厕 | 欧美变态另类xxxx | 久久久久人妻一区精品色欧美 | 最新国产乱人伦偷精品免费网站 | 性欧美熟妇videofreesex | 国产极品视觉盛宴 | 少妇被粗大的猛进出69影院 | 一区二区三区高清视频一 | 少妇激情av一区二区 | 亚洲中文字幕久久无码 | 激情国产av做激情国产爱 | 日韩亚洲欧美中文高清在线 | 无遮挡国产高潮视频免费观看 | 午夜福利电影 | 无码av岛国片在线播放 | 亚洲日韩中文字幕在线播放 | 麻豆人妻少妇精品无码专区 | 久久久精品成人免费观看 | 狂野欧美激情性xxxx | 色情久久久av熟女人妻网站 | 亚洲精品欧美二区三区中文字幕 | 天堂在线观看www | 少妇人妻av毛片在线看 | 性色欲情网站iwww九文堂 | 久久www免费人成人片 | 天天摸天天碰天天添 | 色狠狠av一区二区三区 | 图片小说视频一区二区 | 美女黄网站人色视频免费国产 | 亚洲伊人久久精品影院 | 1000部夫妻午夜免费 | 国产精品人妻一区二区三区四 | 免费乱码人妻系列无码专区 | 国内精品人妻无码久久久影院 | 亚欧洲精品在线视频免费观看 | 午夜理论片yy44880影院 | 日本一卡二卡不卡视频查询 | 性欧美videos高清精品 | 最新版天堂资源中文官网 | 狂野欧美性猛xxxx乱大交 | 天堂一区人妻无码 | 中文字幕色婷婷在线视频 | 亚洲另类伦春色综合小说 | 国产精品国产三级国产专播 | 高潮毛片无遮挡高清免费视频 | 国产亚洲精品久久久久久久久动漫 | 国产av人人夜夜澡人人爽麻豆 | 永久免费观看美女裸体的网站 | 国产激情无码一区二区app | 国产精品久久久久久久9999 | 久久97精品久久久久久久不卡 | 5858s亚洲色大成网站www | 九九综合va免费看 | 亚洲无人区午夜福利码高清完整版 | 一本久道久久综合狠狠爱 | 亚洲人成人无码网www国产 | 精品熟女少妇av免费观看 | 日本免费一区二区三区最新 | 久久伊人色av天堂九九小黄鸭 | 丰满少妇高潮惨叫视频 | 欧美性生交活xxxxxdddd | 久久午夜无码鲁丝片午夜精品 | 一本色道久久综合亚洲精品不卡 | 国产午夜亚洲精品不卡 | 日本一区二区更新不卡 | 成人女人看片免费视频放人 | 老司机亚洲精品影院无码 | 午夜理论片yy44880影院 | 蜜桃臀无码内射一区二区三区 | 水蜜桃亚洲一二三四在线 | 美女极度色诱视频国产 | 国产精品亚洲lv粉色 | 久久精品人妻少妇一区二区三区 | 5858s亚洲色大成网站www | 又色又爽又黄的美女裸体网站 | 亚洲国产一区二区三区在线观看 | 国产精品永久免费视频 | 久久精品99久久香蕉国产色戒 | 人人澡人人透人人爽 | 精品国偷自产在线视频 | 日本丰满熟妇videos | 久久综合九色综合欧美狠狠 | 亚洲成在人网站无码天堂 | 亚洲熟熟妇xxxx | 国产九九九九九九九a片 | 国产乱人伦偷精品视频 | 欧美黑人巨大xxxxx | 97se亚洲精品一区 | 久久成人a毛片免费观看网站 | 国产高潮视频在线观看 | 波多野结衣 黑人 | 成年美女黄网站色大免费视频 | 国产 浪潮av性色四虎 | 日韩 欧美 动漫 国产 制服 | 久激情内射婷内射蜜桃人妖 | 国产精品美女久久久 | 一本色道久久综合狠狠躁 | 日韩精品久久久肉伦网站 | 美女黄网站人色视频免费国产 | 美女黄网站人色视频免费国产 | 无码播放一区二区三区 | 亚洲国产av精品一区二区蜜芽 | 偷窥村妇洗澡毛毛多 | 性欧美大战久久久久久久 | 亚洲aⅴ无码成人网站国产app | 性做久久久久久久免费看 | 中文字幕亚洲情99在线 | 欧美成人免费全部网站 | 国产69精品久久久久app下载 | 综合人妻久久一区二区精品 | 国产真实伦对白全集 | 少妇久久久久久人妻无码 | 亚洲の无码国产の无码影院 | 中文字幕精品av一区二区五区 | 日本一区二区更新不卡 | 国产疯狂伦交大片 | 欧美激情内射喷水高潮 | 鲁鲁鲁爽爽爽在线视频观看 | 未满小14洗澡无码视频网站 | 四虎国产精品一区二区 | 无码精品人妻一区二区三区av | 国产午夜视频在线观看 | 特级做a爰片毛片免费69 | 亚洲一区av无码专区在线观看 | 久久久无码中文字幕久... | 中文字幕无码日韩专区 | 日本丰满熟妇videos | 国产免费久久精品国产传媒 | 亚洲一区二区三区播放 | 中文久久乱码一区二区 | 麻豆人妻少妇精品无码专区 | 中文字幕无码热在线视频 | 中文无码精品a∨在线观看不卡 | 中文字幕亚洲情99在线 | 国产人妖乱国产精品人妖 | 日本乱偷人妻中文字幕 | 中文字幕无码热在线视频 | 精品久久久无码人妻字幂 | 亚洲中文字幕无码中字 | 亚洲国产精品久久久天堂 | 欧美高清在线精品一区 | 亚洲色大成网站www国产 | 一本精品99久久精品77 | 亚洲天堂2017无码中文 | 老熟妇仑乱视频一区二区 | 99精品久久毛片a片 | 日本va欧美va欧美va精品 | 成人欧美一区二区三区 | 国产精品无码一区二区桃花视频 | 无码av中文字幕免费放 | 国产两女互慰高潮视频在线观看 | 无码帝国www无码专区色综合 | 丰满肥臀大屁股熟妇激情视频 | 性色欲情网站iwww九文堂 | 国产国产精品人在线视 | 亚洲 高清 成人 动漫 | 久久伊人色av天堂九九小黄鸭 | 无码国产乱人伦偷精品视频 | 国产av无码专区亚洲a∨毛片 | 中文亚洲成a人片在线观看 | 国产成人综合色在线观看网站 | 亚洲码国产精品高潮在线 | 日韩精品a片一区二区三区妖精 | 少妇无套内谢久久久久 | 亚洲高清偷拍一区二区三区 | 午夜免费福利小电影 | 亚洲小说春色综合另类 | 成人动漫在线观看 | 天天躁日日躁狠狠躁免费麻豆 | 亚洲国精产品一二二线 | 99久久婷婷国产综合精品青草免费 | 久久国产自偷自偷免费一区调 | 波多野结衣aⅴ在线 | 中文字幕乱码人妻二区三区 | 亚洲色在线无码国产精品不卡 | 亚洲伊人久久精品影院 | 最新国产麻豆aⅴ精品无码 | 亚洲精品一区二区三区四区五区 | 最近免费中文字幕中文高清百度 | www国产亚洲精品久久久日本 | 美女极度色诱视频国产 | 亚洲一区二区三区无码久久 | 国产偷抇久久精品a片69 | 少妇厨房愉情理9仑片视频 | 成熟女人特级毛片www免费 | 青草视频在线播放 | 久久97精品久久久久久久不卡 | 亚洲色偷偷偷综合网 | 色一情一乱一伦一视频免费看 | 久久国产精品精品国产色婷婷 | 精品无码av一区二区三区 | 久久久久亚洲精品中文字幕 | 天海翼激烈高潮到腰振不止 | 一本久道高清无码视频 | 欧美性猛交xxxx富婆 | 中文精品无码中文字幕无码专区 | 亚洲欧美国产精品久久 | 亚洲成色在线综合网站 | 久久综合色之久久综合 | 色欲人妻aaaaaaa无码 | 暴力强奷在线播放无码 | 人人妻人人澡人人爽欧美精品 | 乌克兰少妇xxxx做受 | 清纯唯美经典一区二区 | 亚洲熟妇自偷自拍另类 | 精品久久8x国产免费观看 | 一本大道久久东京热无码av | 亚洲另类伦春色综合小说 | 荡女精品导航 | 亚洲熟熟妇xxxx | 久久无码人妻影院 | 久久综合香蕉国产蜜臀av | 大乳丰满人妻中文字幕日本 | 国产又粗又硬又大爽黄老大爷视 | 日欧一片内射va在线影院 | 又粗又大又硬又长又爽 | 强伦人妻一区二区三区视频18 | 俺去俺来也在线www色官网 | 精品国产av色一区二区深夜久久 | а√天堂www在线天堂小说 | 欧美 日韩 人妻 高清 中文 | 国产成人无码av在线影院 | 中文无码成人免费视频在线观看 | 亚洲小说图区综合在线 | 亚洲综合色区中文字幕 | 牛和人交xxxx欧美 | 人人澡人人妻人人爽人人蜜桃 | 亚洲国产精品成人久久蜜臀 | 国产午夜精品一区二区三区嫩草 | 国产suv精品一区二区五 | 午夜精品久久久内射近拍高清 | 国产精品沙发午睡系列 | 波多野结衣 黑人 | 久久综合色之久久综合 | а√天堂www在线天堂小说 | 精品乱子伦一区二区三区 | 亚洲男人av天堂午夜在 | 中文字幕无码乱人伦 | 无码人妻丰满熟妇区毛片18 | 成人无码精品一区二区三区 | 成人亚洲精品久久久久软件 | 久久综合色之久久综合 | 国产免费观看黄av片 | 精品一二三区久久aaa片 | 国产激情无码一区二区app | 日本高清一区免费中文视频 | 国产av无码专区亚洲a∨毛片 | 97se亚洲精品一区 | 亚洲精品中文字幕久久久久 | 女人和拘做爰正片视频 | 久久精品视频在线看15 | 在线看片无码永久免费视频 | 999久久久国产精品消防器材 | 国产人妻人伦精品1国产丝袜 | 在线а√天堂中文官网 | 西西人体www44rt大胆高清 | 国产午夜福利100集发布 | 国内少妇偷人精品视频 | 亚洲男人av香蕉爽爽爽爽 | 粉嫩少妇内射浓精videos | 狠狠色噜噜狠狠狠狠7777米奇 | 精品欧洲av无码一区二区三区 | 又大又紧又粉嫩18p少妇 | 国产精品怡红院永久免费 | 国产疯狂伦交大片 | 无遮无挡爽爽免费视频 | 久久99国产综合精品 | 国产人妻人伦精品 | 国产亚洲欧美日韩亚洲中文色 | 国产国产精品人在线视 | 男女猛烈xx00免费视频试看 | 国产人妻久久精品二区三区老狼 | 国产无遮挡又黄又爽免费视频 | 亚洲色成人中文字幕网站 | 久久亚洲国产成人精品性色 | 精品aⅴ一区二区三区 | 国产在线精品一区二区高清不卡 | 国产特级毛片aaaaaaa高清 | 亚洲 a v无 码免 费 成 人 a v | 成人动漫在线观看 | 日本熟妇人妻xxxxx人hd | 国产99久久精品一区二区 | 日日碰狠狠躁久久躁蜜桃 | 精品人妻人人做人人爽夜夜爽 | 思思久久99热只有频精品66 | 国产凸凹视频一区二区 | 一本无码人妻在中文字幕免费 | 在线播放免费人成毛片乱码 | 东京无码熟妇人妻av在线网址 | 我要看www免费看插插视频 | 在教室伦流澡到高潮hnp视频 | 亚洲色www成人永久网址 | 曰韩少妇内射免费播放 | 欧美熟妇另类久久久久久多毛 | 丝袜足控一区二区三区 | 国产 浪潮av性色四虎 | 国产av剧情md精品麻豆 | 亚洲人成网站在线播放942 | 丝袜人妻一区二区三区 | 久久久久99精品成人片 | 国产精品亚洲lv粉色 | a在线亚洲男人的天堂 | 国产精品久久久久久亚洲影视内衣 | 无码av岛国片在线播放 | 亚洲国产精品毛片av不卡在线 | 久久久久av无码免费网 | 欧美第一黄网免费网站 | 国产综合久久久久鬼色 | 亚洲啪av永久无码精品放毛片 | 内射欧美老妇wbb | 3d动漫精品啪啪一区二区中 | 青青青爽视频在线观看 | 蜜桃无码一区二区三区 | 人人妻人人藻人人爽欧美一区 | 国内综合精品午夜久久资源 | 亚洲精品国偷拍自产在线麻豆 | 国产欧美熟妇另类久久久 | 麻花豆传媒剧国产免费mv在线 | 人妻互换免费中文字幕 | 免费国产成人高清在线观看网站 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲成a人一区二区三区 | 熟妇女人妻丰满少妇中文字幕 | 2020久久超碰国产精品最新 | 亚洲男人av香蕉爽爽爽爽 | 久久97精品久久久久久久不卡 | 中文字幕+乱码+中文字幕一区 | 在线播放无码字幕亚洲 | 日本一卡2卡3卡四卡精品网站 | 99久久婷婷国产综合精品青草免费 | 色欲久久久天天天综合网精品 | 亚洲国产日韩a在线播放 | 欧美国产日韩久久mv | 伊人久久大香线焦av综合影院 | 国产97色在线 | 免 | 男人和女人高潮免费网站 | 蜜臀av无码人妻精品 | 久久国产精品偷任你爽任你 | 十八禁视频网站在线观看 | 成人无码精品1区2区3区免费看 | 国产成人无码av片在线观看不卡 | 香蕉久久久久久av成人 | 午夜精品久久久内射近拍高清 | 图片小说视频一区二区 | 成人免费视频在线观看 | 亚洲欧美日韩国产精品一区二区 | 亚洲 另类 在线 欧美 制服 | 亚洲熟妇色xxxxx欧美老妇y | 噜噜噜亚洲色成人网站 | 人人妻人人澡人人爽人人精品 | 蜜桃臀无码内射一区二区三区 | 欧美 丝袜 自拍 制服 另类 | 久久精品中文字幕一区 | 国产色视频一区二区三区 | 中文无码成人免费视频在线观看 | 在线播放免费人成毛片乱码 | 国产精品福利视频导航 | 成 人影片 免费观看 | 99精品视频在线观看免费 | 人妻少妇精品无码专区二区 | 97精品人妻一区二区三区香蕉 | 激情国产av做激情国产爱 | 亚洲国产精品一区二区美利坚 | 色婷婷av一区二区三区之红樱桃 | 国产av无码专区亚洲awww | 国产97在线 | 亚洲 | 1000部夫妻午夜免费 | 国产精品资源一区二区 | 国产精品igao视频网 | 精品久久久久久亚洲精品 | 久久99精品国产.久久久久 | 精品一区二区三区波多野结衣 | 国产精品香蕉在线观看 | 丰满少妇弄高潮了www | 国产一精品一av一免费 | 无码av岛国片在线播放 | 性欧美牲交xxxxx视频 | 97夜夜澡人人爽人人喊中国片 | 婷婷丁香五月天综合东京热 | 日韩精品久久久肉伦网站 | 牛和人交xxxx欧美 | 久久综合久久自在自线精品自 | 国产精品嫩草久久久久 | 久久精品国产大片免费观看 | 强辱丰满人妻hd中文字幕 | 免费看男女做好爽好硬视频 | 99久久人妻精品免费一区 | 无码人妻少妇伦在线电影 | 又黄又爽又色的视频 | 中文字幕乱码亚洲无线三区 | 亚洲最大成人网站 | 鲁大师影院在线观看 | 天天综合网天天综合色 | 亚洲欧洲中文日韩av乱码 | 亚洲无人区一区二区三区 | 中文字幕无线码免费人妻 | 国产av剧情md精品麻豆 | 永久免费观看美女裸体的网站 | 免费无码肉片在线观看 | 狠狠色噜噜狠狠狠狠7777米奇 | 日日摸日日碰夜夜爽av | 国产精品va在线播放 | 天天躁日日躁狠狠躁免费麻豆 | 亚无码乱人伦一区二区 | 亚洲国产精品毛片av不卡在线 | 国产av久久久久精东av | 日韩人妻无码一区二区三区久久99 | 中文字幕无码日韩专区 | 亚洲va中文字幕无码久久不卡 | 日韩av无码一区二区三区不卡 | 免费国产成人高清在线观看网站 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 午夜精品一区二区三区在线观看 | 免费视频欧美无人区码 | 国产成人精品三级麻豆 | 四十如虎的丰满熟妇啪啪 | 免费看男女做好爽好硬视频 | 国产网红无码精品视频 | 中文字幕乱码人妻二区三区 | 精品国产一区av天美传媒 | 一区二区三区乱码在线 | 欧洲 | 欧美老熟妇乱xxxxx | 亚洲精品成人av在线 | 日韩欧美中文字幕在线三区 | 日韩精品a片一区二区三区妖精 | 人妻无码久久精品人妻 | 奇米影视7777久久精品 | 在线成人www免费观看视频 | 熟女俱乐部五十路六十路av | 天天拍夜夜添久久精品大 | 人人妻人人澡人人爽精品欧美 | 亚洲人成网站在线播放942 | 中文字幕无码免费久久99 | 18精品久久久无码午夜福利 | 无码人妻精品一区二区三区下载 | 99久久99久久免费精品蜜桃 | 成人亚洲精品久久久久软件 | 亚洲国产欧美日韩精品一区二区三区 | 欧美 亚洲 国产 另类 | 欧美性生交活xxxxxdddd | 丝袜美腿亚洲一区二区 | 久久成人a毛片免费观看网站 | 精品人人妻人人澡人人爽人人 | 久久五月精品中文字幕 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲一区二区三区无码久久 | 国内综合精品午夜久久资源 | 麻豆人妻少妇精品无码专区 | av无码久久久久不卡免费网站 | 蜜桃av抽搐高潮一区二区 | 午夜无码人妻av大片色欲 | 东京一本一道一二三区 | 粗大的内捧猛烈进出视频 | 老熟妇仑乱视频一区二区 | 欧洲美熟女乱又伦 | 伊人色综合久久天天小片 | 久久99精品久久久久久动态图 | 色一情一乱一伦一视频免费看 | 人妻天天爽夜夜爽一区二区 | 水蜜桃色314在线观看 | 亚洲午夜无码久久 | 十八禁真人啪啪免费网站 | 国产内射老熟女aaaa | 中文字幕无码免费久久99 | 最近中文2019字幕第二页 | 国产卡一卡二卡三 | 帮老师解开蕾丝奶罩吸乳网站 | 欧美freesex黑人又粗又大 | 天天爽夜夜爽夜夜爽 | 人人妻人人澡人人爽欧美一区九九 | 波多野结衣av在线观看 | www成人国产高清内射 | 国产精品久久久久久久影院 | 国内精品人妻无码久久久影院蜜桃 | 亚洲精品一区二区三区在线 | 中文字幕日韩精品一区二区三区 | 丰腴饱满的极品熟妇 | 久久久久99精品国产片 | 国产精品无码mv在线观看 | 欧美人妻一区二区三区 | 强奷人妻日本中文字幕 | 国产精品久久久一区二区三区 | 人妻有码中文字幕在线 | 性史性农村dvd毛片 | 亚洲精品午夜无码电影网 | 色婷婷综合中文久久一本 | 樱花草在线社区www | 任你躁国产自任一区二区三区 | 国产av久久久久精东av | 综合激情五月综合激情五月激情1 | 国产福利视频一区二区 | 日本成熟视频免费视频 | 无人区乱码一区二区三区 | 欧美一区二区三区视频在线观看 | 日本丰满熟妇videos | 久热国产vs视频在线观看 | 国产99久久精品一区二区 | 领导边摸边吃奶边做爽在线观看 | 午夜精品一区二区三区的区别 | 国产亚洲精品久久久久久久久动漫 | 中文字幕无码人妻少妇免费 | 国产乱码精品一品二品 | 国产一区二区三区四区五区加勒比 | 色欲人妻aaaaaaa无码 | www一区二区www免费 | 欧美 亚洲 国产 另类 | 玩弄人妻少妇500系列视频 | 婷婷五月综合缴情在线视频 | 久久亚洲中文字幕无码 | 美女黄网站人色视频免费国产 | 日本一区二区三区免费播放 | 国产精品久久久久7777 | a片在线免费观看 | 中文精品久久久久人妻不卡 | 久久久久se色偷偷亚洲精品av | 国产熟妇高潮叫床视频播放 | 最新国产麻豆aⅴ精品无码 | 熟妇人妻无码xxx视频 | 极品嫩模高潮叫床 | 女人被男人躁得好爽免费视频 | 亚洲成色www久久网站 | 国产精品国产三级国产专播 | 无码播放一区二区三区 | 国产精品久久国产三级国 | 日本精品人妻无码77777 天堂一区人妻无码 | 亚洲人成人无码网www国产 | 日韩成人一区二区三区在线观看 | 精品乱子伦一区二区三区 | 国产又粗又硬又大爽黄老大爷视 | 久久久久人妻一区精品色欧美 | 国产电影无码午夜在线播放 | 久久精品成人欧美大片 | 欧美精品一区二区精品久久 | 国产绳艺sm调教室论坛 | 久久人人97超碰a片精品 | 国产婷婷色一区二区三区在线 | 天天摸天天透天天添 | 亚拍精品一区二区三区探花 | 人妻人人添人妻人人爱 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 亚洲精品久久久久中文第一幕 | 亚洲精品无码人妻无码 | 天天综合网天天综合色 | 国产亚洲精品久久久久久久久动漫 | 久久99热只有频精品8 | 国精产品一品二品国精品69xx | 俺去俺来也www色官网 | 在线播放无码字幕亚洲 | 天天摸天天透天天添 | 牲欲强的熟妇农村老妇女视频 | 久久综合香蕉国产蜜臀av | 亚洲中文无码av永久不收费 | 久久人妻内射无码一区三区 | 日韩人妻系列无码专区 | 最新版天堂资源中文官网 | 午夜时刻免费入口 | 人人爽人人澡人人高潮 | 帮老师解开蕾丝奶罩吸乳网站 | 免费无码午夜福利片69 | 日本爽爽爽爽爽爽在线观看免 | 亚洲精品无码人妻无码 | 日日干夜夜干 | 亚洲va欧美va天堂v国产综合 | 欧美日本免费一区二区三区 | 日韩精品无码一区二区中文字幕 | 人人爽人人爽人人片av亚洲 | 无码播放一区二区三区 | 久久国产精品偷任你爽任你 | 国内少妇偷人精品视频免费 | 成人精品视频一区二区三区尤物 | 午夜无码人妻av大片色欲 | 国产精品毛多多水多 | aⅴ亚洲 日韩 色 图网站 播放 | 精品无码国产自产拍在线观看蜜 | 国产成人综合在线女婷五月99播放 | 天天摸天天透天天添 | 风流少妇按摩来高潮 | 老熟妇仑乱视频一区二区 | 成人无码精品1区2区3区免费看 | 美女张开腿让人桶 | 天天综合网天天综合色 | 俄罗斯老熟妇色xxxx | 欧美亚洲日韩国产人成在线播放 | 国产精品亚洲综合色区韩国 | 国产精品99爱免费视频 | 狠狠躁日日躁夜夜躁2020 | 窝窝午夜理论片影院 | 亚洲精品综合一区二区三区在线 | 2020最新国产自产精品 | 国产亚洲人成在线播放 | 成人影院yy111111在线观看 | 国产一精品一av一免费 | 中文字幕亚洲情99在线 | 亚洲精品美女久久久久久久 | 装睡被陌生人摸出水好爽 | 东京一本一道一二三区 | 丰满人妻被黑人猛烈进入 | 国产人妻久久精品二区三区老狼 | 亚洲一区二区三区香蕉 | 国产精品香蕉在线观看 | 亚洲成在人网站无码天堂 | 蜜桃视频韩日免费播放 | 99国产精品白浆在线观看免费 | 国产小呦泬泬99精品 | 国产区女主播在线观看 | 欧美大屁股xxxxhd黑色 | a片在线免费观看 | 久久99精品久久久久久动态图 | 亚洲色www成人永久网址 | 精品国精品国产自在久国产87 | 国产乡下妇女做爰 | 伊人久久婷婷五月综合97色 | 天天拍夜夜添久久精品大 | 国内精品人妻无码久久久影院蜜桃 | 国产乱人偷精品人妻a片 | 国产乱人伦偷精品视频 | 久久综合九色综合欧美狠狠 | 激情人妻另类人妻伦 | 欧美日韩综合一区二区三区 | а天堂中文在线官网 | 亚洲成a人片在线观看日本 | 国産精品久久久久久久 | 无码精品国产va在线观看dvd | 国产无遮挡又黄又爽免费视频 | 久久天天躁狠狠躁夜夜免费观看 | 99精品视频在线观看免费 | 精品久久久无码人妻字幂 | 亚洲精品国偷拍自产在线观看蜜桃 | 国内少妇偷人精品视频免费 | 婷婷丁香六月激情综合啪 | 日本精品少妇一区二区三区 | √天堂资源地址中文在线 | 国产乡下妇女做爰 | 国产熟女一区二区三区四区五区 | 无码精品人妻一区二区三区av | 中文字幕人妻无码一夲道 | 国产亚洲精品久久久久久大师 | 国产午夜亚洲精品不卡 | 综合激情五月综合激情五月激情1 | 国产无遮挡又黄又爽免费视频 | 国产va免费精品观看 | 亚洲国产综合无码一区 | 玩弄中年熟妇正在播放 | 久久zyz资源站无码中文动漫 | 久久久久久久人妻无码中文字幕爆 | 2020久久香蕉国产线看观看 | 国产人妻人伦精品1国产丝袜 | 国产精华av午夜在线观看 | 国产成人综合色在线观看网站 | 久久久精品456亚洲影院 | 国产亚洲精品久久久久久大师 | 国产av无码专区亚洲awww | 久久精品中文字幕大胸 | 99久久亚洲精品无码毛片 | 国产人妻精品午夜福利免费 | 婷婷丁香五月天综合东京热 | 日韩在线不卡免费视频一区 | 亚洲熟悉妇女xxx妇女av | 亚洲男人av香蕉爽爽爽爽 | av人摸人人人澡人人超碰下载 | 婷婷六月久久综合丁香 | 成人aaa片一区国产精品 | 日日摸日日碰夜夜爽av | 国产精品人妻一区二区三区四 | 亚洲熟妇色xxxxx欧美老妇y | 好男人www社区 | 中文字幕乱码亚洲无线三区 | 亚洲一区二区三区国产精华液 | 国产sm调教视频在线观看 | 亚洲小说春色综合另类 | ass日本丰满熟妇pics | 日韩欧美中文字幕在线三区 | 欧洲欧美人成视频在线 | 亚洲国产日韩a在线播放 | 午夜成人1000部免费视频 | 精品aⅴ一区二区三区 | 国产亚洲日韩欧美另类第八页 | 荡女精品导航 | 少妇邻居内射在线 | 亚洲精品午夜无码电影网 | 伦伦影院午夜理论片 | 人人妻人人澡人人爽人人精品 | 网友自拍区视频精品 | 青春草在线视频免费观看 | 18禁黄网站男男禁片免费观看 | 日韩精品一区二区av在线 | 精品成人av一区二区三区 | 少妇性荡欲午夜性开放视频剧场 | 国产综合在线观看 | 国产亚洲视频中文字幕97精品 | 女高中生第一次破苞av | 丰满人妻翻云覆雨呻吟视频 | 色偷偷人人澡人人爽人人模 | 4hu四虎永久在线观看 | 激情内射日本一区二区三区 | 日日橹狠狠爱欧美视频 | 日本大乳高潮视频在线观看 | 中文字幕人妻无码一夲道 | 亚洲欧洲日本综合aⅴ在线 | 亚洲人成影院在线无码按摩店 | 成人无码影片精品久久久 | 波多野结衣aⅴ在线 | 无人区乱码一区二区三区 | 久久久亚洲欧洲日产国码αv | 性色欲情网站iwww九文堂 | 国产又爽又黄又刺激的视频 | 欧美日本日韩 | 国产精品亚洲lv粉色 | 伊人色综合久久天天小片 | 天堂久久天堂av色综合 | 牲欲强的熟妇农村老妇女视频 | 亚洲色成人中文字幕网站 | 麻豆精产国品 | 亚洲国产午夜精品理论片 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 午夜不卡av免费 一本久久a久久精品vr综合 | 牛和人交xxxx欧美 | 无码人妻精品一区二区三区下载 | 99久久久无码国产aaa精品 | 精品人妻人人做人人爽夜夜爽 | 日本一卡二卡不卡视频查询 | a片免费视频在线观看 | 久久无码中文字幕免费影院蜜桃 | 亚洲а∨天堂久久精品2021 | 久久久精品人妻久久影视 | 精品aⅴ一区二区三区 | 国产 精品 自在自线 | 在线亚洲高清揄拍自拍一品区 | 99久久久无码国产精品免费 | 色综合久久中文娱乐网 | 成人av无码一区二区三区 | www成人国产高清内射 | 亚洲一区二区三区香蕉 | 国产真实乱对白精彩久久 | 狠狠cao日日穞夜夜穞av | 国产午夜福利100集发布 | 国产综合在线观看 | 青青青爽视频在线观看 | 精品国偷自产在线视频 | 亚洲精品一区三区三区在线观看 | 久久久中文字幕日本无吗 | 乱中年女人伦av三区 | 国产人妻精品午夜福利免费 | 婷婷综合久久中文字幕蜜桃三电影 | 色五月丁香五月综合五月 | 国产婷婷色一区二区三区在线 | 国产色视频一区二区三区 | 高潮毛片无遮挡高清免费视频 | 伊在人天堂亚洲香蕉精品区 | 18禁止看的免费污网站 | 精品厕所偷拍各类美女tp嘘嘘 | 最新国产麻豆aⅴ精品无码 | 综合网日日天干夜夜久久 | 成人无码精品1区2区3区免费看 | 亚洲精品国产a久久久久久 | 亚洲国产精品久久久天堂 | 亚洲欧美日韩成人高清在线一区 | 正在播放东北夫妻内射 | 天天拍夜夜添久久精品大 | 人妻少妇精品无码专区动漫 | 窝窝午夜理论片影院 | 久久国产精品萌白酱免费 | 精品少妇爆乳无码av无码专区 | 亚洲第一网站男人都懂 | 欧美国产日韩久久mv | 成人精品视频一区二区三区尤物 | 四虎国产精品免费久久 | 少妇无码一区二区二三区 | 熟女体下毛毛黑森林 | a片免费视频在线观看 | 国产一区二区三区四区五区加勒比 | 东京热无码av男人的天堂 | 水蜜桃av无码 | 无码一区二区三区在线 | 荫蒂被男人添的好舒服爽免费视频 | 日韩人妻无码一区二区三区久久99 | 无码av岛国片在线播放 | 亚洲国产精品久久久天堂 | 成在人线av无码免观看麻豆 | 99er热精品视频 | 风流少妇按摩来高潮 | 亚洲国产精品无码久久久久高潮 | www成人国产高清内射 | 国产亚洲精品精品国产亚洲综合 | 在线观看国产午夜福利片 | 亚洲人成网站色7799 | 国产猛烈高潮尖叫视频免费 | 红桃av一区二区三区在线无码av | 国产精品亚洲lv粉色 | 成人亚洲精品久久久久软件 | 成在人线av无码免费 | 国产av剧情md精品麻豆 | 蜜臀aⅴ国产精品久久久国产老师 | 欧美老人巨大xxxx做受 | 亚洲国产高清在线观看视频 | 国产色精品久久人妻 | 亚洲精品久久久久久一区二区 | 久久99精品久久久久婷婷 | 久久久久久久女国产乱让韩 | 国产精品人妻一区二区三区四 | 狂野欧美激情性xxxx | 久久www免费人成人片 | 国产精品久久久久久久影院 | 国产一区二区三区影院 | 性做久久久久久久久 | 国产精品无码永久免费888 | 精品 日韩 国产 欧美 视频 | 九月婷婷人人澡人人添人人爽 | 桃花色综合影院 | 国精产品一品二品国精品69xx | 人妻有码中文字幕在线 | 一个人免费观看的www视频 | 日本乱人伦片中文三区 | 亚洲欧美精品伊人久久 | 日韩精品无码一本二本三本色 | 成人精品天堂一区二区三区 | 亚洲色欲久久久综合网东京热 | 国产婷婷色一区二区三区在线 | 纯爱无遮挡h肉动漫在线播放 | 欧美激情综合亚洲一二区 | 对白脏话肉麻粗话av | 久久久久久九九精品久 | 亚洲精品久久久久久一区二区 | 最近中文2019字幕第二页 | 永久黄网站色视频免费直播 | 国产69精品久久久久app下载 | 无码一区二区三区在线观看 | 久久国产劲爆∧v内射 | 久久久久av无码免费网 | 色一情一乱一伦一区二区三欧美 | 亚洲国产欧美日韩精品一区二区三区 | 97色伦图片97综合影院 | 国产麻豆精品一区二区三区v视界 | 免费观看激色视频网站 | 少妇被粗大的猛进出69影院 | 2020最新国产自产精品 | 国产成人精品优优av | 性欧美疯狂xxxxbbbb | a国产一区二区免费入口 | 亚洲精品久久久久久久久久久 | 久久久久久亚洲精品a片成人 | 亚洲伊人久久精品影院 | 激情综合激情五月俺也去 | 亚洲欧美国产精品专区久久 | 亚洲熟女一区二区三区 | 国产精品久久精品三级 | 国产肉丝袜在线观看 | 成人免费视频视频在线观看 免费 | 精品少妇爆乳无码av无码专区 | 精品无码一区二区三区的天堂 | 桃花色综合影院 | 激情亚洲一区国产精品 | 欧美日韩亚洲国产精品 | 亚洲热妇无码av在线播放 | 性做久久久久久久免费看 | 久久精品国产99精品亚洲 | 麻豆国产丝袜白领秘书在线观看 | 任你躁国产自任一区二区三区 | 樱花草在线播放免费中文 | 久久久久久九九精品久 | 天堂а√在线地址中文在线 | 国产免费久久精品国产传媒 | 婷婷丁香五月天综合东京热 | 久久婷婷五月综合色国产香蕉 | 成人性做爰aaa片免费看不忠 | 亚洲另类伦春色综合小说 | 丰满诱人的人妻3 | 99er热精品视频 | 300部国产真实乱 | 性啪啪chinese东北女人 | 麻豆国产人妻欲求不满 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 亚洲 日韩 欧美 成人 在线观看 | 我要看www免费看插插视频 | 国产亚洲精品精品国产亚洲综合 | 亚洲色无码一区二区三区 | 国产人妻精品午夜福利免费 | 免费网站看v片在线18禁无码 | 久久久婷婷五月亚洲97号色 | 最近中文2019字幕第二页 | 亚洲一区二区三区含羞草 | 小sao货水好多真紧h无码视频 | 又黄又爽又色的视频 | av无码久久久久不卡免费网站 | 国产精品欧美成人 | 国产av一区二区三区最新精品 | 中文字幕人妻无码一区二区三区 | 国产三级久久久精品麻豆三级 | 日本免费一区二区三区最新 | 欧美肥老太牲交大战 | 国产成人精品无码播放 | yw尤物av无码国产在线观看 | 欧美国产日韩亚洲中文 | 丰满人妻翻云覆雨呻吟视频 | 人人妻人人澡人人爽精品欧美 | 日本丰满熟妇videos | 成人片黄网站色大片免费观看 | 成年女人永久免费看片 | 亚洲精品午夜国产va久久成人 | 婷婷综合久久中文字幕蜜桃三电影 | 免费国产黄网站在线观看 | 欧美成人高清在线播放 | 欧美日韩久久久精品a片 | 久久久精品456亚洲影院 | 东京热无码av男人的天堂 | 日本大乳高潮视频在线观看 | 强辱丰满人妻hd中文字幕 | 日产精品高潮呻吟av久久 | 国产97人人超碰caoprom | 人妻少妇精品无码专区二区 | 亚洲人成影院在线观看 | 亚洲一区av无码专区在线观看 | 国产亚洲精品久久久久久大师 | 福利一区二区三区视频在线观看 | 夜夜高潮次次欢爽av女 | 国产成人无码av在线影院 | 国产精品第一国产精品 | 色综合久久久无码中文字幕 | 中文字幕无码av激情不卡 | 任你躁国产自任一区二区三区 | 国产午夜无码精品免费看 | 国产成人人人97超碰超爽8 | 亚洲乱码国产乱码精品精 | 亚洲国产精品久久人人爱 | 欧美人与禽猛交狂配 | 色综合视频一区二区三区 | 99视频精品全部免费免费观看 | √天堂中文官网8在线 | 无码纯肉视频在线观看 | 99久久人妻精品免费二区 | 亚洲精品一区二区三区婷婷月 | 在线播放免费人成毛片乱码 | 熟妇人妻激情偷爽文 | 免费观看的无遮挡av | 欧美丰满少妇xxxx性 | 一个人看的视频www在线 | 国产激情艳情在线看视频 | 精品国产一区二区三区av 性色 | 国产色xx群视频射精 | 人人妻人人澡人人爽人人精品浪潮 | 美女极度色诱视频国产 | 国产精品人妻一区二区三区四 | 国产两女互慰高潮视频在线观看 | 牲交欧美兽交欧美 | 俺去俺来也www色官网 | av在线亚洲欧洲日产一区二区 | 日本欧美一区二区三区乱码 | 亚洲一区二区三区播放 | 澳门永久av免费网站 | 国产成人无码av一区二区 | 老熟妇仑乱视频一区二区 | 内射欧美老妇wbb | 老司机亚洲精品影院无码 | 欧美性色19p | 日本乱人伦片中文三区 | 荫蒂添的好舒服视频囗交 | 亚洲精品一区国产 | 欧美人与牲动交xxxx | 国产办公室秘书无码精品99 | 日本一区二区三区免费播放 | аⅴ资源天堂资源库在线 | 少妇无套内谢久久久久 | 4hu四虎永久在线观看 | 亚洲中文字幕乱码av波多ji | 又大又硬又黄的免费视频 | 亚洲欧美中文字幕5发布 | 色偷偷人人澡人人爽人人模 | 成人亚洲精品久久久久 | 伦伦影院午夜理论片 | 丰满妇女强制高潮18xxxx | 国产免费久久久久久无码 | 国产成人av免费观看 | 中文久久乱码一区二区 | 性生交大片免费看l | 亚洲欧洲日本无在线码 | 在线 国产 欧美 亚洲 天堂 | 在线播放免费人成毛片乱码 |