久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

2021_KDD_Socially-Aware Self-Supervised Tri-Training for Recommendation

發布時間:2024/5/14 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 2021_KDD_Socially-Aware Self-Supervised Tri-Training for Recommendation 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

[論文閱讀筆記]2021_KDD_Socially-Aware Self-Supervised Tri-Training for Recommendation

論文下載地址: https://doi.org/10.1145/3447548.3467340
發表期刊:KDD
Publish time: 2021
作者及單位:

  • Junliang Yu The University of Queensland Brisbane, Australiajl.yu@uq.edu.au
  • Hongzhi Yin? The University of Queensland Brisbane, Australia h.yin1@uq.edu.au
  • Min Gao Chongqing University Chongqing, China gaomin@cqu.edu.cn
  • Xin Xia The University of Queensland Brisbane, Australia x.xia@uq.edu.au
  • Xiangliang Zhang KAUST Thuwal, Saudi Arabia xiangliang.zhang@kaust.edu.sa
  • Nguyen Quoc Viet Hung Griffith University Gold Coast, Australia quocviethung1@gmail.com

數據集:

  • Last.fm http://files.grouplens.org/datasets/hetrec2011/ 作者給的
  • Douban-Book https://github.com/librahu/HIN-Datasets-for-Recommendation-and-Network-Embedding
  • Yelp https://github.com/Coder-Yu/QRec

代碼:

  • https://github.com/Coder-Yu/QRec (作者在論文中公開的)

其他人寫的文章

  • Socially-Aware Self-Supervised Tri-Training for Recommendation
  • Heterogeneous graph + self-supervised

簡要概括創新點: (把SSL(Semi Supervised Learning)和Tri training,和對比學習(Contrastive Learning) 搬過來,完美地用起來。這波作者是MHCN的作者,有些思想接著用(尤其是User,Item三角關系))

  • (1)We propose a general socially-aware self-supervised tri-training framework for recommendation. By unifying the recommendation task and the SSL task under this framework, the recommendation performance can achieve significant gains. (我們提出了一個通用的社交意識自監督tri-training推薦框架。通過在此框架下統一推薦任務和SSL任務,推薦性能可以取得顯著的改進。)
  • (2)by discovering self-supervision signals from two complementary views of the raw data. (通過從原始數據的兩個互補視圖中發現自監督信號來改進推薦。)
  • (3)Under the self-supervised tri-training scheme, the neighbor-discrimination based contrastive learning method is developed to refine user representations with pseudo-labels from the neighbors=. (在self-supervised tri-training方案下,提出了基于鄰居識別== 的 對比學習方法,利用鄰居中的偽標簽來細化用戶表示。)

細節

  • (1) Tri-training [47] is a popular semi-supervised learning algorithm which exploits unlabeled data using three classifiers. (tri-training是一種流行的半監督學習算法,它使用三種分類器利用無標簽數據)
  • (2)Then, in the labeling process of tri-training, for any classifier, an unlabeled example can be labeled for it as long as the other two classifiers agree on the labeling of this example. The generated pseudo-label is then used as the ground-truth to train the corresponding classifier in the next round of labeling. (然后,在 Tri-Training的標記過程中,對于任何一個分類器,只要其他兩個分類器對這個例子的標記達成一致,就可以對一個未標記的例子進行標記。然后將生成的偽標簽作為真實值,在下一輪標記中訓練相應的分類器。)
  • (3)LightGCN [11] is the basic encoder in SEPT.

ABSTRACT

  • Self-supervised learning (SSL), which can automatically generate ground-truth samples from raw data, holds vast potential to improve recommender systems. Most existing SSL-based methods perturb the raw data graph with uniform node/edge dropout to generate new data views and then conduct the self-discrimination based contrastive learning over different views to learn generalizable representations. Under this scheme, only a bijective mapping is built between nodes in two different views, which means that the self-supervision signals from other nodes are being neglected. (自監督學習(SSL)可以從原始數據中自動生成真實樣本,在改進推薦系統方面具有巨大的潛力。現有的基于ssl的方法通過節點/邊dropout干擾原始數據圖,生成新的數據視圖,然后對不同視圖進行基于對比學習的自識別,學習通用的表示。 在該模式下,只在兩個不同視圖的節點之間建立一個雙射映射,說明忽略了來自其他節點的自監督信號。
  • Due to the widely observed homophily in recommender systems, we argue that the supervisory signals from other nodes are also highly likely to benefit the representation learning for recommendation. To capture these signals, a general socially-aware SSL framework that integrates tri-training is proposed in this paper. (由于在推薦系統中被廣泛觀察到的同質性,我們認為來自其他節點的監督信號也很有可能有利于推薦的表示學習。為了捕獲這些信號,本文提出了一種集成 tri-training的通用社交感知SSL框架。)
  • Technically, our framework first augments the user data views with the user social information. (從技術上講,我們的框架首先通過用戶的社交信息來增強用戶的數據視圖)
    • And then under the regime of tri-training for multi-view encoding, the framework builds three graph encoders (one for ecommendation) upon the augmented views and iteratively improves each encoder with self-supervision signals from other users, generated by the other two encoders. (然后在多視圖編碼的tri-training機制下,該框架在增強視圖上構建三個圖編碼器(只有一個編碼器用于推薦),并利用其他兩個編碼器生成的其他用戶的自監督信號對每個編碼器進行迭代更新。)
    • Since the tri-training operates on the augmented views of the same data sources for self-supervision signals, we name it self-supervised tri-training. (由于tri-training是在自監督信號的相同數據源的增強視圖上進行的,因此我們將其命名為 self-supervised tri-training。)
    • Extensive experiments on multiple real-world datasets consistently validate the effectiveness of the self-supervised tritraining framework for improving recommendation. The code is released at https://github.com/Coder-Yu/QRec.

CCS CONCEPTS

? Information systems → Recommender systems; ? Theory of computation → Semi-supervised learning.

KEYWORDS

Self-Supervised Learning, Tri-Training, Recommender Systems, Contrastive Learning

1 INTRODUCTION

  • (1) Self-supervised learning (SSL) [17], emerging as a novel learning paradigm that does not require human-annotated labels, recently has received considerable attention in a wide range of fields [5, 8, 16, 21, 23, 27, 45]. As the basic idea of SSL is to learn with the automatically generated supervisory signals from the raw data, which is an antidote to the problem of data sparsity in recommender systems, SSL holds vast potential to improve recommendation quality. The recent progress in self-supervised graph representation learning [14, 27, 40] has identified an effective training scheme for graph-based tasks. That is, performing stochastic augmentation by perturbing the raw graph with uniform node/edge dropout or random feature shuffling/masking to create supplementary views and then maximizing the agreement between the representations of the same node but learned from different views, which is known as graph contrastive learning [40]. Inspired by its effectiveness, a few studies [19, 29, 37, 46] then follow this training scheme and are devoted to transplanting it to recommendation. (自監督學習(SSL)是一種不需要人工標注標簽的新型學習范式,最近在許多領域受到了相當廣泛的關注。由于SSL的基本思想是從原始數據中學習自動生成的監督信號,可以解決推薦系統中的數據稀疏性問題,因此SSL在提高推薦性能方面具有巨大的潛力。自監督圖表示學習的最新進展已經證明是一種有效的基于圖的任務訓練模式。也就是說,通過使用節點/邊dropout或隨機特征變換/掩蔽原始圖執行隨機增強,以創建補充視圖,然后最大化同一節點但從不同視圖學習的表示之間的一致性,這稱為圖對比學習。受其有效性的啟發,一些研究遵循這個訓練模式,并致力于將其移植到推薦中。

  • (2) With these research effort, the field of self-supervised recommendation recently has demonstrated some promising results showing that mining supervisory signals from stochastic augmentations is desirable [29, 46]. However, in contrast to other graph-based tasks, recommendation is distinct because there is widely observed homophily across users and items [20]. Most existing SSL-based methods conduct the self-discrimination based contrastive learning over the augmented views to learn generalizable representations against the variance in the raw data. **Under this scheme, a bijective mapping is built between nodes in two different views, and a given node can just exploit information from itself in another view. Meanwhile, the other nodes are regarded as the negatives that are pushed apart from the given node in the latent space. Obviously, a number of nodes are false negatives which are similar to the given node due to the homophily, and can actually benefit representation learning in the scenario of recommendation if they are recognized as the positives. Conversely, roughly classifying them into the negatives could lead to a performance drop.
    (通過這些研究的努力,自監督推薦領域最近已經被證明了一些有潛力的結果,表明從隨機增強中挖掘監督信號是可取的。然而,與其他基于圖的任務相比,推薦是截然不同的,因為在用戶和商品之間有廣泛觀察到的同質性。大多數現有的基于ssl的方法是對增廣視圖進行基于自識別的對比學習,以學習針對原始數據的通用表示。在該方案下,在兩個不同視圖中的節點之間建立一個雙射,一個給定的節點可以在另一個視圖中從它本身挖掘信息。同時,將在潛在空間中的其他節點視為與給定節點被推開遠離的==負節點==。一些節點是假負樣本,由于同質性,它們與給定的節點相似,如果它們被識別為正樣本,那么在推薦下,實際上可以有利于表示學習。相反,把它們粗略地歸入負樣本可能會導致性能下降。

  • (3) To tackle this issue, a socially-aware SSL framework which combines the tri-training [47] (multi-view co-training) with SSL is proposed in this paper. (為了解決這一問題,本文提出了一種將 tri-training(多視圖共同訓練)與SSL相結合的社交感知SSL框架)

    • For supplementary views that can capture the homophily among users, we resort to social relations which can be another data source that implicitly reflects users’ preferences [4, 38, 41–43]. Owing to the prevalence of social platforms in the past decade, social relations are now readily accessible in many recommender systems. (補充的視圖可以捕獲用戶之間的同質性,從另一個隱式反映用戶偏好的數據源中捕捉社交關系。由于在過去的十年中社交平臺的流行,社交關系現在在許多推薦系統中都很容易獲得)
    • We exploit the triadic structures in the user-user and user-item interactions to augment two supplementary data views, and socially explain them as profiling users’ interests in expanding social circles and sharing desired items to friends, respectively. (我們利用用戶-用戶和用戶-項目交互中的三元結構來增強兩個補充數據視圖,并分別將其解釋為用戶在擴展社交圈的興趣和向朋友分享項目的興趣)
    • Given the use-item view which contains users’ historical purchases, we have three views that characterize users’ preferences from different perspectives and also provide us with a scenario to fuse tri-training and SSL. (考慮到用戶-項目視圖包含了用戶的歷史購買,我們有三個視圖從不同的角度描述用戶的偏好,并提供一個場景來融合 tri-training和SSL。)
  • (4) Tri-training [47] is a popular semi-supervised learning algorithm which exploits unlabeled data using three classifiers. (tri-training是一種流行的半監督學習算法,它使用三種分類器利用無標簽數據)

    • In this work, we employ it to mine self-supervision signals from other users in recommender systems with the multi-view encoding. Technically, we first build three asymmetric graph encoders over the three views, of which two are only for learning user representations and giving pseudo-labels, and another one working on the user-item view also undertakes the task of generating recommendations. (在本工作中,我們利用它來挖掘具有多視圖編碼的推薦系統中其他用戶的自監督信號。從技術上講,我們首先在三個視圖上構建了三個非對稱圖編碼器,其中兩個僅用于學習用戶表示和給出偽標簽,另一個針對用戶-項目視圖完成生成推薦的任務)
    • Then we dynamically perturb the social network and user-item interaction graph to create an unlabeled example set. Following the regime of tri-training, during each epoch, the encoders over the other two views predict the most probable semantically positive examples in the unlabeled example set for each user in the current view. (然后,我們動態地擾亂社交網絡和用戶-項目交互圖,創建一個無標簽的樣本集。在tri-training機制下,在每輪期間,其他兩個視圖上的編碼器預測當前視圖中每個用戶的無標簽的樣本集中最可能的語義正樣本。)
    • Then the framework refines the user representations by maximizing the agreement between representations of labeled users in the current view and the example set through the proposed neighbor-discrimination based contrastive learning. As all the encoders iteratively improve in this process, the generated pseudo-labels also become more informative, which in turn recursively benefit the encoders again. The recommendation encoder over the user-item view thus becomes stronger in contrast to those only enhanced by the self-discrimination SSL scheme. Since the tri-training operates on the complementary views of the same data sources to learn self-supervision signals, we name it self-supervised tri-training. (然后,該框架通過所提出的基于鄰居識別的對比學習細化用戶表示,即==最大化當前視圖中有標簽與無標簽數據集的用戶表示之間的一致性來細化用戶表示。隨著所有編碼器在這個過程中不斷改進,生成的偽標簽也變得更豐富,這反過來又遞歸地使編碼器再次受益。因此,與僅通過自識別SSL方案增強的推薦編碼器相比,用戶-項目視圖上的推薦編碼器變得更強。由于tri-training是基于同一數據源==的補充視圖來學習自監督信號,因此我們將其命名為自監督tri-training
  • (5) The major contributions of this paper are summarized as follows:

    • We propose a general socially-aware self-supervised tri-training framework for recommendation. By unifying the recommendation task and the SSL task under this framework, the recommendation performance can achieve significant gains. (我們提出了一個通用的社交意識自監督tri-training推薦框架。通過在此框架下統一推薦任務和SSL任務,推薦性能可以取得顯著的改進。)
    • We propose to exploit positive self-supervision signals from other users and develop a neighbor-discrimination based contrastive learning method. (我們提出從其他用戶中挖掘積極自監督信號,并開發一種基于鄰居識別的對比學習方法。)
    • We conduct extensive experiments on multiple real-world datasets to demonstrate the advantages of the proposed SSL framework and investigate the effectiveness of each module in the framework through a comprehensive ablation study.
  • (6) The rest of this paper is structured as follows. Section 2 summarizes the related work of recommendation and SSL. Section 3 introduces the proposed framework. The experimental results are reported in Section 4. Finally, Section 5 concludes this paper.

2 RELATED WORK

2.1 Graph Neural Recommendation Models

  • (1) Recently, graph neural networks (GNNs) [7, 34] have gained considerable attention in the field of recommender systems for their effectiveness in solving graph-related recommendation tasks. (近年來,圖神經網絡(GNNs)因其在解決圖相關推薦任務的有效性而在推薦系統領域受到了廣泛的關注。)
    • Particularly, GCN [15], as the prevalent formulation of GNNs which is a first-order approximation of spectral graph convolutions, has driven a multitude of graph neural recommendation models like GCMC [2], NGCF [28], and LightGCN [11]. (特別是,GCN,作為GNNs的普遍公式,即譜圖卷積的一階近似,已經驅動了大量的圖神經推薦模型,如GCMC,NGCF和LightGCN。)
    • The basic idea of these GCN-based models is to exploit the high-order neighbors in the user-item graph by aggregating the embeddings of neighbors to refine the target node’s embeddings [33]. In addition to these general models, GNNs also empower other recommendation methods working on specific graphs such as SR-GNN [32] and DHCN [35] over the session-based graph, and DiffNet [31] and MHCN [44] over the social network. It is worth mentioning that GNNs are often used for social computing as the information spreading in social networks can be well captured by the message passing in GNNs [31]. That is the reason why we resort to social networks for self-supervisory signals generated by graph neural encoders.
      這些基于GCN的模型的基本思想是通過聚合鄰居的嵌入來利用用戶-項目圖中的高階嵌入來細化目標節點的嵌入。除了這些通用模型之外,GNNs也被使用到其他針對特定圖的推薦方法中,如基于會話的圖SR-GNN和DHCN,以及社交網絡上的DiffNet和MHCN。值得一提的是,GNN經常被用于社交計算,因為GNN可以很好地捕獲社交網絡中的信息傳播。這就是為什么我們利用社交網絡由圖神經編碼器生成自監督信號的原因。

2.2 Self-Supervised Learning in RS (這個方向值得關注)

  • (1) Self-supervised learning [17] (SSL) is an emerging paradigm to learn with the automatically generated ground-truth samples from the raw data. It was firstly used in visual representation learning and language modeling [1, 5, 10, 12, 45] for model pretraining. The recent progress in SSL seeks to harness this flexible learning paradigm for graph representation learning [22, 23, 26, 27]. SSL models over graphs mainly mine self-supervision signals by exploiting the graph structure. The dominant regime of this line of research is graph contrastive learning which contrasts multiple views of the same graph where the incongruent views are built by conducting stochastic augmentations on the raw graph [9, 23, 27, 40]. The common types of stochastic augmentations include but are not limited to uniform node/edge dropout, random feature/attribute shuffling, and subgraph sampling using random walk.
    (自監督學習(SSL)是一種新興的范式,可以通過自動從原始數據中生成的真實樣本進行學習。它首先被用于視覺表示學習和語言建模進行模型預訓練。SSL的最新進展試圖利用這種靈活的學習范式來進行圖表示學習。圖上的SSL模型主要是利用圖的結構來挖掘自監督信號這一研究方向的主要機制是圖對比學習,它對比了同一個圖的多個視圖,其中不一樣的視圖是通過對原始圖進行隨機增強來建立的。常見的隨機增強類型包括但不限于節點/邊dropout、隨機特征/屬性變換和使用隨機游走的子圖采樣。

  • (2)Inspired by the success of graph contrastive learning, there have been some recent works [19, 29, 37, 46] which transplant the same idea to the scenario of recommendation. (受圖對比學習成功的啟發,最近有一些工作將同樣的想法移植到推薦的場景中)

    • Zhou et al. [46] devise auxiliary self-supervised objectives by randomly masking attributes of items and skipping items and subsequences of a given sequence for pretraining sequential recommendation model. (Self-Supervised Learning for Sequential Recommendation with Mutual Information Maximization通過隨機屏蔽項目的屬性、跳過給定序列的項目和子序列來設計輔助的自監督目標,用于預訓練順序推薦模型。)
    • Yao et al. [37] propose a two-tower DNN architecture with uniform feature masking and dropout for self-supervised item recommendation. (姚等人。[37]提出了一種具有統一特征掩蔽和丟棄的雙塔DNN架構,用于自我監督的項目推薦)
    • Maet al.[19] mine extra signals for supervision by looking at the longer-term future and reconstruct the future sequence for self-supervision, which adopts feature masking in essence. (馬氏等人。[19]通過觀察長遠的未來,挖掘額外的信號進行監控,重建未來的自我監控序列,本質上采用了特征掩蔽)
    • Wu et al. [29] summarize all the stochastic augmentations on graphs and unify them into a general self-supervised graph learning framework for recommendation. (吳等人。[29]總結了圖上所有的隨機增強,并將其統一為一個一般的自監督圖學習框架進行推薦。)
    • Besides, there are also some studies [25, 36, 44] refining user representations with mutual information maximization among a set of certain members (e.g. ad hoc groups) for self-supervised recommendation. However, these methods are used for specific situations and cannot be easily generalized to other scenarios. (此外,還有一些研究在集合間的互信息最大化來細化用戶表示。

3 PROPOSED FRAMEWORK

In this section, we present our SElf-suPervised Tri-training framework, called SEPT, with the goal of mining self-supervision signals from other users by the multi-view encoding. The overview of SEPT is illustrated in Fig. 1.

3.1 Preliminaries

3.1.1 Notations.

  • In this paper, we use two graphs as the data sources including the user-item interaction graph G r \mathcal{G}_r Gr? and the user social network G s \mathcal{G}s Gs.
    • U = { u 1 , u 2 , . . . , u m } ( ∣ U ∣ = m ) \mathcal{U} = \{u_1, u_2, ..., u_m\} (|\mathcal{U}| = m) U={u1?,u2?,...,um?}(U=m) denotes the user nodes across both G r \mathcal{G}r Gr and G s \mathcal{G}s Gs,
    • and I = i 1 , i 2 , . . . , i n ( ∣ I ∣ = n ) \mathcal{I} = {i1,i2, ...,in} (|\mathcal{I}| = n) I=i1,i2,...,in(I=n) denotes the item nodes in G r \mathcal{G}r Gr.
    • As we focus on item recommendation, R ∈ R m × n R \in R^{m\times n} RRm×n is the binary matrix with entries only 0 and 1 that represent user-item interactions in G r \mathcal{G}r Gr.
    • For each entry ( u , i ) (u,i) (u,i) in R R R, if user u u u has consumed/clicked item i i i, r u i = 1 r_{ui} = 1 rui?=1, otherwise r u i = 0 r_{ui} = 0 rui?=0.
    • As for the social relations, we use S ∈ R m × m S ∈ R^{m\times m} SRm×m to denote the social adjacency matrix which is binary and symmetric because we work on undirected social networks with bidirectional relations.
    • We use P ∈ R m × d P \in R^{m\times d} PRm×d and Q ∈ R n × d Q \in R^{n\times d} QRn×d to denote the learned final user and item embeddings for recommendation, respectively.
    • To facilitate the reading, in this paper, matrices appear in bold capital letters and vectors appear in bold lower letters.

3.1.2 Tri-Training.

  • Tri-training [47] is a popular semi-supervised learning algorithm which develops from the co-training paradigm [3] and tackles the problem of determining how to label the unlabeled examples to improve the classifiers. (Tri-Training是一種流行的半監督學習算法,它從co-training范式發展而來,解決了確定如何標記無標簽數據以改進分類器的問題。)
    • In contrast to the standard co-training algorithm which ideally requires two sufficient, redundant and conditionally independent views of the data samples to build two different classifiers, tri- training is easily applied by lifting the restrictions on training sets. (與標準的co-training算法在理想情況下需要兩個足夠的、冗余的和有條件獨立的數據樣本視圖來構建兩個不同的分類器相比,通過解除對訓練集的限制,可以很容易地使用 Tri-Training。)
    • It does not assume sufficient redundancy among the data attributes, and initializes three diverse classifiers upon three different data views generated via bootstrap sampling [6]. (它不假設數據屬性之間有足夠的冗余,并通過引導抽樣在生成的三個不同的數據視圖上初始化三個不同的分類器。)
    • Then, in the labeling process of tri-training, for any classifier, an unlabeled example can be labeled for it as long as the other two classifiers agree on the labeling of this example. The generated pseudo-label is then used as the ground-truth to train the corresponding classifier in the next round of labeling. (然后,在 Tri-Training的標記過程中,對于任何一個分類器,只要其他兩個分類器對這個例子的標記達成一致,就可以對一個未標記的例子進行標記。然后將生成的偽標簽作為真實值,在下一輪標記中訓練相應的分類器。)

3.2 Data Augmentation

3.2.1 View Augmentation.

  • (1) As has been discussed, there is widely observed homophily in recommender systems. Namely, users and items have many similar counterparts. (正如所討論的,在推薦系統中存在廣泛的同質性。也就是說,用戶和項目有許多相似的對應物。)

    • To capture the homophily for self-supervision, we exploit the user social relations for data augmentation as the social network is often known as a reflection of homophily [20, 39] (i.e., users who have similar preferences are more likely to become connected in the social network and vice versa). (為了獲取自監督的同質性,我們利用用戶的社交關系來增強數據,因為社交網絡通常被稱為同質性的反映。(即,有相似偏好的用戶更有可能在社交網絡中建立聯系,反之亦然))
    • Since many service providers such as Yelp1 encourage users to interact with others on their platforms, it provides their recommender systems with opportunities to leverage abundant social relations. However, as social relations are inherently noisy [41, 43], for accurate supplementary supervisory information, SEPT only utilizes the reliable social relations by exploiting the ubiquitous triadic closure [13] among users. (由于許多像Yelp這樣的服務提供商鼓勵用戶在其平臺上與他人互動,它為他們的推薦系統提供了利用豐富的社交關系的機會。然而,由于社會關系本質上是有噪聲的,對于準確的補充監督信息,SEPT僅利用 用戶中普遍存在的三元閉合 來使用可靠的社交關系。)
    • In a socially-ware recommender system, by aligning the user-item interaction graph G r \mathcal{G}_r Gr? and the social network G s \mathcal{G}_s Gs?, we can readily get two types of triangles: three users socially connected with each other (e.g.u1,u2andu4in Fig. 1) and two socially connected users with the same purchased item (e.g. u1,u2and i1in Fig. 1). The former is socially explained as profiling users’ interests in expanding social circles, and the latter is characterizing users’ interests in sharing desired items with their friends. It is straightforward to regard the triangles as strengthened ties because if two persons in real life have mutual friends or common interests, they are more likely to have a close relationship. (在社交軟件推薦系統中,通過對齊用戶-項目交互圖 G r \mathcal{G}_r Gr? 和社交網絡 G s \mathcal{G}_s Gs?,我們可以很容易地得到兩種三角形:三個用戶之間的社交聯系(如圖1中的𝑢1、𝑢2和𝑢4)和兩個購買相同項目的社交聯系用戶(如圖1中的𝑢1、𝑢2和𝑖1)。前者被解釋為描述用戶在擴充社交圈中的興趣,后者是描述用戶對他的朋友分享物品的興趣。直接認為三角形是加強的聯系,因為如果現實生活中的兩個人有共同的朋友或共同的利益,他們更有可能有親密的關系。) 這個做法,其實是沿用了作者們的上一篇文章,MHCN模型中的那10個三角形
  • (2) Following our previous work [44], the mentioned two types of triangles can be efficiently extracted in the form of matrix multiplication. Let A f ∈ R m × m A_f \in R^{m\times m} Af?Rm×m and A s ∈ R m × m A_s \in R^{m\times m} As?Rm×m denote the adjacency matrices of the users involved in these two types of triangular relations. They can be calculated by: (根據我們之前的工作(MHCN),上述兩種三角形可以有效地提取為矩陣乘法的形式, 表示包含這兩種三角關系的用戶鄰接矩陣。它們可通過以下方法進行計算:)

  • (3) The multiplication S S ( R R ? ) SS (RR^{\top}) SS(RR?) accumulates the paths connecting two user via shared friends (items), and the **Hadamard product ⊙ S \odot S S makes these paths into triangles.

    • Since both S S S and R R R are sparse matrices, the calculation is not time-consuming.
    • The operation ⊙ S \odot S S ensures that the relations in A f A_f Af? and A s A_s As? are subsets of the relations in S S S.
    • As A f A_f Af? and A s A_s As? are not binary matrices, Eq. (1) can be seen a special case of bootstrap sampling on S S S with the complementary information from R R R.
    • Given A f A_f Af? and A s A_s As? as the augmentation of S S S and R R R, we have three views that characterize users’ preferences from different perspectives and also provide us with a scenario to fuse ri-training and SSL. To facilitate the understanding, we name (我們有三個視圖從不同的角度來描述用戶的偏好,也為我們提供了一個融合tri-training和SSL的場景)
      • the view over the user-item interaction graph preference view,
      • the view over the triangular social relations friend view,
      • and another one sharing view,
      • which are represented by R, Af, and As, respectively.

3.2.2 Unlabeled Example Set.

  • To conduct tri-training, an unlabeled example set is required. We follow existing works [29,40] to perturb the raw graph with edge dropout at a certain probability ρ \rho ρ to create a corrupted graph from where the learned user presentations are used as the unlabeled examples. This process can be formulated as: (要進行tri-training,需要一個無標簽樣本集。我們遵循現有的工作,以概率𝜌對原始圖進行邊dropout,創建一個被干擾的圖,從中學習的用戶表示被用作無標簽的樣本。此過程可表述為:) (無標簽的數據是怎么來的)
    • where N r N_r Nr? and N s N_s Ns? are nodes,
    • E r Er Er and E s Es Es are edges in G r Gr Gr and G s Gs Gs,
    • and m ∈ { 0 , 1 } ∣ E r ∪ E s ∣ m \in \{0,1\} ^{| Er\cup Es|} m{0,1}ErEsis the masking vector to drop edges.
    • Herein we perturb both G r Gr Gr and G s Gs Gs instead of G r Gr Gr only, because the social information is included in the aforementioned two augmented views. (在這里,我們同時干擾 G 𝑟 G𝑟 Gr G 𝑠 G𝑠 Gs,而不是只干擾G𝑟,因為社交信息包含在上述兩個增強視圖中)
    • For integrated self-supervision signals, perturbing the joint graph is necessary. (對于集成的自監督信號,擾動連接圖是必要的。)

3.3 SEPT: Self-Supervised Tri-Training

3.3.1 Architecture.

  • With the augmented views and the unlabeled example set, we follow the setting of tri-training to build three encoders. Architecturally, the proposed self-supervised training framework can be model-agnostic so as to boost a multitude of graph neural recommendation models. But for a concrete framework which can be easily followed, we adopt LightGCN [11] as the basic structure of the encoders due to its simplicity. The general form of encoders is defined as follows: (使用增強視圖和無標簽的樣本集,我們遵循Tri-Training的設置來構建三個編碼器。在結構上,所提出的自監督訓練框架可以與模型無關,從而促進大量的圖神經推薦模型。 但對于一個易于遵循的具體框架,由于其簡單性,我們采用了LightGCN作為編碼器的基本結構。編碼器的一般形式的定義如下:
    • where H H H is the encoder,
    • Z ∈ R m × d Z \in R^{m\times d} ZRm×d or R ( m + n ) × d R^{(m+n)\times d} R(m+n)×d denotes the final representation of nodes,
    • E E E of the same size denotes the initial node embeddings which are the bottom shared by the three encoders,
    • and V ∈ { R , A s , A f } \mathcal{V} \in \{R,A_s,A_f\} V{R,As?,Af?} is any of the three views.
    • It should be noted that, unlike the vanilla tri-training, SEPT is asymmetric. (需要注意的是,與普通的tri-training不同,SEPT是不對稱的)
    • The two encoders H f Hf Hf and H s Hs Hs that work on the friend view and sharing view are only in charge of learning user representations through graph convolution and giving pseudo-labels, while the encoder Hrworking on the reference view also undertakes the task of generating recommendations and thus learns both user and item representations (shown in Fig. 1). (兩個編碼器𝐻𝑓和𝐻𝑠工作在朋友視圖、分享視圖上,只負責通過圖卷積學習用戶表示給出偽標簽,而編碼器𝐻𝑟工作在偏好視圖上,承擔生成推薦的任務,從而學習用戶和項目表示(如圖1所示))
    • Let H r Hr Hr be the dominant encoder (recommendation model), and H f Hf Hf and H s Hs Hs be the auxiliary encoders. Theoretically, given a concrete H r Hr Hr like LightGCN [11], there should be the optimal structures of H f Hf Hf and H s Hs Hs. (設𝐻𝑟為主編碼器(推薦模型),𝐻𝑓和𝐻𝑠為輔助編碼器。理論上,給定像LightGCN這樣的具體𝐻𝑟,應該有𝐻𝑓和𝐻𝑠的最優結構。)
    • However, exploring the optimal structures of the auxiliary encoders is out of the scope of this paper. For simplicity, we assign the same structure to H f Hf Hf and H s Hs Hs. Besides, to learn representations of the unlabeled examples from the perturbed graph G ~ \tilde{G} G~, another encoder is required, but it is only for graph convolution. All the encoders share the bottom embeddings E E E and are built over different views with the LightGCN structure. (然而,探索輔助編碼器的最優結構超出了本文的范圍。為簡單起見,我們將相同的結構分配給𝐻𝑓和𝐻𝑠。此外,為了從擾亂的圖?G中學習無標簽樣本的表示,需要另一個編碼器,但只做圖卷積。 所有的編碼器都共享初始嵌入𝑬,并使用LightGCN結構在不同的視圖上構建編碼器。)

3.3.2 Constructing Self-Supervision Signals.

  • (1) By performing graph convolution over the three views, the encoders learn three groups of user representations. As each view reflects a different aspect of the user preference, it is natural to seek supervisory information from the other two views to improve the encoder of the current view. Given a user, we predict its semantically positive examples in the unlabeled example set using the user representations from the other two views. Taking user u u u in the preference view as an instance, the labeling is formulated as: (通過在這三個視圖上進行圖卷積,編碼器學習了三組用戶表示。由于每個視圖都反映了用戶偏好的不同方面,因此從其他兩個視圖中尋求監督信息,以改進當前視圖的編碼器給定一個用戶,我們使用來自其他兩個視圖的用戶表示來預測它在無標簽樣本集中的語義上的正樣本以偏好視圖中的用戶𝑢為例子,表述為:

    • where ? \phi ? is the cosine operation,
    • z u s z^s_u zus? and z u f z^f_u zuf? are the representations of user u u u learned by H s H_s Hs? and H f H_f Hf?, respectively,
    • Z ~ \tilde{Z} Z~ is the representations of users in the unlabeled example set obtained through graph convolution, (通過圖卷積得到的無標簽樣本集中用戶的表示)
    • and y u + s y^s_{u+} yu+s? and y u + f y^f_{u+} yu+f? denote the predicted probability of each user being the semantically positive example of user u u u in the corresponding views. (每個用戶在相應視圖中為用戶𝑢的語義正樣本的預測概率。)
  • (2) Under the scheme of tri-training, to avoid noisy examples, only if both H s H_s Hs? and H f H_f Hf? agree on the labeling of a user being the positive sample, and then the user can be labeled for H r H_r Hr?. We obey this rule and add up the predicted probabilities from the two views and obtain: (在 tri-training方案下,為了避免噪聲樣本,只有𝐻𝑠和𝐻𝑓都同意將用戶標記為正樣本,才能在𝐻𝑟將用戶進行標記。) (我們遵循這一規則,并將從這兩個視圖中得到的預測概率加起來,得到:)

  • (3) With the probabilities, we can select K K K positive samples with the highest confidence. This process can be formulated as: (根據這些概率,我們可以選擇可信度最高的𝐾個正樣本。此過程可表述為:)

  • (4) In each iteration, G ~ \tilde{\mathcal{G}} G~? is reconstructed with the random edge dropout for varying user representations. (在每次迭代中,通過隨機邊dropout進行 G ~ \tilde{\mathcal{G}} G~?的重構,生成不同的用戶表示。)

    • SEPT dynamically generates positive pseudo-labels over this data augmentation for each user in every view. (SEPT在每個視圖中為每個用戶在數據增強中動態的生成正向偽標簽)
    • Then these labels are used as the supervisory signals to refine the shared bottom representations. (然后,這些標簽被用作監督信號來定義初始的底部表示。)

3.3.3 Contrastive Learning.

  • (1) Having the generated pseudo-labels, we develop the neighbor-discrimination contrastive learning method to fulfill self-supervision in SEPT. (通過生成的偽標簽,我們開發了鄰居識別對比學習方法來實現SEPT中的自監督)

  • (2) Given a certain user,

    • we encourage the consistency between his node representation and the labeled user representations from P u + \mathcal{P}_{u+} Pu+?, (我們鼓勵(應該就是最大化)他的節點表示和來自 P u + \mathcal{P}_{u+} Pu+?,的標記用戶表示之間的一致性)
    • and minimizing the agreement between his representation and the unlabeled user representations. (最小化他的表示和未標記的用戶表示之間的一致性。)
    • The idea of the neighbor-discrimination is that, given a certain user in the current view, (最小化他的表示和未標記的用戶表示之間的一致性。)
      • the positive pseudo-labels semantically represent his neighbors or potential neighbors in the other two views, then we should also bring these positive pairs together in the current view due to the homophily across different views. And this can be achieved through the neighbor-discrimination contrastive learning. (在當前視圖中給定確定的用戶,在其他兩個視圖中正向的偽標簽在語義上表示它的鄰居或潛在的鄰居,由于不同視圖的同質性,那么我們也應該把這些正對放到當前視圖中。這可以通過鄰居辨別對比學習來實現)
      • Formally, we follow the previous studies [5, 29] to adopt InfoNCE [12], which is effective in mutual information estimation, as our learning objective to maximize the agreement between positive pairs and minimize that of negative pairs: (形式上,我們遵循之前的研究,采用在互信息估計中有效的InfoNCE作為我們的學習目標,以最大化正對之間的一致性,最小化負對之間的一致性:)
    • where ψ ( z v U u , z ~ p ) = e x p ( ? ( z u v ? z ~ p ) τ ) \psi(z^vUu, \tilde{z}_p) = exp(\phi(z^v_u· \tilde{z}_p)\tau ) ψ(zvUu,z~p?)=exp(?(zuv??z~p?)τ)
    • ? ( ? ) : R d × R d ? R \phi(\cdot) : R^d \times R^d \longmapsto R ?(?):Rd×Rd?R is the discriminator function that takes two vectors as the input and then scores the agreement between them, (是一個辨別器函數,它輸入兩個向量,預估它們之間的一致性)
    • and τ \tau τ is the temperature to amplify the effect of discrimination ( τ \tau τ = 0.1 is the best in our implementation). (是為了放大辨別效果的溫度系數(在我們的實現中,=0.1是最佳的效果))
    • We simply implement the discriminator by applying the cosine operation. (我們可以簡單地通過應用余弦操作來實現辨別器)
    • Compared with the self-discrimination, the neighbor-discrimination leverages the supervisory signals from the other users. (與自辨別器相比,鄰居辨別器利用了來自其他用戶的監控信號。)
    • When only one positive example is used and if the user itself in Z ~ \tilde{Z} Z~ has the highest confidence in y u + y_{u+} yu+?, the neighbor-discrimination degenerates to the self-discrimination. So, the self-discrimination can be seen as a special case of the neighbor-discrimination. (當只使用一個正樣本,并且如果在 𝒚 𝑢 + 𝒚_{𝑢+} yu+? 中用戶自身 Z ~ \tilde{Z} Z~的得分最高時,鄰居辨別器就會退化為自辨別器。因此,自辨別器可以看作是鄰居辨別器的一種特例。 )
    • But when a sufficient number of positive examples are used, these two methods could also be simultaneously adopted because the user itself in Z ~ \tilde{Z} Z~ is often highly likely to be in the Top-K similar examples P u + \mathcal{P}_{u+} Pu+?. With the training proceeding, the encoders iteratively improve to generate evolving pseudo-labels, which in turn recursively benefit the encoders again. (但是,當使用足夠數量的正樣本時,這兩種方法也可以同時被采用,因為 Z ~ \tilde{Z} Z~中的用戶本身通常很可能在Top-K類似的示例 P 𝑢 + P_{𝑢+} Pu+?中。隨著訓練過程的進行,編碼器不斷改進,生成不斷演化的偽標簽,進而遞歸地使編碼器再次受益。)
  • (3) Compared with the vanilla tri-training, it is worth noting that in SEPT, we do not add the pseudo-labels into the adjacency matrices for subsequent graph convolution during training. Instead, we adopt a soft and flexible way to guide the user representations via mutual information maximization, which is distinct from the vanilla tri-training that adds the pseudo-labels to the training set for next-round training. The benefits of this modeling are two-fold. Firstly, adding pseudo-labels leads to reconstruction of the adjacency matrices after each iteration, which is time-consuming; secondly, the pseudo-labels generated at the early stage might not be informative; repeatedly using them would mislead the framework.

與普通的tri-training相比,值得注意的是,在SEPT中,我們沒有將偽標簽添加到鄰接矩陣中,用于后續的圖卷積。相反,我們采用了一種靈活的方式,通過互信息最大化來指導用戶表示,這不同于普通的tri-training訓練,后者將偽標簽添加到訓練集中,以進行進一步的循環訓練。這種建模的好處是有兩方面的。首先,添加偽標簽會導致每次迭代后重建鄰接矩陣,這很耗時;其次,早期生成的偽標簽可能沒有信息;重復使用它們會誤導框架。

3.3.4 Optimization.

  • (1) The learning of SEPT consists of two tasks:
    • recommendation (推薦)
    • and the neighbor-discrimination based contrastive learning. (基于鄰居辨別的對比學習)
  • (2) Let L r \mathcal{L}_r Lr? be the BPR pairwise loss function [24] which is defined as:
    • where I ( u ) \mathcal{I}(u) I(u) is the item set that user u u u has interacted with,
    • r ^ u i = P u ? Q i \hat{r}_{ui} = P^{\top}_u Q_i r^ui?=Pu??Qi?, P P P and Q Q Q are obtained by splitting Z r Z^r Zr,
    • and λ \lambda λ is the coefficient controlling the L 2 L_2 L2? regularization.
  • (2) The training of SEPT proceeds in two stages:
    • initialization and
    • joint learning.
    • To start with, we warm up the framework with the recommendation task by optimizing L r L_r Lr?. (首先,我們通過優化 L 𝑟 L_𝑟 Lr? 的推薦任務來初始化框架)
    • Once trained with L r Lr Lr, the shared bottom E E E has gained far strong errepresentations than randomly initialized embeddings. The self-supervised tri-training then proceeds as described in Eq. (4) - (7), ( 一旦通過 L r L_r Lr?訓練,共享的底部𝑬比隨機初始化的嵌入獲得了更強的表示能力。然后,自監督tri-training如公式(4)-(7)中所述進行)
    • acting as an auxiliary task which is unified into a joint learning objective to enhance the performance of the recommendation task. The overall objective of the joint learning is defined as:。輔助任務與主要任務被合并為聯合學習目標,提高推薦任務的性能。聯合學習的總體目標被定義為:
      • where β \beta β is a hyper-parameter used to control the magnitude of the self-supervised tri-training. The overall process of SEPT is presented in Algorithm 1. (其中𝛽是一個超參數,用來控制self-supervised tri-training的大小。算法1給出了SEPT的總體過程。)

3.4 Discussions

3.4.1 Connection with Social Regularization.

  • (1) Social recommendation [38, 43, 44] integrates social relations into recommender systems to address the data sparsity issue. A common idea of social recommendation is to regularize user representations by minimizing the euclidean distance between socially connected users, which is termed social regularization [18]. (社會推薦將社會關系集成到推薦系統中,以解決數據稀疏性問題。社交推薦的一個常見思想是通過最小化社會連接用戶之間的歐氏距離來規范用戶表示,這被稱為社會正則化)
  • (2) Although the proposed SEPT also leverages socially-aware supervisory signals to refine user representations, it is distinct from the social regularization. The differences are also two-fold. (盡管提出的SEPT也利用了社交-感知監督信號來完善用戶表示,它不同于社會的正則化。有兩方面的差異)
    • Firstly, the social regularization is a static process which is always performed on the socially connected users, whereas the neighbor-discrimination is dynamic and iteratively improves the supervisory signals imposed on uncertain users; (首先,社交正則化是一個靜態的過程,它總是作用在有社會關聯的用戶上,而鄰居辨別是動態的,并且迭代地改進對不確定用戶施加監督信號)
    • secondly, negative social relations (dislike) cannot be readily retrieved in social recommendation, and hence the social regularization can only keep socially connected users close. But SEPT can also pushes users who are not semantically positive in the three views apart. (其次,負面的社會關系(不喜歡)不能在社會推薦中被輕易地檢索到,因此社交正規化只能使有社會聯系的用戶保持接近。但SEPT也可以將那些在三種視圖中語義不正向的用戶分開。

3.4.2 Complexity.

  • (1) Architecturally, SEPT can be model-agnostic, and its complexity mainly depends on the structure of the used encoders. In this paper, we present a LightGCN-based architecture. Given O ( ∣ R ∣ d ) O(|R|d) O(Rd) as the time complexity of the recommendation encoder for graph convolution, the total complexity for the graph convolution is less than 3 O ( ∣ R ∣ d ) 3O(|R|d) 3O(Rd) because A f A_f Af? and A s A_s As? are usually sparser than R R R. The prime cost of the labeling process comes from the Top-K operation in ==Eq. (6), which usually requires O ( m l o g ( K ) ) O(mlog(K)) O(mlog(K)) by using the max heap. To reduce the cost and speed up training, in each batch for training, only c (c ? m, e.g. 1000) users in a batch are randomly selected and being the unlabeled example set of the pseudo-labels, and this sampling method can also prevent overfitting. The complexity of the neighbor-discrimination based contrastive learning is O ( c d ) O(cd) O(cd).
    在結構上,SEPT可以是與模型無關的,其復雜性主要取決于所使用的編碼器的結構。在本文中,我們提出了一個基于LightGCN的結構。給定O(|𝑹|𝑑)作為圖卷積的推薦編碼器的時間復雜度,圖卷積的總復雜度小于4O(|𝑹|𝑑),因為𝑨𝑓、𝑨𝑠和?G通常比R更稀疏。另一個成本來自于等式(6)中標記過程的Top-K操作,通過使用最大堆,它通常需要O(𝑚log(𝐾))。為了降低成本,加快訓練速度,在每批訓練中,一批隨機選擇𝑐個(𝑐?𝑚,如1000)用戶作為偽標簽的無標簽樣本集,這種采樣方法也可以防止過擬合。基于鄰居辨別的對比學習的復雜度為O(𝑐𝑑)。

4 EXPERIMENTAL RESULTS

4.1 Experimental Settings

4.1.1 Datasets.

  • Three real-world datasets: Last.fm2, Douban-Book3, and Yelp4 are used in our experiments to evaluate SEPT. As SEPT aims to improve Top-N recommendation, we follow the convention in previous research [43, 44] to leave out ratings less than 4 in the dataset of Douban-Book which consists of explicit ratings with a 1-5 rating scale, and assign 1 to the rest. The statistics of the datasets is shown in Table 1. For precise assessment, 5-fold cross-validation is conducted in all the experiments and the average results are presented. (三個真實的數據集:Last.fm,Douban-Book和Yelp在我們的實驗中用來評估SEPT。SEPT旨在改進Top-N推薦,Douban-Book數據集包含1-5的評分,我們遵循之前研究的慣例,在豆瓣的數據集中省略小于4的評分,其余的賦值為1。數據集的統計數據如表1所示。為了進行精確的評估,對所有的實驗都進行了5倍交叉驗證,并給出了平均結果。

4.1.2 Baselines.

  • (1) Three recent graph neural recommendation models are compared with SEPT to test the effectiveness of the self-supervised tri-training for recommendation: (將三種最近的圖神經推薦模型與SEPT進行比較,以檢驗 self-supervised tri-training推薦的有效性:)

    • LightGCN [11] is a GCN-based general recommendation model that leverages the== user-item proximity to learn node representations== and generate recommendations, which is reported as the state-of-the-art. (LightGCN是一個基于GCN的通用推薦模型,它利用用戶-項目的接近程度來學習節點表示并生成推薦,這被報告是最先進的方法。)
    • DiffNet++ [30] is a recent GCN-based social recommendation method that models the recursive dynamic social diffusion in both the user and item spaces. (DiffNet++是最新的一種基于GCN的社會推薦方法,它模擬了用戶和項目空間中的遞歸動態社交擴散。)
    • MHCN [44] is a latest hypergraph convolutional network-based social recommendation method that models the complex correlations among users with hyperedges to improve recommendation performance. (MHCN是一種最新的基于超圖卷積網絡的社交推薦方法,它用超邊形成用戶之間的復雜相關性,以提高推薦性能。)
  • (2) LightGCN [11] is the basic encoder in SEPT. Investigating the performance of LightGCN and SEPT is essential. Since LightGCN is a widely acknowledged SOTA baseline reported in many recent papers [29, 44], we do not compare SEPT with other weak baselines such as NGCF [28], GCMC [2], and BPR [24]. Two strong social recommendation models are also compared to SEPT to verify that the self-supervised tri-training, rather than the use of social relations, is the main driving force of the performance improvements. (LightGCN是SEPT中的基本編碼器。研究LightGCN和SEPT的性能至關重要。由于LightGCN是最近許多論文中報道的一個廣泛公認的SOTA基線,我們沒有將SEPT與其他弱基線如NGCF、GCMC和BPR進行比較。兩種強的社交推薦模型也與SEPT進行了比較,以證明使用社交關系不是性能改進的主要驅動力。

4.1.3 Metrics.

  • To evaluate all the methods, we first perform item ranking on all the candidate items. Then two relevancy-based metrics Precision@10 and Recall@10 and one ranking-based metric NDCG@10 are calculated on the truncated recommendation lists, and the values are presented in percentage. (為了評估所有的方法,我們首先對所有的候選項目進行項目排序。然后是兩個基于相關性的指標,Precision@10和Recall@10,以及一個基于排名的指標NDCG@10。)

4.1.4 Settings.

  • For a fair comparison, we refer to the best parameter settings reported in the original papers of the baselines and then fine tune all the hyperparameters of the baselines to ensure the best performance of them. As for the general settings of all the methods, we empirically set the dimension of latent factors (embeddings) to 50, the regularization parameter λ \lambda λ to 0.001, and the batch size to 2000. In section 4.4, we investigate the parameter sensitivity of SEPT, and the best parameters are used in section 4.2 and 4.3. We use Adam to optimize all these models with an initial learning rate 0.001. (為了進行公平的比較,我們參考基線原始論文中報告的最佳參數設置,然后微調基線的所有超參數,以確保它們的最佳性能。對于所有方法的一般設置,我們將潛在因素(嵌入)的維數設置為50,正則化參數𝜆設置為0.001,批處理大小設置為2000。在第4.4節中,我們研究了SEPT的參數敏感度,并在第4.2節和第4.3節中使用了最佳參數。我們使用Adam來優化所有這些模型,初始學習率為0.001。

4.2 Overall Performance Comparison

  • (1) In this part, we validate if SEPT can improve recommendation. The performance comparisons are shown in Table 2 and 3. We conduct experiments with different layer numbers in Table 2. In Table 3, a two-layer setting is adopted for all the methods because they all reach their best performance on the used datasets under this setting. The performance improvement (drop) marked by ↑ (↓) is calculated by using the performance difference to divide the subtrahend. According to the results, we can draw the following observations and conclusions: (在這部分中,我們驗證了SEPT是否可以改進推薦。性能比較如表2和表3所示。我們在表2中使用不同的層數進行了實驗。在表3中,所有方法都采用了兩層設置,因為它們在此設置下在所使用的數據集上都達到了最好的性能。↑(↓)標記的性能提升(下降)是通過使用性能差除分來計算的。根據研究結果,我們可以得出以下觀察結果和結論:

  • Under all the different layer settings, SEPT can significantly boost LightGCN. Particularly, on the sparser datasets: Douban-Book and Yelp, the improvements get higher. The maximum improvement can even reach 11%. This can be an evidence that demonstrates the effectiveness of self-supervised learning. Besides, although both LightGCN and SEPT suffer the over-smoothed problem when the layer number is 3, SEPT can still outperform LightGCN. We think the possible reason is that contrastive learning can, to some degree, alleviate the over-smooth problem because the dynamically generated unlabeled examples provide sufficient data variance. (在所有不同的圖層設置下,SEPT可以顯著提高LightGCN。特別是在更稀疏的數據集上(Douban-Book和Yelp),提升更大。最大的改進甚至可以達到11%。這可以是證明自監督學習有效性的一個證據。此外,雖然當層數為3時,LightGCN和SEPT都存在過平滑的問題,但SEPT的性能仍然優于LightGCN。我們認為可能的原因是,對比學習可以在一定程度上緩解過平滑的問題,因為動態生成的無標簽的樣本提供了足夠的數據方差。

  • (2) In addition to the comparison with LightGCN, we also compare SEPT with social recommendation models to validate if the self-supervised tri-training rather than social relations primarily promote the recommendation performance. Since MHCN is also built upon LightGCN, comparing these two models can be more informative. Besides, S2-MHCN, which is the self-supervised variant of MHCN is also ompared. The improvements (drops) are calculated by comparing the results of SEPT and S2-MHCN. According to the results in Table 3, we make the following observations and conclusions: (除了與LightGCN進行比較外,我們還將SEPT與社會推薦模型進行了比較,以驗證 selfsupervised tri-training主要不是因為社會關系提升了推薦性能。由于MHCN也建立在LightGCN之上,因此比較這兩種模型可以提供更多的信息。此外,𝑆2-MHCN是MHCN自監督的變體,通過比較SEPT和𝑆2-MHCN的結果,計算了性能提升(下降)。根據表3中的結果,我們有以下觀察和結論:)

  • (3) Although integrating social relations into graph neural models are helpful (comparing MHCN with LightGCN), learning under the scheme of SEPT can achieve more performance gains (comparing SEPT with MHCN). DiffNet++ is uncompetitive compared with the other three methods. Its failure can be attributed to its redundant and useless parameters and operations [11]. On both LastFM and Douban-Book, SEPT outperformsS2-MHCN. On Yelp, S2-MHCN exhibits better performance than SEPT does. The supe- riority of SEPT and S2-MHCN demonstrates that self-supervised learning holds vast capability for improving recommendation. In addition, SEPT does not need to learn other parameters except the bottom embeddings, whereas there are a number of other parameters thatS2-MHCN needs to learn. Meanwhile, SEPT runs much faster than S2-MHCN does in our experiments, which makes it more competitive even that it is beaten by S2-MHCN on Yelp by a small margin. (雖然將社會關系整合到圖神經模型中是有幫助的(比較MHCN和LightGCN),但在SEPT方案下的學習可以獲得更多的性能提高(比較SEPT和MHCN)。DiffNet++與其他三種方法相比沒有競爭力。它的失敗可以歸因于其冗余和無用的參數和操作。在LastFM 和 Douban-Book上,SEPT的表現都優于𝑆2-MHCN。在Yelp上,𝑆2-MHCN的 。比SEPT更好。SEPT和𝑆2-MHCN的優越性表明,自監督學習具有巨大的提升推薦的能力。此外,SEPT不需要學習除了底部嵌入之外的其他參數,而𝑆2-MHCN還需要學習許多其他參數。與此同時,SEPT的運行速度比𝑆2-MHCN快得多,這使得它更具競爭力,即使它在Yelp上被𝑆2-MHCN小幅度擊敗。

4.3 Self-Discrimination v.s.Neighbor-Discrimination

  • In SEPT, the generated positive examples can include both the user itself and other users in the unlabeled example set. It is not clear which part contributes more to the recommendation performance. In this part, we investigate the self-discrimination and the neighbor- discrimination without the user itself being the positive example. For convenience, we use SEPT-SD to denote the self-discrimination, and SEPT-ND to denote the latter. It also should be mentioned that, for SEPT-ND only, a small β \beta β = 0.001 can lead to the best performance on all the datasets. A two-layer setting is used in this case. (在SEPT中,生成的正樣本可以包括用戶本身和無標簽樣本集的其他用戶。目前還不清楚是哪一部分對推薦性能的貢獻更大。在這部分中,我們研究了在沒有用戶本身的情況下,自我辨別和鄰居辨別。為方便起見,我們使用SEPT-SD表示自我辨別,使用SEPT-ND表示鄰居辨別。還應該提到的是,僅對于SEPT-ND,𝛽=0.001可以在所有數據集上獲得最好的性能。在本例中使用了兩層設置
  • (2) According to Fig. 2, we can observe that both SEPT-SD and SEPTND exhibit better performances than LightGCN does, which proves that both the supervisory signals from the user itself and other users can benefit a self-supervised recommendation model. Our claim about the self-supervision signals from other users is validated. Besides, the importance of the self-discrimination and the neighbor-discrimination varies from dataset to dataset. On LastFM, they almost contribute equally. On Douban-Book, self-discrimination shows much more importance. On Yelp, neighbor-discrimination is more effective. ((根據圖2,我們可以觀察到,SEPT-SD和SEPT-ND都表現出比LightGCN更好的性能,這證明了來自用戶本身和其他用戶的監督信號都可以受益于自監督推薦模型。我們認為來自其他用戶的自監督信號的想法得到了驗證。此外,自我辨別和鄰居辨別的重要性也因數據集而異。在LastFM上,他們的貢獻幾乎相同。在 Douban-Book上,自我辨別表現得更為重要。在Yelp上,鄰居辨別更有效。)
  • (3)This phenomenon can be explained by Fig. 5. With the increase of the used positive examples, we see that the performance of SEPT almost remains stable on LastFM and Yelp but gradually declines on Douban-Book. We guess that there is widely observed homophily in LastFM and Yelp, so a large number of users share similar preferences, which can be the high-quality positive examples in these two datasets. However, users in Douban-Book may have more diverse interests, which results in the quality drop when the number of used positive examples increases. (這種現象可以用圖5來解釋。隨著正例的增加,我們看到SEPT在LastFM和Yelp上的表現幾乎保持穩定,但在Douban-Book上逐漸下降。我們推測在LastFM和Yelp中存在廣泛觀察到的同質性,因此大量用戶具有相似的偏好,這可能是這兩個數據集中高質量的正例。然而,Douban-Book的用戶可能會有更多樣化的興趣,當使用的正面例子數量增加時,就會導致性能下降。)

4.4 View Study

  • (1) In SEPT, we build two augmented views to conduct tri-training for mining supervisory signals. In this part, we ablate the framework to investigate the contribution of each view. A two-layer setting is used in this case. In Fig. 3, ‘Friend’ or ‘Sharing’ means that the corresponding view is detached. When only two views are used, SEPT degenerates to the self-supervised co-training. ‘Preference Only’ means that only the preference view is used. In this case, SEPT further degenerates to the self-training. (在SEPT中,我們構建了兩個增強視圖來對挖掘監控信號進行tri-training。在這部分中,我們研究每個視圖的貢獻。在本研究中使用了兩層設置。在圖3中,“Friend”或“Sharing”意味著對應的視圖被分離。當只使用兩個視圖時,SEPT退化為自我監督的co-training。“Preference-Only”意味著只使用偏好視圖,在這種情況下,SEPT進一步退化為 self-training。
  • (2) From Fig. 3, we can observe that on both LastFM and Yelp, all the views contribute, whereas on Douban-Book, the self-supervised co-training setting achieves the best performance. Moreover, when only the preference view is used, SEPT shows lower performance but it is still better than that of LightGCN. With the decrease of used number of views, the performance of SEPT slightly declines on LastFM, and an obvious performance drop is observed on Yelp. On Douban-Book, the performance firstly gets a slight rise and then declines obviously when there is only one view. The results demonstrate that, under the semi-supervised setting, even a single view can generate desirable self-supervised signals, which is encouraging since social relations or other side information are not always accessible in some situations. Besides, increasing the used number of views may bring more performance gains, but it is not absolutely right. (從圖3中,我們可以看到,在LastFM和Yelp上,所有的視圖都有貢獻,而在Douban-Book上,自監督的co-training設置表現最好。此外,當只使用Preference-Only視圖時,SEPT的性能較低,但仍優于LightGCN。隨著使用視圖數的減少,SEPT在LastFM上的性能略有下降,而在Yelp上的性能明顯下降。在Douban-Book上,當只有一種視圖時,表現先略有上升,然后明顯下降。結果表明,在半監督設置下,即使是一個單一的視圖也能產生理想的自監督信號,因為社會關系或其他方面的信息在某些情況下并不總是可獲得的。此外,增加視圖的使用數量可能會帶來更多的性能提高,但這并不是絕對正確的。

4.5 Parameter Sensitivity Analysis

  • (1) There are three important hyper-parameters used in SEPT: β for controlling the magnitude of self-supervised tri-training, K - the number of used positive examples and ρ - the edge dropout rate of ?G. We choose some representative values for them to investigate the parameter sensitivity of SEPT. The results are presented in Fig. 4 - 6. When investigating the influence of β, we fix K = 10 and ρ = 0.3. For the influence of K in Fig. 5, we fix β = 0.005 on LastFM and Yelp, β = 0.02 on Douban-Book, and ρ = 0.3. Finally, for the effect of ρ in Fig. 6, the setting of β is as the same as the last case, and K = 10. A two-layer setting is used in this case. (在SEPT中使用了三個重要的超參數:𝛽是用于控制self-supervised tri-training的大小,𝐾是使用的正例的數量和𝜌是?G的邊dropout。我們選擇了一些具有代表性的值來研究SEPT的參數敏感性。結果如圖4 - 6.所示。在研究𝛽的影響時,我們固定了𝐾=10和𝜌=0.3。對于圖5中𝐾的影響,我們在LastFM和Yelp上設置了𝛽=0.005,在Douban-Book上設置了𝛽=0.02,𝜌=0.3。最后,對于圖6中𝜌的影響,𝛽=0.02,𝐾=10。在本研究中使用了兩層設置。
  • (2) As can be observed from Fig. 4, SEPT is sensitive to β \beta β. On different datasets, we need to choose different values of β \beta β for the best performance. Generally, a small value of β \beta β can lead to a desirable performance, and a large value of β \beta β results in a huge performance drop. Figure 5 has been interpreted in Section 4.3. According to Fig. 6, we observe that SEPT is not sensitive to the edge dropout rate. Even a large value of ρ (e.g., 0.8) can create informative self-supervision signals, which is a good property for the possible wide use of SEPT. When the perturbed graph is highly sparse, it cannot provide useful information for self-supervised learning. (從圖4中可以看出。SEPT對𝛽很敏感。在不同的數據集上,我們需要選擇不同的𝛽值以獲得最佳性能。一般來說,一個小的𝛽值就會導致理想的性能,而一個大的𝛽值就會導致性能的巨大下降。圖5已在第4.3節中進行了解釋。根據圖6中。我們看到SEPT對邊dropout不敏感。即使是一個很大的𝜌值(例如,0.8)也可以創建提供信息的自監督信號,這對于SEPT可能的廣泛使用是一個很好的特性。當被擾亂的圖是高度稀疏時,它不能為自監督學習提供有用的信息。

5 CONCLUSION AND FUTURE WORK

  • (1) The self-supervised graph contrastive learning, which is widely used in the field of graph representation learning, recently has
    been transplanted to recommendation for improving the recommendation performance. However, most SSL-based methods only exploit self-supervision signals through the self-discrimination, and SSL cannot fully exert itself in the scenario of recommendation to leverage the widely observed homophily. (自監督圖對比學習被廣泛應用于圖表示學習領域,最近被移植到推薦學習中,以提高推薦性能。然而,大多數基于SSL的方法只通過自我識別來利用自監督信號,而SSL不能在推薦的場景中充分利用廣泛觀察到的同質性。)

  • (2) To address this issue, in this paper,

    • we propose a socially-aware self-supervised tri-training framework named SEPT to improve recommendation (我們提出了一個名為SEPT的社交-意識self-supervised tri-training框架)
    • by discovering self-supervision signals from two complementary views of the raw data. (通過從原始數據的兩個互補視圖中發現自監督信號來改進推薦。)
    • Under the self-supervised tri-training scheme, the neighbor-discrimination based contrastive learning method is developed to refine user representations with pseudo-labels from the neighbors=. (在self-supervised tri-training方案下,提出了基于鄰居識別== 的 對比學習方法,利用鄰居中的偽標簽來細化用戶表示。)
  • (3) Extensive experiments demonstrate the effectiveness of SEPT, and a thorough ablation study is conducted to verify the rationale of the self-supervised tri-training.

  • (4) In this paper, only the self-supervision signals from users are exploited. However, items can also analogously provide informative pseudo-labels for self-supervision. This can be implemented by leveraging the multimodality of items. We leave it as our future work. We also believe that the idea of self-supervised multi-view co-training can be generalized to more scenarios beyond recommendation.
    (本文只利用了來自用戶的自監督信號。然而,項目也可以類似地為自監督提供信息性的偽標簽。這可以通過利用項目的多模式來實現。我們把它作為我們未來的工作。我們還相信,自我監督的多視圖共同訓練的想法可以推廣到除推薦之外的更多的場景。)

ACKNOWLEDGMENT

REFERENCES

總結

以上是生活随笔為你收集整理的2021_KDD_Socially-Aware Self-Supervised Tri-Training for Recommendation的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

亚洲 a v无 码免 费 成 人 a v | 老司机亚洲精品影院 | 免费网站看v片在线18禁无码 | 无码国模国产在线观看 | 久久国产精品偷任你爽任你 | 国产精品亚洲综合色区韩国 | 人人爽人人爽人人片av亚洲 | 曰韩少妇内射免费播放 | 久久久久99精品成人片 | 亚洲精品久久久久avwww潮水 | 无码纯肉视频在线观看 | 熟女少妇在线视频播放 | 成年美女黄网站色大免费全看 | 丰满人妻被黑人猛烈进入 | 国产区女主播在线观看 | 亚洲综合伊人久久大杳蕉 | 一区二区三区乱码在线 | 欧洲 | 国产精华av午夜在线观看 | 久青草影院在线观看国产 | 亚洲gv猛男gv无码男同 | 999久久久国产精品消防器材 | 丰满少妇弄高潮了www | 精品久久久久久亚洲精品 | 久久精品无码一区二区三区 | 国产精品久免费的黄网站 | 久青草影院在线观看国产 | 欧美肥老太牲交大战 | 呦交小u女精品视频 | 国产精品久久久久无码av色戒 | 午夜丰满少妇性开放视频 | 少妇无套内谢久久久久 | 国产极品视觉盛宴 | av香港经典三级级 在线 | 无码人妻精品一区二区三区不卡 | 日本精品人妻无码免费大全 | 东京热无码av男人的天堂 | 日本一本二本三区免费 | 熟妇激情内射com | 97久久精品无码一区二区 | 精品久久久无码人妻字幂 | 红桃av一区二区三区在线无码av | 国精品人妻无码一区二区三区蜜柚 | 久久精品国产99久久6动漫 | 国产亚洲精品精品国产亚洲综合 | 精品久久久中文字幕人妻 | 女人高潮内射99精品 | 免费人成网站视频在线观看 | 亚洲精品一区二区三区大桥未久 | 国产麻豆精品一区二区三区v视界 | 成人精品天堂一区二区三区 | av香港经典三级级 在线 | 久久久中文久久久无码 | 疯狂三人交性欧美 | 99riav国产精品视频 | 一二三四在线观看免费视频 | 麻豆国产丝袜白领秘书在线观看 | 亚洲码国产精品高潮在线 | 亚洲国产日韩a在线播放 | 久久99久久99精品中文字幕 | 欧美大屁股xxxxhd黑色 | 欧美一区二区三区视频在线观看 | 熟女俱乐部五十路六十路av | 日韩人妻无码一区二区三区久久99 | 福利一区二区三区视频在线观看 | 久久久www成人免费毛片 | 波多野结衣av一区二区全免费观看 | www一区二区www免费 | 欧美zoozzooz性欧美 | 在线观看国产午夜福利片 | 香港三级日本三级妇三级 | 97久久国产亚洲精品超碰热 | 西西人体www44rt大胆高清 | 日韩视频 中文字幕 视频一区 | 日本一区二区三区免费播放 | 国产人妻精品一区二区三区 | 无码国模国产在线观看 | 大地资源中文第3页 | 日本一卡二卡不卡视频查询 | 亚洲午夜无码久久 | 中文字幕乱码人妻无码久久 | 久久久久成人片免费观看蜜芽 | 国内少妇偷人精品视频免费 | 亚洲精品国偷拍自产在线观看蜜桃 | 中文字幕av日韩精品一区二区 | 亚洲成a人一区二区三区 | 国产精品-区区久久久狼 | 国产疯狂伦交大片 | 色一情一乱一伦一区二区三欧美 | 久久久精品欧美一区二区免费 | 婷婷丁香五月天综合东京热 | 国产免费无码一区二区视频 | 无套内射视频囯产 | 天堂а√在线中文在线 | 日韩精品一区二区av在线 | 疯狂三人交性欧美 | 精品水蜜桃久久久久久久 | 国产区女主播在线观看 | 露脸叫床粗话东北少妇 | 牲欲强的熟妇农村老妇女 | 久精品国产欧美亚洲色aⅴ大片 | 成人欧美一区二区三区黑人免费 | 亚洲色无码一区二区三区 | 亚洲日韩一区二区 | 日本大乳高潮视频在线观看 | 欧美日韩在线亚洲综合国产人 | 色一情一乱一伦一区二区三欧美 | 国产激情综合五月久久 | 成人精品一区二区三区中文字幕 | 国产97色在线 | 免 | 少妇性荡欲午夜性开放视频剧场 | 国产精品手机免费 | 精品久久综合1区2区3区激情 | 国产无套粉嫩白浆在线 | 亚洲一区二区三区播放 | 狠狠色色综合网站 | 丰腴饱满的极品熟妇 | 亚洲毛片av日韩av无码 | 精品无人区无码乱码毛片国产 | 精品无码国产一区二区三区av | 国产美女极度色诱视频www | 爽爽影院免费观看 | 国产色xx群视频射精 | 久久精品女人的天堂av | 乱中年女人伦av三区 | 国产九九九九九九九a片 | 精品久久综合1区2区3区激情 | 免费国产黄网站在线观看 | 精品国精品国产自在久国产87 | www国产亚洲精品久久久日本 | 午夜福利不卡在线视频 | 女高中生第一次破苞av | 亚洲中文字幕无码一久久区 | 欧美乱妇无乱码大黄a片 | 人人妻人人藻人人爽欧美一区 | 内射欧美老妇wbb | 亚洲精品中文字幕久久久久 | 午夜时刻免费入口 | 亚洲中文无码av永久不收费 | 国产av一区二区精品久久凹凸 | 精品欧洲av无码一区二区三区 | 大地资源中文第3页 | 狠狠亚洲超碰狼人久久 | 亚洲日本va午夜在线电影 | 牲欲强的熟妇农村老妇女 | 色婷婷欧美在线播放内射 | 老熟女重囗味hdxx69 | 乱人伦中文视频在线观看 | 在线播放亚洲第一字幕 | 国产精品久久久久久亚洲影视内衣 | 午夜无码人妻av大片色欲 | 日韩精品无码免费一区二区三区 | 偷窥村妇洗澡毛毛多 | 国产精品办公室沙发 | 久久久久久亚洲精品a片成人 | 纯爱无遮挡h肉动漫在线播放 | 亚洲精品一区二区三区婷婷月 | 无码av中文字幕免费放 | 亚洲中文字幕成人无码 | 成年美女黄网站色大免费视频 | 激情内射日本一区二区三区 | 高清无码午夜福利视频 | 日韩欧美中文字幕在线三区 | 成熟人妻av无码专区 | 亚洲成在人网站无码天堂 | 精品无码一区二区三区的天堂 | av在线亚洲欧洲日产一区二区 | 黑人玩弄人妻中文在线 | 99久久99久久免费精品蜜桃 | 粗大的内捧猛烈进出视频 | 日韩亚洲欧美精品综合 | 国产亚洲欧美在线专区 | 麻豆国产丝袜白领秘书在线观看 | 美女黄网站人色视频免费国产 | 67194成是人免费无码 | 国产suv精品一区二区五 | 樱花草在线社区www | 亚洲区欧美区综合区自拍区 | 伊人久久大香线蕉午夜 | 国产午夜无码精品免费看 | 欧美亚洲国产一区二区三区 | 国产成人无码av一区二区 | 丰满少妇高潮惨叫视频 | 人人爽人人爽人人片av亚洲 | 台湾无码一区二区 | 国产精品久久久久9999小说 | 久久国产精品_国产精品 | 亚洲色在线无码国产精品不卡 | 永久黄网站色视频免费直播 | 无码毛片视频一区二区本码 | 国产真实伦对白全集 | 国产在线精品一区二区三区直播 | 国产 精品 自在自线 | 久久99久久99精品中文字幕 | 国产偷抇久久精品a片69 | 日本精品人妻无码免费大全 | 久久久久久亚洲精品a片成人 | 亚洲色偷偷男人的天堂 | 色综合久久久久综合一本到桃花网 | 在线精品亚洲一区二区 | 亚洲无人区午夜福利码高清完整版 | 一本大道伊人av久久综合 | 亚洲色偷偷男人的天堂 | 国产色视频一区二区三区 | 国产精品无码一区二区三区不卡 | 国产精品嫩草久久久久 | 人人妻人人澡人人爽精品欧美 | 亚洲国产精品一区二区第一页 | 丰满肥臀大屁股熟妇激情视频 | 日韩人妻无码中文字幕视频 | 97精品人妻一区二区三区香蕉 | 激情综合激情五月俺也去 | 中文字幕无码日韩欧毛 | 98国产精品综合一区二区三区 | 久久久国产精品无码免费专区 | 青春草在线视频免费观看 | 国产色精品久久人妻 | 色婷婷综合激情综在线播放 | 国内少妇偷人精品视频 | 国产香蕉97碰碰久久人人 | 亚洲性无码av中文字幕 | 四虎国产精品免费久久 | 亚洲a无码综合a国产av中文 | 色婷婷av一区二区三区之红樱桃 | 国产精品久久久久无码av色戒 | 精品无码国产一区二区三区av | 久久久精品国产sm最大网站 | 无码人妻精品一区二区三区不卡 | 老熟女重囗味hdxx69 | 男女性色大片免费网站 | 久久精品国产99久久6动漫 | 5858s亚洲色大成网站www | 无码国模国产在线观看 | 欧美丰满熟妇xxxx | 国产 浪潮av性色四虎 | 婷婷丁香五月天综合东京热 | 性欧美熟妇videofreesex | 日韩精品无码一区二区中文字幕 | 高潮毛片无遮挡高清免费 | 99麻豆久久久国产精品免费 | 国产成人无码av片在线观看不卡 | аⅴ资源天堂资源库在线 | 无码人妻精品一区二区三区下载 | 扒开双腿吃奶呻吟做受视频 | 麻豆av传媒蜜桃天美传媒 | 中文字幕无码日韩专区 | 亚洲精品国产精品乱码视色 | 午夜精品久久久久久久久 | 丰满护士巨好爽好大乳 | 俺去俺来也在线www色官网 | 中文字幕 亚洲精品 第1页 | 亚洲 欧美 激情 小说 另类 | 亚洲国精产品一二二线 | 老司机亚洲精品影院无码 | 国产乱码精品一品二品 | 亚洲精品午夜国产va久久成人 | 日本爽爽爽爽爽爽在线观看免 | 精品国产福利一区二区 | 日本欧美一区二区三区乱码 | 日韩人妻无码中文字幕视频 | 久久伊人色av天堂九九小黄鸭 | 亚洲日韩一区二区 | 久久精品无码一区二区三区 | 国产成人精品一区二区在线小狼 | 午夜福利电影 | 久久97精品久久久久久久不卡 | 久久综合香蕉国产蜜臀av | 中文字幕人妻无码一夲道 | 中文无码成人免费视频在线观看 | 在线观看国产午夜福利片 | 国产精品久久久久久久影院 | 爽爽影院免费观看 | 67194成是人免费无码 | 色综合久久久无码中文字幕 | 天天拍夜夜添久久精品大 | 久久99精品国产麻豆 | 国产精品久久久久9999小说 | 麻豆md0077饥渴少妇 | 99久久婷婷国产综合精品青草免费 | 131美女爱做视频 | 色综合久久久无码网中文 | 香蕉久久久久久av成人 | а天堂中文在线官网 | 99久久99久久免费精品蜜桃 | 人妻夜夜爽天天爽三区 | 中文字幕无码人妻少妇免费 | 欧美一区二区三区 | 国产艳妇av在线观看果冻传媒 | 婷婷五月综合激情中文字幕 | 欧美国产亚洲日韩在线二区 | 在线观看国产午夜福利片 | 国产69精品久久久久app下载 | 午夜性刺激在线视频免费 | 免费中文字幕日韩欧美 | 亚洲综合无码久久精品综合 | 亚洲色大成网站www | 国产精品-区区久久久狼 | 日韩av无码中文无码电影 | 成人av无码一区二区三区 | 日韩精品a片一区二区三区妖精 | 国产亚洲美女精品久久久2020 | 久久久久se色偷偷亚洲精品av | 国产97色在线 | 免 | 国产熟妇另类久久久久 | 日韩欧美中文字幕在线三区 | 扒开双腿吃奶呻吟做受视频 | 国产区女主播在线观看 | 大色综合色综合网站 | 中文字幕无码av激情不卡 | 玩弄人妻少妇500系列视频 | 亚洲区小说区激情区图片区 | 兔费看少妇性l交大片免费 | 日产国产精品亚洲系列 | 亚洲热妇无码av在线播放 | 无码av岛国片在线播放 | 丰满人妻一区二区三区免费视频 | 国产又爽又黄又刺激的视频 | www成人国产高清内射 | 亚洲色www成人永久网址 | 亚洲狠狠婷婷综合久久 | 青草青草久热国产精品 | 亚洲理论电影在线观看 | 少妇被黑人到高潮喷出白浆 | 欧洲欧美人成视频在线 | 国产精品va在线观看无码 | 国产精品美女久久久网av | 东京无码熟妇人妻av在线网址 | 伊人久久大香线蕉av一区二区 | 日本乱人伦片中文三区 | 亚洲欧美精品伊人久久 | 免费男性肉肉影院 | 国产亚洲精品久久久ai换 | 国产特级毛片aaaaaaa高清 | 高清无码午夜福利视频 | 2020久久超碰国产精品最新 | 狂野欧美激情性xxxx | 国产尤物精品视频 | 日韩人妻系列无码专区 | 97久久国产亚洲精品超碰热 | 欧美性生交xxxxx久久久 | 亚洲综合在线一区二区三区 | 久久精品人人做人人综合 | 水蜜桃色314在线观看 | 亚洲成熟女人毛毛耸耸多 | 亚洲熟熟妇xxxx | 日韩欧美成人免费观看 | 国产欧美亚洲精品a | 亚洲日韩av一区二区三区中文 | 国语自产偷拍精品视频偷 | 欧美人妻一区二区三区 | 熟妇人妻无乱码中文字幕 | 无码成人精品区在线观看 | 久久国产精品_国产精品 | 少妇性俱乐部纵欲狂欢电影 | 亚洲成av人片天堂网无码】 | 日日天干夜夜狠狠爱 | 久久久婷婷五月亚洲97号色 | 午夜福利不卡在线视频 | 亚洲狠狠色丁香婷婷综合 | 久久99久久99精品中文字幕 | 国产精品内射视频免费 | 国产成人一区二区三区别 | 丰满人妻翻云覆雨呻吟视频 | 久久精品国产一区二区三区 | 国产精品人人爽人人做我的可爱 | 欧美xxxx黑人又粗又长 | 午夜福利电影 | 免费观看激色视频网站 | 国产凸凹视频一区二区 | 午夜理论片yy44880影院 | 熟妇人妻无码xxx视频 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲一区二区三区含羞草 | 婷婷六月久久综合丁香 | 97夜夜澡人人爽人人喊中国片 | 熟妇人妻中文av无码 | 欧美日韩亚洲国产精品 | 中文字幕人妻无码一夲道 | 日日碰狠狠躁久久躁蜜桃 | 久久国产精品精品国产色婷婷 | 精品无人区无码乱码毛片国产 | 强奷人妻日本中文字幕 | 亚洲中文字幕无码一久久区 | 国产成人无码a区在线观看视频app | 日日麻批免费40分钟无码 | 激情内射亚州一区二区三区爱妻 | 久久aⅴ免费观看 | 国产精品人人妻人人爽 | 国产精品亚洲一区二区三区喷水 | 男女猛烈xx00免费视频试看 | 午夜无码人妻av大片色欲 | 牲交欧美兽交欧美 | 久精品国产欧美亚洲色aⅴ大片 | 午夜福利电影 | 熟妇人妻激情偷爽文 | 18黄暴禁片在线观看 | 伊人久久大香线蕉午夜 | 乱中年女人伦av三区 | 国产精品嫩草久久久久 | 午夜精品一区二区三区在线观看 | 精品偷拍一区二区三区在线看 | 国产无av码在线观看 | 一本色道久久综合狠狠躁 | 色婷婷av一区二区三区之红樱桃 | 97夜夜澡人人爽人人喊中国片 | 国产香蕉尹人综合在线观看 | 久久精品视频在线看15 | 精品人妻中文字幕有码在线 | 日韩人妻无码中文字幕视频 | 亚洲日韩av一区二区三区四区 | а√天堂www在线天堂小说 | 久久精品国产99久久6动漫 | 九九在线中文字幕无码 | 欧美乱妇无乱码大黄a片 | 国产人成高清在线视频99最全资源 | 又大又黄又粗又爽的免费视频 | 又湿又紧又大又爽a视频国产 | 亚洲精品中文字幕久久久久 | 亚洲色www成人永久网址 | 激情亚洲一区国产精品 | 丰满护士巨好爽好大乳 | 天堂а√在线地址中文在线 | 欧美性生交活xxxxxdddd | 丰满诱人的人妻3 | 蜜桃臀无码内射一区二区三区 | 网友自拍区视频精品 | 好屌草这里只有精品 | 久久无码中文字幕免费影院蜜桃 | 国产人成高清在线视频99最全资源 | 久久综合给久久狠狠97色 | 大乳丰满人妻中文字幕日本 | 色老头在线一区二区三区 | 久久国产精品精品国产色婷婷 | 精品一区二区不卡无码av | 国产又粗又硬又大爽黄老大爷视 | 婷婷综合久久中文字幕蜜桃三电影 | 四虎影视成人永久免费观看视频 | 内射爽无广熟女亚洲 | 亚洲精品中文字幕久久久久 | 免费中文字幕日韩欧美 | 婷婷六月久久综合丁香 | 国产情侣作爱视频免费观看 | 天天躁夜夜躁狠狠是什么心态 | 99久久人妻精品免费一区 | 国产激情无码一区二区 | 欧美亚洲日韩国产人成在线播放 | 午夜精品久久久久久久久 | 未满成年国产在线观看 | 国产成人精品无码播放 | 中文字幕无线码免费人妻 | 中文久久乱码一区二区 | 国产人妻精品午夜福利免费 | 九九热爱视频精品 | 国产成人无码av在线影院 | 成人影院yy111111在线观看 | 97资源共享在线视频 | 欧美zoozzooz性欧美 | 亚洲另类伦春色综合小说 | 久久久www成人免费毛片 | 欧美人与牲动交xxxx | 5858s亚洲色大成网站www | 巨爆乳无码视频在线观看 | 夜夜躁日日躁狠狠久久av | 亚洲精品鲁一鲁一区二区三区 | 欧美一区二区三区视频在线观看 | 网友自拍区视频精品 | 亚洲精品国偷拍自产在线观看蜜桃 | 伊人久久大香线焦av综合影院 | 青草视频在线播放 | 亚洲天堂2017无码 | 久久精品国产一区二区三区 | 少妇无码av无码专区在线观看 | 亚无码乱人伦一区二区 | 久久久久成人片免费观看蜜芽 | 精品水蜜桃久久久久久久 | 欧美成人家庭影院 | 亚洲成av人在线观看网址 | 好爽又高潮了毛片免费下载 | 性史性农村dvd毛片 | 成人试看120秒体验区 | 亚洲成av人片天堂网无码】 | 中国女人内谢69xxxxxa片 | 狠狠色噜噜狠狠狠7777奇米 | 亚洲第一无码av无码专区 | 少妇性l交大片欧洲热妇乱xxx | 国产激情综合五月久久 | 亚洲欧洲日本无在线码 | 亚洲一区二区三区偷拍女厕 | 亚洲综合另类小说色区 | 无码一区二区三区在线 | 精品无码一区二区三区的天堂 | 国产精品亚洲综合色区韩国 | 国产性生大片免费观看性 | 女人被男人爽到呻吟的视频 | 日本www一道久久久免费榴莲 | 无码一区二区三区在线 | 人人妻人人澡人人爽精品欧美 | 亚洲精品成a人在线观看 | 久久亚洲日韩精品一区二区三区 | 欧美日本免费一区二区三区 | 无码精品国产va在线观看dvd | 久久午夜无码鲁丝片午夜精品 | 国产精品多人p群无码 | 漂亮人妻洗澡被公强 日日躁 | 东京一本一道一二三区 | 九九久久精品国产免费看小说 | 国产综合久久久久鬼色 | 久久久久亚洲精品男人的天堂 | 久久精品人人做人人综合 | 露脸叫床粗话东北少妇 | 无码人中文字幕 | 亚洲国产av精品一区二区蜜芽 | 欧美阿v高清资源不卡在线播放 | 亚洲欧美综合区丁香五月小说 | 亚洲日本在线电影 | 精品国偷自产在线视频 | 亚洲成a人片在线观看无码 | 国产一精品一av一免费 | 漂亮人妻洗澡被公强 日日躁 | 国产精品久久久久影院嫩草 | 国产色xx群视频射精 | 国产成人无码一二三区视频 | 人人妻人人藻人人爽欧美一区 | 欧美日韩一区二区三区自拍 | 久久综合色之久久综合 | 免费中文字幕日韩欧美 | 日日天日日夜日日摸 | 国产婷婷色一区二区三区在线 | 强辱丰满人妻hd中文字幕 | 一二三四社区在线中文视频 | 人妻少妇被猛烈进入中文字幕 | 水蜜桃亚洲一二三四在线 | 亚洲精品国产第一综合99久久 | 1000部夫妻午夜免费 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 精品人妻中文字幕有码在线 | 日本精品久久久久中文字幕 | 少妇一晚三次一区二区三区 | 国产极品美女高潮无套在线观看 | 成人一区二区免费视频 | 国产无av码在线观看 | 无码人妻丰满熟妇区毛片18 | 97久久超碰中文字幕 | 樱花草在线社区www | 国产精品免费大片 | 久9re热视频这里只有精品 | 精品国产一区二区三区四区 | 3d动漫精品啪啪一区二区中 | 蜜臀aⅴ国产精品久久久国产老师 | 国产精品国产自线拍免费软件 | 亚洲中文字幕乱码av波多ji | 亚洲日韩av一区二区三区四区 | 精品国精品国产自在久国产87 | 久久99精品国产.久久久久 | 中文字幕人妻无码一夲道 | 成年美女黄网站色大免费全看 | 激情亚洲一区国产精品 | 啦啦啦www在线观看免费视频 | 国产高清av在线播放 | 亚洲中文字幕无码一久久区 | 久久亚洲精品中文字幕无男同 | 欧美刺激性大交 | 久久久国产精品无码免费专区 | 国产精品无码一区二区三区不卡 | 中文字幕日产无线码一区 | 熟女少妇人妻中文字幕 | 国产舌乚八伦偷品w中 | 午夜精品久久久久久久久 | 十八禁视频网站在线观看 | 欧美国产日韩亚洲中文 | 久久久久久亚洲精品a片成人 | 婷婷五月综合缴情在线视频 | 久久综合激激的五月天 | 国产精品.xx视频.xxtv | 国产午夜无码精品免费看 | 超碰97人人做人人爱少妇 | 精品久久久久久亚洲精品 | 日本精品少妇一区二区三区 | 欧洲美熟女乱又伦 | 国产午夜福利100集发布 | 国产熟女一区二区三区四区五区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 国产片av国语在线观看 | 人人超人人超碰超国产 | 色一情一乱一伦一区二区三欧美 | 亚洲综合无码一区二区三区 | 清纯唯美经典一区二区 | 亚洲色www成人永久网址 | 精品国偷自产在线视频 | 国产精品人妻一区二区三区四 | aⅴ在线视频男人的天堂 | 日韩精品乱码av一区二区 | 日本www一道久久久免费榴莲 | 免费人成网站视频在线观看 | 国产精品久久久久影院嫩草 | 99久久婷婷国产综合精品青草免费 | 精品国偷自产在线视频 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 精品久久久无码人妻字幂 | 久久综合九色综合欧美狠狠 | 亚洲综合久久一区二区 | 久久人人爽人人爽人人片av高清 | 玩弄人妻少妇500系列视频 | 欧美日本精品一区二区三区 | 日韩人妻无码一区二区三区久久99 | 女人高潮内射99精品 | 中国女人内谢69xxxxxa片 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产精品美女久久久网av | 国产精品99爱免费视频 | 亚洲毛片av日韩av无码 | 纯爱无遮挡h肉动漫在线播放 | 日韩亚洲欧美精品综合 | 国产欧美熟妇另类久久久 | 内射后入在线观看一区 | 天干天干啦夜天干天2017 | 一本久久伊人热热精品中文字幕 | 亚洲成av人影院在线观看 | 久久伊人色av天堂九九小黄鸭 | 久久熟妇人妻午夜寂寞影院 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲区欧美区综合区自拍区 | 日本免费一区二区三区最新 | 国产熟妇另类久久久久 | 麻豆国产人妻欲求不满 | 少妇厨房愉情理9仑片视频 | 国产成人综合在线女婷五月99播放 | 日韩人妻无码一区二区三区久久99 | 亚洲熟妇自偷自拍另类 | 性啪啪chinese东北女人 | 日韩精品成人一区二区三区 | 精品无码国产自产拍在线观看蜜 | 亚洲国产一区二区三区在线观看 | 黄网在线观看免费网站 | 亚欧洲精品在线视频免费观看 | 亚洲精品国产第一综合99久久 | 亚洲熟妇色xxxxx欧美老妇y | 久久久久99精品国产片 | 国产综合色产在线精品 | 日韩 欧美 动漫 国产 制服 | 免费无码av一区二区 | 国产极品美女高潮无套在线观看 | 97夜夜澡人人双人人人喊 | 成年女人永久免费看片 | 亚拍精品一区二区三区探花 | 国产无遮挡又黄又爽又色 | 国产超级va在线观看视频 | 国产情侣作爱视频免费观看 | 国产特级毛片aaaaaa高潮流水 | 亚洲中文字幕无码中字 | 亚洲一区二区三区 | 性色欲网站人妻丰满中文久久不卡 | 黑人大群体交免费视频 | 女人被爽到呻吟gif动态图视看 | 久久综合给合久久狠狠狠97色 | 欧美日韩色另类综合 | 亚洲第一网站男人都懂 | 亚洲国精产品一二二线 | 久久99精品国产麻豆蜜芽 | 综合网日日天干夜夜久久 | 国内少妇偷人精品视频免费 | 天海翼激烈高潮到腰振不止 | yw尤物av无码国产在线观看 | 国产莉萝无码av在线播放 | 丝袜美腿亚洲一区二区 | 中文字幕色婷婷在线视频 | 内射欧美老妇wbb | 国产超碰人人爽人人做人人添 | 人人澡人摸人人添 | 伊人久久大香线蕉亚洲 | 偷窥日本少妇撒尿chinese | 99er热精品视频 | 国产精品理论片在线观看 | 少妇无套内谢久久久久 | 欧美国产日韩亚洲中文 | 精品欧美一区二区三区久久久 | 国产色xx群视频射精 | 国产农村妇女高潮大叫 | 人妻少妇精品视频专区 | 日本熟妇人妻xxxxx人hd | 性欧美牲交在线视频 | 精品久久久久香蕉网 | 久久精品无码一区二区三区 | 久久婷婷五月综合色国产香蕉 | 日本一卡2卡3卡四卡精品网站 | 成人精品一区二区三区中文字幕 | 国产av人人夜夜澡人人爽麻豆 | 日韩亚洲欧美中文高清在线 | 国产一区二区三区四区五区加勒比 | 天堂一区人妻无码 | 亚洲精品久久久久中文第一幕 | 狠狠色噜噜狠狠狠狠7777米奇 | 精品欧洲av无码一区二区三区 | 中文无码成人免费视频在线观看 | 极品嫩模高潮叫床 | 国产精品久久久久7777 | 亚洲阿v天堂在线 | 亚洲一区av无码专区在线观看 | 亚洲一区二区三区含羞草 | 一本色道婷婷久久欧美 | 伊人久久大香线焦av综合影院 | 精品 日韩 国产 欧美 视频 | 成人无码精品1区2区3区免费看 | 国产成人综合色在线观看网站 | 国产精品无码成人午夜电影 | 国产精品无码永久免费888 | 国产舌乚八伦偷品w中 | 欧美第一黄网免费网站 | 久久人人爽人人人人片 | 伊人久久大香线焦av综合影院 | 色综合久久久久综合一本到桃花网 | 亚洲日韩精品欧美一区二区 | 午夜肉伦伦影院 | 性色av无码免费一区二区三区 | 久久久久人妻一区精品色欧美 | 5858s亚洲色大成网站www | 日韩av无码中文无码电影 | 少妇的肉体aa片免费 | 在线精品国产一区二区三区 | 国产精品无码一区二区三区不卡 | 九九综合va免费看 | 亚洲日本va中文字幕 | 少妇久久久久久人妻无码 | 中文字幕精品av一区二区五区 | 国产精品久久久久久亚洲影视内衣 | аⅴ资源天堂资源库在线 | 熟女少妇在线视频播放 | 狠狠色噜噜狠狠狠7777奇米 | 久久成人a毛片免费观看网站 | 久久人人爽人人爽人人片av高清 | 欧美精品免费观看二区 | 久久婷婷五月综合色国产香蕉 | 国产人成高清在线视频99最全资源 | 亚洲国产精品一区二区第一页 | 成人免费视频一区二区 | 日产精品99久久久久久 | 亚洲国产精品久久久久久 | 对白脏话肉麻粗话av | 无码人妻黑人中文字幕 | www国产亚洲精品久久网站 | 久久精品视频在线看15 | 女人被男人躁得好爽免费视频 | 日韩成人一区二区三区在线观看 | 久久精品人妻少妇一区二区三区 | 粗大的内捧猛烈进出视频 | 久久久中文字幕日本无吗 | 久久午夜夜伦鲁鲁片无码免费 | 无码国产激情在线观看 | 国产精品福利视频导航 | 久久无码中文字幕免费影院蜜桃 | 国产精品久久久久久久9999 | 福利一区二区三区视频在线观看 | 久久精品国产99久久6动漫 | 欧美黑人巨大xxxxx | 漂亮人妻洗澡被公强 日日躁 | 精品午夜福利在线观看 | 九九久久精品国产免费看小说 | 乌克兰少妇xxxx做受 | 日本熟妇人妻xxxxx人hd | 国产麻豆精品精东影业av网站 | 国产xxx69麻豆国语对白 | 亚洲人成无码网www | 精品少妇爆乳无码av无码专区 | 熟女体下毛毛黑森林 | 国产精品va在线观看无码 | 一本色道久久综合亚洲精品不卡 | 人人超人人超碰超国产 | 国产97人人超碰caoprom | 中文精品久久久久人妻不卡 | 国产成人久久精品流白浆 | 性欧美疯狂xxxxbbbb | 国产成人精品三级麻豆 | 在线观看欧美一区二区三区 | 老子影院午夜精品无码 | 亚洲人交乣女bbw | 狠狠色欧美亚洲狠狠色www | 丰满护士巨好爽好大乳 | 一本久道久久综合狠狠爱 | 国产人成高清在线视频99最全资源 | 三级4级全黄60分钟 | 在线播放免费人成毛片乱码 | 日本高清一区免费中文视频 | 中文字幕乱码亚洲无线三区 | 少妇高潮一区二区三区99 | 国产精品对白交换视频 | 亚洲人成人无码网www国产 | 精品国产乱码久久久久乱码 | 国产精品无码永久免费888 | 人妻体内射精一区二区三四 | 国产精品久久精品三级 | 麻豆精产国品 | 国产后入清纯学生妹 | 麻豆人妻少妇精品无码专区 | 三上悠亚人妻中文字幕在线 | 亚洲人成无码网www | 色老头在线一区二区三区 | 久久综合给合久久狠狠狠97色 | 久久久久久av无码免费看大片 | 亚洲精品一区二区三区四区五区 | 夜精品a片一区二区三区无码白浆 | 国产在线精品一区二区三区直播 | 在线亚洲高清揄拍自拍一品区 | 中文字幕+乱码+中文字幕一区 | 色欲久久久天天天综合网精品 | 日日摸夜夜摸狠狠摸婷婷 | 牲欲强的熟妇农村老妇女视频 | 国产性生交xxxxx无码 | 亚洲成色在线综合网站 | 综合网日日天干夜夜久久 | 人妻aⅴ无码一区二区三区 | 成年美女黄网站色大免费视频 | 玩弄人妻少妇500系列视频 | 亚洲中文无码av永久不收费 | 国产舌乚八伦偷品w中 | 乱人伦人妻中文字幕无码久久网 | 中文无码精品a∨在线观看不卡 | 久久精品人妻少妇一区二区三区 | 欧美喷潮久久久xxxxx | 亚洲一区二区三区含羞草 | 国内少妇偷人精品视频免费 | 伊人久久大香线蕉av一区二区 | 香蕉久久久久久av成人 | 国产精品久免费的黄网站 | 大屁股大乳丰满人妻 | 综合激情五月综合激情五月激情1 | 大色综合色综合网站 | 久久综合狠狠综合久久综合88 | 国产真人无遮挡作爱免费视频 | 鲁鲁鲁爽爽爽在线视频观看 | 最近免费中文字幕中文高清百度 | 蜜桃av抽搐高潮一区二区 | 国产性生交xxxxx无码 | 亚拍精品一区二区三区探花 | 亚洲精品久久久久久久久久久 | 日韩精品无码一本二本三本色 | 国产精品人人爽人人做我的可爱 | 国产莉萝无码av在线播放 | 香蕉久久久久久av成人 | 亚洲色欲久久久综合网东京热 | 水蜜桃色314在线观看 | 亚洲欧美综合区丁香五月小说 | 激情五月综合色婷婷一区二区 | 激情亚洲一区国产精品 | 蜜桃无码一区二区三区 | 少妇久久久久久人妻无码 | 欧美性猛交xxxx富婆 | 亚洲大尺度无码无码专区 | 无码人妻久久一区二区三区不卡 | 色爱情人网站 | 色爱情人网站 | 99久久久无码国产精品免费 | 国产精品自产拍在线观看 | 亚洲色大成网站www国产 | 色噜噜亚洲男人的天堂 | 日韩亚洲欧美中文高清在线 | 丰满少妇熟乱xxxxx视频 | 人妻中文无码久热丝袜 | 日本乱人伦片中文三区 | 国产无套内射久久久国产 | 好屌草这里只有精品 | 成人免费视频在线观看 | 国产精品国产自线拍免费软件 | 国产人妻精品午夜福利免费 | 欧美乱妇无乱码大黄a片 | 精品一二三区久久aaa片 | 久久人人爽人人人人片 | 国产免费观看黄av片 | 久久精品人人做人人综合试看 | 成人试看120秒体验区 | aⅴ在线视频男人的天堂 | 亚洲精品一区二区三区四区五区 | 一个人免费观看的www视频 | 欧美国产日产一区二区 | 日日碰狠狠躁久久躁蜜桃 | 美女毛片一区二区三区四区 | 亚洲中文字幕在线无码一区二区 | 成在人线av无码免观看麻豆 | 成人女人看片免费视频放人 | 久久久精品456亚洲影院 | 在线天堂新版最新版在线8 | 精品午夜福利在线观看 | 东京热无码av男人的天堂 | ass日本丰满熟妇pics | 国产绳艺sm调教室论坛 | 久久99国产综合精品 | 又大又硬又爽免费视频 | 四虎影视成人永久免费观看视频 | 国产成人无码av一区二区 | 天天摸天天碰天天添 | 55夜色66夜色国产精品视频 | 国产熟妇另类久久久久 | 亚洲精品一区二区三区婷婷月 | 欧美日韩一区二区三区自拍 | 动漫av网站免费观看 | 国产极品美女高潮无套在线观看 | 噜噜噜亚洲色成人网站 | 俄罗斯老熟妇色xxxx | 精品厕所偷拍各类美女tp嘘嘘 | 久久久久99精品成人片 | 老熟女重囗味hdxx69 | 色一情一乱一伦一视频免费看 | 强开小婷嫩苞又嫩又紧视频 | 四十如虎的丰满熟妇啪啪 | 精品国产一区二区三区av 性色 | 亚洲精品国产精品乱码不卡 | 午夜福利不卡在线视频 | 无遮挡啪啪摇乳动态图 | 久久国产精品_国产精品 | 在线欧美精品一区二区三区 | 99视频精品全部免费免费观看 | 久久综合激激的五月天 | 国产精品久久福利网站 | 日韩精品久久久肉伦网站 | 狠狠色噜噜狠狠狠7777奇米 | 亚洲aⅴ无码成人网站国产app | 国产小呦泬泬99精品 | 国产精品视频免费播放 | 欧美成人免费全部网站 | 亚洲乱码中文字幕在线 | 欧美激情综合亚洲一二区 | 午夜不卡av免费 一本久久a久久精品vr综合 | 99久久人妻精品免费二区 | 亚洲精品国产a久久久久久 | 欧美日韩色另类综合 | 亚洲成av人影院在线观看 | 十八禁真人啪啪免费网站 | 少妇无码av无码专区在线观看 | 国产特级毛片aaaaaaa高清 | 国产片av国语在线观看 | 欧美高清在线精品一区 | 国产无套粉嫩白浆在线 | 国产一区二区三区精品视频 | 亚洲精品一区二区三区四区五区 | 欧美黑人性暴力猛交喷水 | 国产精品久久久一区二区三区 | 久久久国产一区二区三区 | 亚洲精品国产品国语在线观看 | 男女超爽视频免费播放 | 亚洲阿v天堂在线 | 亚洲国产午夜精品理论片 | 国产亚洲精品久久久ai换 | 久久精品国产一区二区三区肥胖 | 少妇性l交大片欧洲热妇乱xxx | 久精品国产欧美亚洲色aⅴ大片 | 国产美女精品一区二区三区 | 18禁黄网站男男禁片免费观看 | 人人妻人人澡人人爽人人精品 | 红桃av一区二区三区在线无码av | 99re在线播放 | 国产精品久久久久无码av色戒 | 国产乱人伦av在线无码 | 无码毛片视频一区二区本码 | 久久久精品成人免费观看 | 嫩b人妻精品一区二区三区 | 18精品久久久无码午夜福利 | 国产精品久久久久9999小说 | 无码av免费一区二区三区试看 | 天天摸天天碰天天添 | 国内精品人妻无码久久久影院蜜桃 | 精品国产一区二区三区av 性色 | 日本在线高清不卡免费播放 | 欧美国产亚洲日韩在线二区 | 成熟人妻av无码专区 | 精品久久久中文字幕人妻 | 国产又粗又硬又大爽黄老大爷视 | 激情爆乳一区二区三区 | 免费视频欧美无人区码 | 久久久精品欧美一区二区免费 | 狠狠色丁香久久婷婷综合五月 | 国产人妻久久精品二区三区老狼 | 国产一区二区三区精品视频 | 亚洲精品一区三区三区在线观看 | 色一情一乱一伦 | 午夜精品久久久久久久久 | 麻豆精品国产精华精华液好用吗 | 亚洲精品鲁一鲁一区二区三区 | 蜜桃无码一区二区三区 | 内射巨臀欧美在线视频 | 乱码av麻豆丝袜熟女系列 | 国产亚洲精品久久久久久 | 人人爽人人爽人人片av亚洲 | 精品国产国产综合精品 | 女人被男人爽到呻吟的视频 | 东北女人啪啪对白 | a国产一区二区免费入口 | 亚洲一区av无码专区在线观看 | 国产精品久免费的黄网站 | 久久无码人妻影院 | 少妇人妻偷人精品无码视频 | 日本精品高清一区二区 | 未满小14洗澡无码视频网站 | 日韩人妻无码中文字幕视频 | 天海翼激烈高潮到腰振不止 | 亚洲色欲色欲天天天www | 欧美精品在线观看 | 无码播放一区二区三区 | 人人妻在人人 | 欧美老妇交乱视频在线观看 | 国产免费观看黄av片 | 中文字幕无码av波多野吉衣 | 夜夜影院未满十八勿进 | 欧美兽交xxxx×视频 | 国产午夜无码视频在线观看 | 国产舌乚八伦偷品w中 | 亚洲性无码av中文字幕 | 无码午夜成人1000部免费视频 | 露脸叫床粗话东北少妇 | 亚洲午夜无码久久 | 无码人妻出轨黑人中文字幕 | 午夜福利不卡在线视频 | 国产成人一区二区三区在线观看 | 一本无码人妻在中文字幕免费 | 欧美一区二区三区视频在线观看 | 波多野结衣aⅴ在线 | 国产亚洲精品精品国产亚洲综合 | 丰满少妇熟乱xxxxx视频 | 久久久婷婷五月亚洲97号色 | 丰满妇女强制高潮18xxxx | 国产成人无码午夜视频在线观看 | 国产人妻人伦精品1国产丝袜 | 97久久超碰中文字幕 | 国产97色在线 | 免 | 亚洲人成网站在线播放942 | 国产精品igao视频网 | 色情久久久av熟女人妻网站 | 香蕉久久久久久av成人 | 亚洲色偷偷男人的天堂 | 亚洲人交乣女bbw | 免费无码的av片在线观看 | 国产成人午夜福利在线播放 | 国产肉丝袜在线观看 | 偷窥村妇洗澡毛毛多 | 亚无码乱人伦一区二区 | 婷婷色婷婷开心五月四房播播 | 风流少妇按摩来高潮 | 4hu四虎永久在线观看 | 内射欧美老妇wbb | 四虎影视成人永久免费观看视频 | 日韩亚洲欧美中文高清在线 | 双乳奶水饱满少妇呻吟 | 免费视频欧美无人区码 | 婷婷丁香五月天综合东京热 | 男女猛烈xx00免费视频试看 | 在线观看欧美一区二区三区 | 国产又爽又猛又粗的视频a片 | 久久99精品久久久久久动态图 | 国产精品久久久一区二区三区 | 欧美日韩一区二区综合 | 成人欧美一区二区三区黑人 | 欧美日韩亚洲国产精品 | 欧美日韩一区二区免费视频 | 国产香蕉尹人综合在线观看 | 99er热精品视频 | 欧美熟妇另类久久久久久多毛 | 强辱丰满人妻hd中文字幕 | 国产无遮挡吃胸膜奶免费看 | www成人国产高清内射 | 国产欧美亚洲精品a | 国产精品嫩草久久久久 | 无码午夜成人1000部免费视频 | 国产农村妇女高潮大叫 | 色五月丁香五月综合五月 | 岛国片人妻三上悠亚 | 麻豆精品国产精华精华液好用吗 | 在线观看国产一区二区三区 | 一本久久伊人热热精品中文字幕 | 精品无码一区二区三区的天堂 | 国产成人亚洲综合无码 | 性做久久久久久久免费看 | 久久精品中文字幕大胸 | 久久综合久久自在自线精品自 | 亚洲精品一区二区三区大桥未久 | 亚洲の无码国产の无码影院 | 国产在线精品一区二区三区直播 | 国产精品毛多多水多 | 丝袜 中出 制服 人妻 美腿 | 巨爆乳无码视频在线观看 | 性开放的女人aaa片 | 久久综合九色综合欧美狠狠 | a片在线免费观看 | 强伦人妻一区二区三区视频18 | 99er热精品视频 | 又粗又大又硬毛片免费看 | 久久亚洲中文字幕无码 | 国产午夜福利亚洲第一 | 思思久久99热只有频精品66 | 成人精品视频一区二区 | 国产精品高潮呻吟av久久4虎 | 日韩人妻无码中文字幕视频 | 国产手机在线αⅴ片无码观看 | 国产精品久久精品三级 | 在线精品国产一区二区三区 | 久久熟妇人妻午夜寂寞影院 | 九九久久精品国产免费看小说 | 亚洲精品成a人在线观看 | 久青草影院在线观看国产 | 精品无码一区二区三区的天堂 | 97色伦图片97综合影院 | 亚洲成a人片在线观看无码 | 国产精品久久久久久亚洲影视内衣 | 久久久久亚洲精品男人的天堂 | 国产 浪潮av性色四虎 | 欧美性生交xxxxx久久久 | 成人动漫在线观看 | 精品久久久无码中文字幕 | 久久综合狠狠综合久久综合88 | 国产亚洲精品久久久闺蜜 | 77777熟女视频在线观看 а天堂中文在线官网 | 熟妇女人妻丰满少妇中文字幕 | 亚洲s色大片在线观看 | 久久久国产精品无码免费专区 | 日本丰满护士爆乳xxxx | 国产在线精品一区二区高清不卡 | 国产成人亚洲综合无码 | 男人和女人高潮免费网站 | 日本一本二本三区免费 | 日韩少妇白浆无码系列 | 亚洲日本一区二区三区在线 | 国产精品国产自线拍免费软件 | 99视频精品全部免费免费观看 | 欧美高清在线精品一区 | 久久国产精品二国产精品 | 乱人伦中文视频在线观看 | 天天拍夜夜添久久精品大 | 少妇无码av无码专区在线观看 | 国产人妻人伦精品1国产丝袜 | 天下第一社区视频www日本 | 97se亚洲精品一区 | 国产后入清纯学生妹 | 国产卡一卡二卡三 | 宝宝好涨水快流出来免费视频 | 久久国产精品二国产精品 | 久久精品国产精品国产精品污 | 日韩欧美中文字幕在线三区 | 曰本女人与公拘交酡免费视频 | 丁香啪啪综合成人亚洲 | 久久久久人妻一区精品色欧美 | 亚洲aⅴ无码成人网站国产app | 偷窥村妇洗澡毛毛多 | 牲交欧美兽交欧美 | 国产超碰人人爽人人做人人添 | 午夜精品久久久内射近拍高清 | 色综合天天综合狠狠爱 | 99精品无人区乱码1区2区3区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | av人摸人人人澡人人超碰下载 | 午夜性刺激在线视频免费 | 国产偷抇久久精品a片69 | 人人妻人人澡人人爽欧美精品 | 午夜精品久久久内射近拍高清 | 熟妇人妻激情偷爽文 | 久久久久亚洲精品男人的天堂 | 少妇一晚三次一区二区三区 | 亚洲精品一区二区三区大桥未久 | 国产无遮挡又黄又爽又色 | 免费无码的av片在线观看 | 欧美日本免费一区二区三区 | 少妇性l交大片 | 1000部夫妻午夜免费 | 亚洲色无码一区二区三区 | 国产成人无码午夜视频在线观看 | 色欲久久久天天天综合网精品 | 亚洲 日韩 欧美 成人 在线观看 | 色综合天天综合狠狠爱 | 久久精品中文闷骚内射 | 搡女人真爽免费视频大全 | 亚洲爆乳大丰满无码专区 | 国产精品a成v人在线播放 | 在线成人www免费观看视频 | 男女性色大片免费网站 | 中文字幕无码免费久久99 | 日本一区二区更新不卡 | 久久久国产一区二区三区 | 精品国产成人一区二区三区 | 欧美黑人巨大xxxxx | 亚洲人成人无码网www国产 | 激情综合激情五月俺也去 | 欧美老妇交乱视频在线观看 | 131美女爱做视频 | 精品久久久久久人妻无码中文字幕 | 亚洲成a人片在线观看无码3d | 亚洲精品一区国产 | 成人无码影片精品久久久 | 亚洲中文字幕成人无码 | 桃花色综合影院 | 精品乱码久久久久久久 | 久久综合狠狠综合久久综合88 | 蜜桃视频韩日免费播放 | 成熟妇人a片免费看网站 | 国产成人精品一区二区在线小狼 | 少妇高潮一区二区三区99 | 国产无遮挡又黄又爽免费视频 | 亚洲国产成人av在线观看 | 丰满岳乱妇在线观看中字无码 | 国内揄拍国内精品少妇国语 | 未满成年国产在线观看 | 国产精品无码久久av | 国产免费观看黄av片 | 国产精品人人爽人人做我的可爱 | 国产精品亚洲а∨无码播放麻豆 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 欧美成人免费全部网站 | 1000部夫妻午夜免费 | 狠狠色噜噜狠狠狠狠7777米奇 | 欧美性猛交xxxx富婆 | 两性色午夜视频免费播放 | 亚洲午夜福利在线观看 | 亚洲中文字幕在线观看 | 精品久久综合1区2区3区激情 | 国产亚洲tv在线观看 | 99久久99久久免费精品蜜桃 | 国内丰满熟女出轨videos | 国产人妻精品一区二区三区不卡 | 377p欧洲日本亚洲大胆 | 国内丰满熟女出轨videos | 日本精品少妇一区二区三区 | 亚洲熟女一区二区三区 | 最近免费中文字幕中文高清百度 | 色老头在线一区二区三区 | 乱人伦人妻中文字幕无码久久网 | 55夜色66夜色国产精品视频 | 国内综合精品午夜久久资源 | 国产精品第一区揄拍无码 | 国产精品内射视频免费 | 亚洲国产av美女网站 | 日本肉体xxxx裸交 | 亚洲a无码综合a国产av中文 | 亚洲综合久久一区二区 | 亚洲性无码av中文字幕 | 小鲜肉自慰网站xnxx | 亚洲综合色区中文字幕 | 又紧又大又爽精品一区二区 | 国产精品久久久久影院嫩草 | 美女毛片一区二区三区四区 | 一个人免费观看的www视频 | 熟女少妇在线视频播放 | 精品无人国产偷自产在线 | 久久久av男人的天堂 | 奇米影视888欧美在线观看 | 俺去俺来也在线www色官网 | 国精产品一品二品国精品69xx | 亚洲精品国偷拍自产在线观看蜜桃 | 国精产品一品二品国精品69xx | 欧美黑人性暴力猛交喷水 | 久久视频在线观看精品 | 国产农村妇女高潮大叫 | 亚洲精品中文字幕乱码 | 中文字幕乱码人妻无码久久 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲综合无码一区二区三区 | 欧美人与动性行为视频 | 人妻尝试又大又粗久久 | 男人的天堂av网站 | 妺妺窝人体色www婷婷 | 麻花豆传媒剧国产免费mv在线 | 色综合久久久无码网中文 | 亚洲国产精品无码一区二区三区 | 欧美黑人乱大交 | 中文字幕无码日韩专区 | 久久 国产 尿 小便 嘘嘘 | 无码国内精品人妻少妇 | 欧美阿v高清资源不卡在线播放 | 在线播放免费人成毛片乱码 | 色一情一乱一伦一区二区三欧美 | 日本大乳高潮视频在线观看 | 天堂а√在线地址中文在线 | 狠狠色噜噜狠狠狠7777奇米 | av人摸人人人澡人人超碰下载 | 久久国产36精品色熟妇 | av香港经典三级级 在线 | 亚洲日本一区二区三区在线 | 精品偷拍一区二区三区在线看 | 精品午夜福利在线观看 | 天天躁夜夜躁狠狠是什么心态 | 精品无码国产自产拍在线观看蜜 | 青青青爽视频在线观看 | 精品国精品国产自在久国产87 | 鲁大师影院在线观看 | 久久国产精品二国产精品 | 国产又粗又硬又大爽黄老大爷视 | 精品久久久久香蕉网 | 图片小说视频一区二区 | 色狠狠av一区二区三区 | 午夜福利试看120秒体验区 | 美女毛片一区二区三区四区 | 老熟女重囗味hdxx69 | 一二三四社区在线中文视频 | 亚洲熟女一区二区三区 | 亚洲精品中文字幕乱码 | 久久精品成人欧美大片 | 国产三级久久久精品麻豆三级 | 欧美成人家庭影院 | 色一情一乱一伦 | 又大又紧又粉嫩18p少妇 | 内射老妇bbwx0c0ck | 国产精品欧美成人 | 欧美日本精品一区二区三区 | 性欧美牲交xxxxx视频 | 麻豆果冻传媒2021精品传媒一区下载 | 国产精品99久久精品爆乳 | 久久国内精品自在自线 | 久久伊人色av天堂九九小黄鸭 | 国产精品亚洲lv粉色 | 国产成人精品必看 | 欧美性猛交内射兽交老熟妇 | 波多野结衣高清一区二区三区 | a在线亚洲男人的天堂 | 97无码免费人妻超级碰碰夜夜 | 少妇激情av一区二区 | 久久久国产精品无码免费专区 | 在线精品国产一区二区三区 | 亚洲 日韩 欧美 成人 在线观看 | 国产午夜亚洲精品不卡下载 | 熟妇人妻无码xxx视频 | 日韩精品无码一区二区中文字幕 | 精品国产一区二区三区四区 | 国产精品久久国产三级国 | 亚洲欧洲日本无在线码 | 女人色极品影院 | 一本久久a久久精品亚洲 | 久久人人爽人人人人片 | 久久99精品久久久久久 | 精品国产一区二区三区四区在线看 | 人人妻人人藻人人爽欧美一区 | 国产精品18久久久久久麻辣 | 亚洲日本va午夜在线电影 | 亚洲高清偷拍一区二区三区 | 国产精品亚洲综合色区韩国 | 亚洲综合无码一区二区三区 | 国产成人无码午夜视频在线观看 | 18禁黄网站男男禁片免费观看 | 18精品久久久无码午夜福利 | 国产两女互慰高潮视频在线观看 | 高潮毛片无遮挡高清免费 | 在教室伦流澡到高潮hnp视频 | 国产sm调教视频在线观看 | 亚洲小说图区综合在线 | 在线视频网站www色 | 美女极度色诱视频国产 | 亚洲成av人在线观看网址 | 国产亚洲精品久久久久久久久动漫 | 色五月丁香五月综合五月 | 国产精品久久国产精品99 | 高潮毛片无遮挡高清免费 | 国产激情无码一区二区app | 娇妻被黑人粗大高潮白浆 | 天堂无码人妻精品一区二区三区 | 国产综合久久久久鬼色 | 久久久精品456亚洲影院 | 欧美人与牲动交xxxx | 国产suv精品一区二区五 | 国产69精品久久久久app下载 | 精品欧美一区二区三区久久久 | 国产成人综合色在线观看网站 | 精品久久久久香蕉网 | 国产综合在线观看 | 性色欲网站人妻丰满中文久久不卡 | 精品偷自拍另类在线观看 | 99久久亚洲精品无码毛片 | 伊人久久大香线蕉亚洲 | 大地资源网第二页免费观看 | 欧美xxxx黑人又粗又长 | 欧洲欧美人成视频在线 | 精品日本一区二区三区在线观看 | 久久人人97超碰a片精品 | 国产精品久久久av久久久 | 俺去俺来也www色官网 | 成人精品天堂一区二区三区 | 日本又色又爽又黄的a片18禁 | 国产亚洲精品久久久久久大师 | 亚洲国精产品一二二线 | 在线精品国产一区二区三区 | 国产精品igao视频网 | 国产sm调教视频在线观看 | 亚洲综合无码一区二区三区 | 国产无遮挡吃胸膜奶免费看 | 亚洲熟女一区二区三区 | 亚洲色www成人永久网址 | 天天av天天av天天透 | 激情五月综合色婷婷一区二区 | 精品午夜福利在线观看 | 国内精品久久久久久中文字幕 | 国产97人人超碰caoprom | 久久久久亚洲精品男人的天堂 | 亚洲色偷偷偷综合网 | 熟妇人妻激情偷爽文 | 99国产精品白浆在线观看免费 | 中文字幕色婷婷在线视频 | 99re在线播放 | 国产精品成人av在线观看 | 久久亚洲日韩精品一区二区三区 | 少妇一晚三次一区二区三区 | 国产一区二区不卡老阿姨 | 日韩人妻无码一区二区三区久久99 | 久久精品国产99久久6动漫 | 色情久久久av熟女人妻网站 | 国产成人亚洲综合无码 | 国产真实乱对白精彩久久 | 久久精品国产99久久6动漫 | 国产一区二区三区日韩精品 | 无码人妻黑人中文字幕 | 中文字幕无码人妻少妇免费 | 四虎影视成人永久免费观看视频 | 成人欧美一区二区三区 | 国产香蕉尹人综合在线观看 | 人妻少妇被猛烈进入中文字幕 | 青春草在线视频免费观看 | 日日干夜夜干 | 国产精品va在线观看无码 | 老熟女重囗味hdxx69 | 一本大道伊人av久久综合 | 美女扒开屁股让男人桶 | 一二三四社区在线中文视频 | 亚洲熟女一区二区三区 | 日本肉体xxxx裸交 | 丝袜 中出 制服 人妻 美腿 | 精品无码成人片一区二区98 | 99精品无人区乱码1区2区3区 | 精品国产成人一区二区三区 | 人人爽人人澡人人高潮 | 日本va欧美va欧美va精品 | 欧美丰满熟妇xxxx | 亚洲理论电影在线观看 | 夜夜躁日日躁狠狠久久av | 国产精品va在线播放 | 国产乱码精品一品二品 | 亚洲综合精品香蕉久久网 | 中文字幕日韩精品一区二区三区 | 扒开双腿疯狂进出爽爽爽视频 | 性色欲情网站iwww九文堂 | 久在线观看福利视频 | 久久久久免费精品国产 | 亚洲男人av香蕉爽爽爽爽 | 久久久久成人片免费观看蜜芽 | 久久亚洲a片com人成 | 中文字幕av日韩精品一区二区 | 国产69精品久久久久app下载 | 亚洲 激情 小说 另类 欧美 | 免费观看又污又黄的网站 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 一本色道久久综合狠狠躁 | 永久免费精品精品永久-夜色 | 18禁止看的免费污网站 | 国产福利视频一区二区 | 国产黑色丝袜在线播放 | 六月丁香婷婷色狠狠久久 | 国产成人无码av片在线观看不卡 | 97资源共享在线视频 | 成在人线av无码免费 | 亚洲国产精品无码一区二区三区 | 国产av一区二区三区最新精品 | www国产亚洲精品久久网站 | 成人毛片一区二区 | 成人无码精品1区2区3区免费看 | 人妻少妇精品无码专区二区 | 玩弄中年熟妇正在播放 | 亚洲色偷偷男人的天堂 | 帮老师解开蕾丝奶罩吸乳网站 | 国产人妻精品一区二区三区不卡 | 色欲久久久天天天综合网精品 | 极品尤物被啪到呻吟喷水 | 亚洲午夜福利在线观看 | 国产色在线 | 国产 | 欧美第一黄网免费网站 | 强奷人妻日本中文字幕 | 六十路熟妇乱子伦 | 亚洲中文字幕无码中字 | 亚洲一区二区三区国产精华液 | 久久熟妇人妻午夜寂寞影院 | 久久久久成人片免费观看蜜芽 | 日日麻批免费40分钟无码 | 国产亚洲精品久久久久久 | 国产午夜精品一区二区三区嫩草 | 国产精品久久久一区二区三区 | 精品国产一区二区三区四区在线看 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 亚洲区欧美区综合区自拍区 | 大胆欧美熟妇xx | 小鲜肉自慰网站xnxx | 激情人妻另类人妻伦 | 国产两女互慰高潮视频在线观看 | 日本高清一区免费中文视频 | 男人扒开女人内裤强吻桶进去 | 久久久久久av无码免费看大片 | 亚洲国产欧美日韩精品一区二区三区 | 欧美日韩久久久精品a片 | 人妻有码中文字幕在线 | 亚洲va欧美va天堂v国产综合 | 成人精品一区二区三区中文字幕 | 人妻插b视频一区二区三区 | 欧美日韩视频无码一区二区三 | 无码吃奶揉捏奶头高潮视频 | 色噜噜亚洲男人的天堂 | 久久久久久a亚洲欧洲av冫 | 日本精品少妇一区二区三区 | 精品国产av色一区二区深夜久久 | 亚洲第一网站男人都懂 | 国产av剧情md精品麻豆 | 亚洲国产精华液网站w | 亚洲中文字幕乱码av波多ji | 99久久精品日本一区二区免费 | 久久精品国产日本波多野结衣 | 在线视频网站www色 | 中文字幕精品av一区二区五区 | 国产热a欧美热a在线视频 | 久久综合九色综合欧美狠狠 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产成人午夜福利在线播放 | 欧美野外疯狂做受xxxx高潮 | 婷婷丁香五月天综合东京热 | 国产网红无码精品视频 | 国产亚洲精品久久久久久久 | 成人无码视频在线观看网站 | 强伦人妻一区二区三区视频18 | 永久免费观看美女裸体的网站 | 久久久久久a亚洲欧洲av冫 | 亚洲熟妇色xxxxx欧美老妇 | 乌克兰少妇xxxx做受 | 蜜桃臀无码内射一区二区三区 | 成人性做爰aaa片免费看不忠 | 色综合久久88色综合天天 | 精品一区二区三区无码免费视频 | 未满小14洗澡无码视频网站 | 狠狠cao日日穞夜夜穞av | 国内精品人妻无码久久久影院蜜桃 | 国产麻豆精品精东影业av网站 | 国产精品嫩草久久久久 | 一本久道久久综合婷婷五月 | 蜜桃视频插满18在线观看 | 国产乱子伦视频在线播放 | 精品亚洲韩国一区二区三区 | 波多野结衣高清一区二区三区 | 亚洲精品久久久久avwww潮水 | 亚洲精品国偷拍自产在线麻豆 | 在线а√天堂中文官网 | 欧美怡红院免费全部视频 | 精品欧美一区二区三区久久久 | 在线成人www免费观看视频 | 无码国产色欲xxxxx视频 | 亚洲午夜福利在线观看 | a国产一区二区免费入口 | 中文毛片无遮挡高清免费 | 少妇无码av无码专区在线观看 | 欧美日本免费一区二区三区 | 中文字幕日韩精品一区二区三区 | 亚洲国产精华液网站w | 国产精品.xx视频.xxtv | 亚洲码国产精品高潮在线 | 国产超级va在线观看视频 | 精品久久久无码中文字幕 | 久久久久se色偷偷亚洲精品av | 国产高潮视频在线观看 | 波多野结衣av一区二区全免费观看 | 色 综合 欧美 亚洲 国产 | 乱人伦人妻中文字幕无码久久网 | 国产黑色丝袜在线播放 | yw尤物av无码国产在线观看 | 久久精品一区二区三区四区 | 国产成人综合色在线观看网站 | 精品熟女少妇av免费观看 | 日韩av无码一区二区三区 | 国产麻豆精品精东影业av网站 | 动漫av网站免费观看 | 午夜精品久久久内射近拍高清 | 国内精品一区二区三区不卡 | 精品国产精品久久一区免费式 | 水蜜桃色314在线观看 | 亚洲乱码日产精品bd | 男女下面进入的视频免费午夜 | 中文无码精品a∨在线观看不卡 | 久久精品国产大片免费观看 | 亚洲成色www久久网站 | 一本久久a久久精品亚洲 | 日日鲁鲁鲁夜夜爽爽狠狠 | 亚洲中文字幕在线观看 | 在线看片无码永久免费视频 | 少妇的肉体aa片免费 | 亚洲精品午夜无码电影网 | 免费无码肉片在线观看 | 国产明星裸体无码xxxx视频 | 亚洲中文字幕久久无码 | 亚洲色欲色欲天天天www | 国产免费久久久久久无码 | 午夜时刻免费入口 | 亚洲日韩中文字幕在线播放 | 国产av剧情md精品麻豆 | 国产精品无码久久av | 狠狠色欧美亚洲狠狠色www | 免费观看激色视频网站 | 精品国产一区二区三区四区在线看 | 狠狠cao日日穞夜夜穞av | 中国女人内谢69xxxxxa片 | 亚洲日韩av片在线观看 | 亚洲中文字幕无码中文字在线 | 香蕉久久久久久av成人 | 国产亚av手机在线观看 | 国产精品人妻一区二区三区四 | 久久zyz资源站无码中文动漫 | 精品人妻中文字幕有码在线 | 学生妹亚洲一区二区 | 好屌草这里只有精品 | 日日鲁鲁鲁夜夜爽爽狠狠 | 无码福利日韩神码福利片 | 亚洲自偷自偷在线制服 | 欧美人与禽猛交狂配 | 内射爽无广熟女亚洲 | 人妻体内射精一区二区三四 | 亚洲欧美日韩成人高清在线一区 | 欧美激情内射喷水高潮 | 欧美精品国产综合久久 | 三上悠亚人妻中文字幕在线 | 欧美国产日韩亚洲中文 | 欧美精品无码一区二区三区 | 国产精品久久福利网站 | 永久免费观看美女裸体的网站 | 亚洲午夜福利在线观看 | 麻豆国产人妻欲求不满谁演的 | 曰韩无码二三区中文字幕 | 人妻少妇被猛烈进入中文字幕 | 在线播放无码字幕亚洲 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 精品国产一区二区三区四区在线看 | 亚洲爆乳精品无码一区二区三区 | 无码人妻av免费一区二区三区 | 天堂在线观看www | 久久综合狠狠综合久久综合88 | 日韩人妻无码中文字幕视频 | 欧美午夜特黄aaaaaa片 | 香蕉久久久久久av成人 | 国产精品亚洲а∨无码播放麻豆 | 妺妺窝人体色www在线小说 | 国产精品亚洲五月天高清 | 国产欧美精品一区二区三区 | 7777奇米四色成人眼影 | 成人无码精品1区2区3区免费看 | 激情亚洲一区国产精品 | 欧美三级a做爰在线观看 | 久久97精品久久久久久久不卡 | 国产午夜无码视频在线观看 | 色婷婷综合激情综在线播放 | 老子影院午夜伦不卡 | 一本久道高清无码视频 | 中文亚洲成a人片在线观看 | 亚洲人成网站色7799 | 女人和拘做爰正片视频 | 对白脏话肉麻粗话av | 性欧美大战久久久久久久 | 亚洲啪av永久无码精品放毛片 | 欧美乱妇无乱码大黄a片 | 精品人妻av区 | 日韩精品一区二区av在线 | 无人区乱码一区二区三区 | 久久久www成人免费毛片 | 国産精品久久久久久久 | 俺去俺来也在线www色官网 | aⅴ亚洲 日韩 色 图网站 播放 | 欧美人与禽zoz0性伦交 | 网友自拍区视频精品 | 欧美xxxxx精品 | 精品国产精品久久一区免费式 | 国产超级va在线观看视频 | 国产免费无码一区二区视频 | 亚洲欧美精品伊人久久 | 久久精品女人天堂av免费观看 | 亚洲欧洲日本综合aⅴ在线 | 日韩精品无码一本二本三本色 | 久久综合给久久狠狠97色 | 精品亚洲韩国一区二区三区 | 曰本女人与公拘交酡免费视频 | 97资源共享在线视频 | 亚洲精品国产a久久久久久 | 少妇被粗大的猛进出69影院 | 又黄又爽又色的视频 | 国产亚洲精品久久久久久大师 | 99精品无人区乱码1区2区3区 | 红桃av一区二区三区在线无码av | av在线亚洲欧洲日产一区二区 |