久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

Arcface v1 论文翻译与解读

發(fā)布時(shí)間:2025/3/21 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Arcface v1 论文翻译与解读 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

神羅Noctis 2019-10-13 16:14:39 ?543 ?收藏 4
展開(kāi)
論文地址:http://arxiv.org/pdf/1801.07698v1.pdf
最新版本v3的論文翻譯:Arcface v3 論文翻譯與解讀

Arcface v1 論文的篇幅比較長(zhǎng),花費(fèi)了本人3天的時(shí)間進(jìn)行翻譯解讀,希望能夠幫助讀者更好地理解論文。

ArcFace: Additive Angular Margin Loss for Deep Face Recognition
目錄
Abstract

1. Introduction

2. From Softmax to ArcFace?

2.1. Softmax

2.2.Weights Normalisation

2.3. Multiplicative Angular Margin

2.4. Feature Normalisation

2.5. Additive Cosine Margin

2.6. Additive Angular Margin

2.7. Comparison under Binary Case

2.8. Target Logit Analysis

3. Experiments

3.1. Data

3.1.1 Training data

3.1.2 Validation data

3.1.3 Test data

3.2. Network Settings

3.2.1 Input setting

3.2.2 Output setting

3.2.3 Block Setting

3.2.4 Backbones

3.2.5 Network Setting Conclusions

3.3. Loss Setting

3.4. MegaFace Challenge1 on FaceScrub

3.5. Further Improvement by Triplet Loss

4. Conclusions

4. 結(jié)論

Abstract
Convolutional neural networks have significantly boosted the performance of face recognition in recent?years due to its high capacity in learning discriminative?features. To enhance the discriminative power of the Softmax?loss, multiplicative angular margin [23] and additive?cosine margin [44, 43] incorporate angular margin and?cosine margin into the loss functions, respectively. In?this paper, we propose a novel supervisor signal, additive?angular margin (ArcFace), which has a better geometrical interpretation than supervision signals proposed so far. Specifically, the proposed ArcFace cos(θ?+ m) directly?maximise decision boundary in angular (arc) space based?on the L2 normalised weights and features. Compared to?multiplicative angular margin cos(mθ) and additive cosine?margin cosθ -?m, ArcFace can obtain more discriminative?deep features. We also emphasise the importance of?network settings and data refinement in the problem of deep?face recognition. Extensive experiments on several relevant?face recognition benchmarks, LFW, CFP and AgeDB,?prove the effectiveness of the proposed ArcFace. Most importantly,we get state-of-art performance in the MegaFace?Challenge in a totally reproducible way. We make data,?models and training/test code public .

摘要
近年來(lái),卷積神經(jīng)網(wǎng)絡(luò)顯著提高了人臉識(shí)別的性能,因其強(qiáng)大學(xué)習(xí)具有判別性特征的能力。為了提高Softmax損失的判別能力,乘法角度間隔(multiplicative angular margin)[23]和加法余弦間隔(additive cosine margin)[44,43]分別將角度間隔和余弦間隔加入到損失函數(shù)中。在本文中,我們提出了一種新穎的監(jiān)控信號(hào),即(additive angular margin)加法角度間隔(ArcFace),它比目前提出的監(jiān)督信號(hào)具有更好的幾何解釋。具體來(lái)說(shuō),所提出的ArcFace?cos(θ?+ m)直接將基于L2歸一化權(quán)重和特征的角度空間中的決策邊界最大化。與乘法角度間隔 cos(mθ) 和 加法余弦間隔?cosθ -?m 相比,ArcFace可以獲得更具判別能力的深層特征。我們也強(qiáng)調(diào)了網(wǎng)絡(luò)設(shè)置和數(shù)據(jù)細(xì)化在深度人臉識(shí)別中的重要性。在相關(guān)的人臉識(shí)別基準(zhǔn)(LFW、CFP和AgeDB)上進(jìn)行了大量的實(shí)驗(yàn),證明了ArcFace的有效性。最重要的是,我們?cè)贛egaFace挑戰(zhàn)賽中以完全可重現(xiàn)的方式獲得最先進(jìn)的性能。我們公開(kāi)數(shù)據(jù)、模型和培訓(xùn)/測(cè)試代碼。

圖1. ArcFace的幾何解釋。(a) 藍(lán)點(diǎn)和綠點(diǎn)代表來(lái)自?xún)蓚€(gè)不同類(lèi)的嵌入特征。ArcFace可以直接在類(lèi)之間增加角度間隔(angular (arc) margin)。(b)我們發(fā)現(xiàn)角度和角度間隔(arc margin)之間有一種直觀的對(duì)應(yīng)關(guān)系。Arcface的angular margin對(duì)應(yīng)超球面上的arc?margin(測(cè)地距離)。

?

1. Introduction
Face representation through the deep convolutional network embedding is considered the state-of-the-art method for face verification, face clustering, and face recognition?[42, 35, 31]. The deep convolutional network is responsible?for mapping the face image, typically after a pose normalisation?step, into an embedding feature vector such that?features of the same person have a small distance while features?of different individuals have a considerable distance.?The various face recognition approaches by deep convolutional network embedding differ along three primary?attributes.

1. 介紹
通過(guò)深度卷積網(wǎng)絡(luò)嵌入的人臉表征,被認(rèn)為是目前最先進(jìn)的人臉驗(yàn)證、人臉聚類(lèi)和人臉識(shí)別方法[42,35,31]。通常在歸一化步驟之后,深度卷積網(wǎng)絡(luò)負(fù)責(zé)將人臉圖像映射到嵌入的特征向量中,使得同一個(gè)人的特征距離小,不同一個(gè)人的特征距離大。基于深度卷積網(wǎng)絡(luò)嵌入的人臉識(shí)別方法,主要有三個(gè)屬性。

?

The first attribute is the training data employed to train?the model. The identity number of public available training?data, such as VGG-Face [31], VGG2-Face [7], CAISAWebFace?[48], UMDFaces [6], MS-Celeb-1M [11], and?MegaFace [21], ranges from several thousand to half million. Although MS-Celeb-1M and MegaFace have a significant?number of identities, they suffer from annotation?noises [47] and long tail distributions [50]. By comparison,?private training data of Google [35] even has several million?identities. As we can check from the latest performance report?of Face Recognition Vendor Test (FRVT) [4], Yitu, a
start-up company from China, ranks first based on their private?1.8 billion face images [5]. Due to orders of magnitude
difference on the training data scale, face recognition models?from industry perform much better than models from?academia. The difference of training data also makes some?deep face recognition results [2] not fully reproducible.?

第一個(gè)屬性是用于訓(xùn)練模型的訓(xùn)練數(shù)據(jù)。公開(kāi)人臉訓(xùn)練數(shù)據(jù)集,如VGG-Face [31],VGG2-Face [7],CAISAWebFace [48],UMDFaces [6],MS-Celeb-1M [11]和MegaFace [21],包含了數(shù)量范圍從幾千到五十萬(wàn)的身份。盡管MS-Celeb-1M和MegaFace具有相當(dāng)數(shù)量的身份,但它們受到注釋噪聲[47]和長(zhǎng)尾分布[50]的影響。相比之下,Google [35]的私人訓(xùn)練數(shù)據(jù)集甚至擁有數(shù)百萬(wàn)個(gè)身份。從人臉識(shí)別供應(yīng)商Test (FRVT)[4]的最新業(yè)績(jī)報(bào)告中可以看出,中國(guó)初創(chuàng)企業(yè)依圖公司擁有18億張私有的人臉圖像[5],排名第一。由于訓(xùn)練數(shù)據(jù)規(guī)模上的數(shù)量級(jí)差異,來(lái)自工業(yè)界的人臉識(shí)別模型比來(lái)自學(xué)術(shù)界的模型表現(xiàn)要好得多。訓(xùn)練數(shù)據(jù)的差異也使得一些深度人臉識(shí)別結(jié)果[2]不能完全復(fù)現(xiàn)。

?

The second attribute is the network architecture and?settings. High capacity deep convolutional networks, such as ResNet [14, 15, 46, 50, 23] and Inception-ResNet [40,3], can obtain better performance compared to VGG network?[37, 31] and Google Inception V1 network [41, 35].Different applications of deep face recognition prefer different?trade-off between speed and accuracy [16, 51]. For?face verification on mobile devices, real-time running speed?and compact model size are essential for slick customer experience.For billion level security system, high accuracy is?as important as efficiency.?

第二個(gè)屬性是網(wǎng)絡(luò)架構(gòu)和設(shè)置。高容量的深卷積網(wǎng)絡(luò),如ResNet[14, 15, 46, 50, 23]和Inception-ResNet[40,3],與VGG網(wǎng)絡(luò)[37,31]和Google Inception V1網(wǎng)絡(luò)[41,35]相比,可以獲得更好的性能。不同的深度人臉識(shí)別應(yīng)用在速度和精度之間的取舍是不同的[16,51]。對(duì)于移動(dòng)設(shè)備上的人臉驗(yàn)證,實(shí)時(shí)運(yùn)行速度和緊湊的模型大小對(duì)于流暢的客戶(hù)體驗(yàn)是至關(guān)重要的。對(duì)于十億級(jí)安全系統(tǒng),精度和效率是同等重要的。

?

The third attribute is the design of the loss functions.

第三個(gè)屬性是損失函數(shù)的設(shè)計(jì)。

(1) Euclidean margin based loss.?

In [42] and [31], a Softmax classification layer is trained?over a set of known identities. The feature vector is then?taken from an intermediate layer of the network and used?to generalise recognition beyond the set of identities used?in training. Centre loss [46] Range loss [50] and Marginal?loss [10] add extra penalty to compress intra-variance or enlarge?inter-distance to improve the recognition rate, but all?of them still combine Softmax to train recognition models.However, the classification-based methods [42, 31] suffer?from massive GPU memory consumption on the classification?layer when the identity number increases to million?level, and prefer balanced and sufficient training data for?each identity.

The contrastive loss [39] and the Triplet loss [35] utilise?pair training strategy. The contrastive loss function consists?of positive pairs and negative pairs. The gradients of the loss?function pull together positive pairs and push apart negative?pairs.??Triplet loss minimises the distance between an anchor?and a positive sample and maximises the distance between?the anchor and a negative sample from a different identity.?However, the training procedure of the contrastive loss [39]?and the Triplet loss [35] is tricky due to the selection of?effective training samples.

(1) 基于歐幾里德距離的損失。

在[42]和[31]中,Softmax分類(lèi)層是在一組已知身份上訓(xùn)練的。然后,從網(wǎng)絡(luò)的中間層提取特征向量,用于訓(xùn)練中使用的一組身份之外的泛化識(shí)別。中心損失[46]范圍損失[50]和margin損失[10]增加了額外的懲罰來(lái)減小類(lèi)內(nèi)方差或增大類(lèi)間距離,從而提高識(shí)別率,但它們?nèi)匀唤Y(jié)合Softmax來(lái)訓(xùn)練識(shí)別模型。然而,當(dāng)身份數(shù)量增加到百萬(wàn)級(jí)別時(shí),基于分類(lèi)(classi?cation-based)方法[42,31]會(huì)在分類(lèi)層上消耗大量的GPU內(nèi)存,并且每個(gè)身份都需要均衡且充足的訓(xùn)練數(shù)據(jù)。

對(duì)比損失[39]和三重?fù)p失[35]采用配對(duì)訓(xùn)練策略。對(duì)比損失函數(shù)由正對(duì)和負(fù)對(duì)組成。損失函數(shù)的梯度將正對(duì)(positive pairs)拉攏在一起,將負(fù)對(duì)(negative pairs)分開(kāi)。三重?fù)p失最小化錨點(diǎn)(anchor)與正樣本之間的距離,最大化錨點(diǎn)(anchor)與不同身份的負(fù)樣本之間的距離。然而,很難選擇有效的訓(xùn)練樣本,導(dǎo)致對(duì)比損失[39]和三重?fù)p失[35]的訓(xùn)練過(guò)程比較復(fù)雜。

?

(2) Angular and cosine margin based loss.

Liu et al. [24] proposed a large margin Softmax (L-Softmax)?by adding multiplicative angular constraints to?each identity to improve feature discrimination. SphereFace?cos(mθ) [23] applies L-Softmax to deep face recognition?with weights?normalisation. Due to the non-monotonicity?of the cosine function, a piece-wise function is applied in?SphereFace to guarantee the monotonicity. During training?of SphereFace, Softmax loss is combined to facilitate?and ensure the convergence. To overcome the optimisation?difficulty of SphereFace, additive cosine margin [44, 43]?cos(θ) - m moves the angular margin into cosine space. The?implementation and optimisation of additive cosine margin?are much easier than SphereFace. Additive cosine margin?is easily reproducible and achieves state-of-the-art performance?on MegaFace (TencentAILab_FaceCNN_v1) [2].
Compared to Euclidean margin based loss, angular and?cosine margin based loss explicitly adds discriminative?constraints on a hypershpere manifold, which intrinsically?matches the prior that human face lies on a manifold.

As is well known that the above mentioned three attributes, data, network and loss, have a high-to-low influence?on the performance of face recognition models. In?this paper, we contribute to improving deep face recognition?from all of these three attributes.

(2)基于角度間隔和余弦間隔的損失

Liu等人在[24]中提出了 large margin Softmax (L-Softmax),通過(guò)在每個(gè)身份中添加乘法角度約束來(lái)提高特征的判別能力。 SphereFace?cos(mθ) 將L-Softmax應(yīng)用于權(quán)重歸一化的深度人臉識(shí)別。在SphereFace的訓(xùn)練中,結(jié)合了Softmax損失,以促進(jìn)和確保收斂。為了克服SphereFace的優(yōu)化困難,加法余弦間隔(additive cosine margin) [44, 43]?cos(θ) - m 將角度間隔移動(dòng)到余弦空間中。加法余弦間隔的實(shí)現(xiàn)和優(yōu)化比SphereFace容易得多。加法余弦間隔很容易重現(xiàn),并在MegaFace(TencentAILab_FaceCNN_v1)[2] 上達(dá)到了最先進(jìn)的性能。與基于歐幾里德距離的損失相比,基于角度間隔和余弦間隔的損失在超球面流形上顯式地增加了判別約束,這本質(zhì)上與人臉?lè)植荚诹餍紊系南闰?yàn)匹配。

眾所周知,上述三個(gè)屬性,數(shù)據(jù),網(wǎng)絡(luò)和損失,對(duì)人臉識(shí)別模型的性能有高低的影響。在這篇論文中,我們從這三個(gè)屬性來(lái)改進(jìn)深度人臉識(shí)別。

?

Data. We refined the largest public available training?data, MS-Celeb-1M [11], in both automatic and manual?way. We have checked the quality of the refined MS1M?dataset with the Resnet-27 [14, 50, 10] network and the?marginal loss [10] on the NIST Face Recognition Prize Challenge?. We also find that there are hundreds of overlap?face images between the MegaFace one million distractors?and the FaceScrub dataset, which significantly affects the?evaluation results. We manually find these overlap face images?from the MegaFace distractors. Both the refinement of?training data and test data will be public available.

數(shù)據(jù)。我們以自動(dòng)和手動(dòng)兩種方式對(duì)目前世界上規(guī)模最大的公開(kāi)人臉訓(xùn)練數(shù)據(jù)集MS-Celeb-1M[11]進(jìn)行清洗。我們使用Resnet-27[14, 50, 10]網(wǎng)絡(luò)和NIST人臉識(shí)別獎(jiǎng)挑戰(zhàn)中的margin損失[10],檢測(cè)了修改后的MS1M數(shù)據(jù)集的質(zhì)量。我們還發(fā)現(xiàn)在MegaFace中的一百萬(wàn)個(gè)干擾集和FaceScrub數(shù)據(jù)集之間存在數(shù)百個(gè)重復(fù)的人臉圖像,這對(duì)評(píng)估結(jié)果有顯著影響。(MegaFace挑戰(zhàn)將從 Flickr Dataset中挑選的百萬(wàn)張人臉圖像作為測(cè)試時(shí)的干擾集?(distractors),而使用的搜索測(cè)試集 (probes)來(lái)自于FaceScrub 數(shù)據(jù)集 )?我們?cè)贛egaFace的干擾集中手動(dòng)找到這些重復(fù)的人臉圖像。訓(xùn)練數(shù)據(jù)和測(cè)試數(shù)據(jù)的改進(jìn)都將公之于眾。

?

Network. Taking VGG2 [7] as the training data, we conduct?extensive contrast experiments regarding the convolutional
network settings and report the verification accuracy?on LFW, CFP and AgeDB. The proposed network settings?have been confirmed robust under large pose and age variations.?We also explore the trade-off between the speed and?accuracy based on the most recent network structures.

網(wǎng)絡(luò)。以VGG2[7]作為訓(xùn)練數(shù)據(jù)集,我們對(duì)卷積網(wǎng)絡(luò)設(shè)置進(jìn)行了大量對(duì)比實(shí)驗(yàn),并報(bào)告了LFW、CFP和AgeDB的驗(yàn)證精度。在大的面部姿態(tài)變動(dòng)和年齡變化下,提出的網(wǎng)絡(luò)設(shè)置已被證實(shí)具有魯棒性。基于最新的網(wǎng)絡(luò)結(jié)構(gòu),我們還探討了速度和精度之間的權(quán)衡。

?

Loss. We propose a new loss function, additive angular?margin (ArcFace), to learn highly discriminative features?for robust face recognition. As shown in Figure 1, the proposed loss function cos(θ + m) directly maximise?decision boundary in angular (arc) space based on the L2?normalised weights and features. We show that ArcFace?not only has a more clear geometrical interpretation but also?outperforms the baseline methods, e.g. multiplicative angular?margin [23] and additive cosine margin [44, 43]. We?innovatively explain why ArcFace is better than Softmax,?SphereFace [23] and CosineFace [44, 43] from the view of
semi-hard sample distributions.

損失。我們提出了一種新的損失函數(shù)——加法角度間隔(ArcFace),學(xué)習(xí)具有高判別性的特征,以實(shí)現(xiàn)具有魯棒性的人臉識(shí)別。如圖1所示,所提出的損失函數(shù)cos(θ+ m)直接最大化基于L2歸一化權(quán)重和特征的角度空間中的決策邊界。我們分析表明,ArcFace不僅有更清晰的幾何解釋,而且比 乘法角度間隔[23]和加法余弦間隔[44,43]這些 baseline方法更好。

?

Performance. The proposed ArcFace achieves state-ofthe-art results on the MegaFace Challenge [21], which is?the largest public face benchmark with one million faces?for recognition. We make these results totally reproducible?with data, trained models and training/test code public?available.

性能。所提出的ArcFace在MegaFace挑戰(zhàn)賽[21]上取得了優(yōu)異的成績(jī),[21]是目前世界上規(guī)模最大和公開(kāi)的百萬(wàn)規(guī)模級(jí)別的人臉識(shí)別算法的測(cè)試基準(zhǔn)。我們將這些結(jié)果與數(shù)據(jù)、經(jīng)過(guò)訓(xùn)練的模型和訓(xùn)練/測(cè)試代碼公開(kāi)。

?

2. From Softmax to ArcFace?
2.1. Softmax
The most widely used classification loss function, Softmax
loss, is presented as follows:

where ??denotes the deep feature of the -th samples, belonging to the -th class. The feature dimension d is set?as 512 in this paper following [46, 50, 23, 43]. ?denotes the -th column of the weights ?in the?last fully connected layer and ?is the bias term. The?batch size and the class number is ?and , respectively.?Traditional Softmax loss is widely used in deep face recognition?[31, 7]. However, the Softmax loss function does?not explicitly optimise the features to have higher similarity?score for positive pairs and lower similarity score for negative?pairs, which leads to a?performance gap.

2.?從Softmax到ArcFace
2.1. Softmax
最廣泛使用的分類(lèi)損失函數(shù)Softmax損失如下:

其中??表示第個(gè)樣本的深層特征,屬于類(lèi)。本文根據(jù)[46,50,23,43]將特征維度設(shè)置為512。?表示最后一個(gè)完全連接層中權(quán)重??的第列,?為偏置項(xiàng)。批大小和類(lèi)的數(shù)量分別為 和?。傳統(tǒng)的Softmax損失在深度人臉識(shí)別中得到了廣泛的應(yīng)用[31,7]。然而,Softmax損失函數(shù)沒(méi)有明確地優(yōu)化特征,使正對(duì)的相似性得分更高并且負(fù)對(duì)的相似性得分更低,這導(dǎo)致性能差距。

?

2.2.Weights Normalisation
For simplicity, we fix the bias ?as [23]. Then, we transform the target logit [32] as follows:

Following [23, 43, 45], we fix ??by L2 normalisation, which makes the predictions only depend on the angle?between the feature vector and the weight.

In the experiments of SphereFace, L2 weight normalisation?only improves little on performance.

2.2. 權(quán)重歸一化
為了簡(jiǎn)單起見(jiàn),我們像[23]那樣,固定偏差??。然后,我們將目標(biāo)logit[32]變換如下:

在[23,43,45]之后,我們通過(guò)L2歸一化 將權(quán)重向量固定為,這使得預(yù)測(cè)只依賴(lài)于特征向量和權(quán)重之間的角度。

在SphereFace的實(shí)驗(yàn)中,L2權(quán)重歸一化對(duì)性能的改善微乎其微。

?

2.3. Multiplicative Angular Margin
In SphereFace [23, 24], angular margin m is introduced?by multiplication on the angle.

where ?. In order to remove this restriction,??is substituted by a piece-wise monotonic function?. The SphereFace is formulated as:

where ,?,?,??is the integer
that controls the size of angular margin. However, during?the implementation of SphereFace, Softmax supervision is?incorporated to guarantee the convergence of training, and?the weight is controlled by a dynamic hyper-parameter λ.?With the additional Softmax loss, ??in fact is:

where λ is a additional hyper-parameter to facilitate the?training of SphereFace. λ is set to 1,000 at beginning and?decreases to 5 to make the angular space of each class more?compact [23]. This additional dynamic hyper-parameter λ?makes the training of SphereFace relatively tricky.

2.3. 乘法角度間隔
在SphereFace[23,24]中,角度間隔 ?通過(guò)乘法引入到角度中。

其中??。為了消除這個(gè)限制,用一個(gè)分段單調(diào)函數(shù) ?代替 。SphereFace表示為:

其中 ,???,??,??是一個(gè)整數(shù), 它控制角度間隔的大小。然而,在SphereFace的實(shí)施過(guò)程中,引入一個(gè)Softmax監(jiān)督項(xiàng)?,用于確保訓(xùn)練時(shí)收斂,監(jiān)督項(xiàng)的權(quán)重由動(dòng)態(tài)的超參數(shù) λ 控制。加上額外的Softmax損失,?實(shí)際變?yōu)?#xff1a;

其中 λ 是一個(gè)額外的超參數(shù),用于促進(jìn)SphereFace的訓(xùn)練。?λ在開(kāi)始時(shí)設(shè)置為1,000,并且逐漸減小到5,使得每個(gè)類(lèi)的角度空間更緊湊[23]。這個(gè)額外的動(dòng)態(tài)超參數(shù) λ 使得SphereFace的訓(xùn)練難度更大。

?

2.4. Feature Normalisation
Feature normalisation is widely used for face verification,e.g. L2-normalised Euclidean distance and cosine distance?[29]. Parde et al. [30] observe that the L2-norm of?features learned using Softmax loss is informative of the?quality of the face. Features for good quality frontal faces?have a high L2-norm while blurry faces with extreme pose?have low L2-norm. Ranjan et al. [33] add the L2-constraint?to the feature descriptors and restrict features to lie on a?hypersphere of a fixed radius. L2 normalisation on features?can be easily implemented using existing deep learning?frameworks and significantly boost the performance of?face verification. Wang et al. [44] point out that gradient?norm may be extremely large when the feature norm from?low-quality face image is very small, which potentially increases?the risk of gradient explosion. The advantages of?feature normalisation are also revealed in [25, 26, 43, 45]?and the feature normalisation is explained from analytic, geometric?and experimental perspectives.

2.4. 特征歸一化
特征歸一化被廣泛用于人臉驗(yàn)證,例如,L2歸一化的歐幾里德距離和余弦距離[29]。Parde等人[30]觀察到,使用的softmax損失學(xué)習(xí)的歸一化特征,對(duì)于得到關(guān)于人臉質(zhì)量的信息是有幫助的。高質(zhì)量正面臉的特征具有較高的L2范數(shù),而姿態(tài)極端的模糊臉的特征具有較低的L2范數(shù)。Ranjan等人將L2約束添加到特征描述符中,并限制特征分布在一個(gè)半徑固定的超球面上。使用現(xiàn)有的深度學(xué)習(xí)框架可以很容易地實(shí)現(xiàn)特征的L2歸一化,并顯著提高人臉驗(yàn)證的性能。Wang等人[44]指出,當(dāng)來(lái)自低質(zhì)量人臉圖像的特征范數(shù)非常小時(shí),梯度范數(shù)可能非常大,這可能增加了梯度爆炸的風(fēng)險(xiǎn)。在[25,26,43,45]揭示了特征歸一化的優(yōu)點(diǎn),并從分析、幾何和實(shí)驗(yàn)的角度對(duì)特征歸一化進(jìn)行了解釋。

?

As we can see from above works, L2 normalisation on?features and weights is an important step for hypersphere?metric learning. The intuitive insight behind feature and?weight normalisation is to remove the radial variation and?push every feature to distribute on a hypersphere manifold.

從以上工作可以看出,特征和權(quán)值的L2歸一化是超球度量學(xué)習(xí)的重要步驟。特征和權(quán)重歸一化背后的直覺(jué)洞察力是去除放射性狀的變量,并推動(dòng)每個(gè)特征分布在超球面流形上。

?

Following [33, 43, 45, 44], we fix???by L2 normalisation?and re-scale ?to s, which is the hypersphere?radius and the lower bound is give in [33]. In this paper, we use s = 64 for face recognition experiments [33, 43].?Based on feature and weight normalisation, we can get??.

按照[33,43,45,44],我們通過(guò)L2歸一化將??固定,并將??重新縮放到?,也就是超球面的半徑,其下界在[33]中給出。本文采用s = 64進(jìn)行人臉識(shí)別實(shí)驗(yàn)[33,43]。基于特征和權(quán)重歸一化,我們可以得到。

?

If the feature normalisation is applied to SphereFace, we can get the feature normalised SphareFace, denoted as?SphereFace-FNorm

如果將特征歸一化應(yīng)用于SphereFace,則可以得到特征歸一化的SphareFace,表示為SphereFace-FNorm

?
2.5. Additive Cosine Margin
In [44, 43], the angular margin m is removed to the outside?of cosθ, thus they propose the cosine margin loss function:

In this paper, we set the cosine margin m as 0:35 [44, 43].Compared to SphereFace, additive cosine margin (CosineFace)?has three advantages: (1) extremely easy to implement?without tricky hyper-parameters; (2) more clear and?able to converge?without the Softmax supervision; (3) obvious?performance improvement.

2.5. 加法余弦間隔
在[44,43]中,角度間隔?被移動(dòng)到cosθ的外邊,這樣一來(lái),它們提出了余弦間隔損失函數(shù):

在本文中,我們將余弦間隔設(shè)為0:35[44,43]。與SphereFace相比,加法余弦間隔(CosineFace)具有以下三個(gè)優(yōu)點(diǎn):(1)無(wú)需復(fù)雜的超參數(shù)即可輕松實(shí)現(xiàn);?(2)更清晰,不需要Softmax監(jiān)督即可收斂;(3)性能明顯提高。

?

2.6. Additive Angular Margin
Although the cosine margin in [44, 43] has a one-to-one?mapping from the cosine space to the angular space, there is?still a difference between these two margins. In fact, the angular?margin has a more clear geometric interpretation compared?to cosine margin, and the margin in angular space corresponds?to the arc distance on the hypersphere manifold.

We add an angular margin m within cosθ. Since cos(θ+m) is lower than cos(θ) when???, the constraint?is more stringent for classification. We define the proposed?ArcFace as:

If we expand the proposed additive angular margin?cos(θ+m), we get cos(θ+m) = cosθcosm - sinθsinm.?Compared to the additive cosine margin cos(θ) - m proposed?in [44, 43], the proposed ArcFace is similar but the?margin is dynamic due to sin θ.?In Figure 2, we illustrate the proposed ArcFace, and the?angular margin corresponds to the arc margin. Compared to
SphereFace and CosineFace, our method has the best geometric?interpretation.

In Figure 2, we illustrate the proposed ArcFace, and the?angular margin corresponds to the arc margin. Compared to?SphereFace and CosineFace, our method has the best geometric?interpretation.

2.6. 加法角度間隔
雖然[44,43]中的余弦間隔從余弦空間到角度空間是一對(duì)一映射的,但這兩個(gè)間隔(margin)之間仍然存在差異。事實(shí)上,與余弦間隔相比,角度間隔有更清晰的幾何解釋,角度空間中的間隔(margin)對(duì)應(yīng)于超球面流形上的弧距(arc distance)。

我們?cè)赾osθ里面增加一個(gè)角度間隔。因?yàn)閏os(θ+ m)小于cos(θ),所以當(dāng)??時(shí),對(duì)于分類(lèi),約束更為嚴(yán)格。我們將提議的ArcFace定義為:

?

如果我們將提出的加法角度間隔cos(θ+ m)展開(kāi),得到?cos(θ+m) = cosθcosm - sinθsinm。與[44,43]中提出的加法余弦間隔cos(θ) - m?相比,提出的ArcFace與之類(lèi)似,由于有sinθ,所以margin是動(dòng)態(tài)的。

在圖2中,我們說(shuō)明了所提出的ArcFace,角度間隔(arc margin)對(duì)應(yīng)于弧度間隔(arc margin)。與SphereFace和CosineFace相比,我們的方法具有最佳的幾何解釋。

?

圖2. ArcFace的幾何解釋。不同的顏色區(qū)域代表不同類(lèi)的特征空間。ArcFace不僅可以壓縮特征區(qū)域,而且可以對(duì)應(yīng)超球面上的測(cè)地線距離。

?

2.7. Comparison under Binary Case
To better understand the process from Softmax to the?proposed ArcFace, we give the decision boundaries under?binary classification case in Table 1 and Figure 3. Based on?the weights and features normalisation, the main difference?among these methods is where we put the margin.

2.7. 二分類(lèi)情景下的比較
為了更好地理解從Softmax到所提出的ArcFace的過(guò)程,我們?cè)诒?和圖3中給出了二元分類(lèi)情況下的決策邊界。基于權(quán)重和特征歸一化,這些方法之間的主要區(qū)別是margin的擺放位置。

表1. 二分類(lèi)情景下類(lèi)1的決策邊界。注意,?是?和?之間的角度,是超球面半徑,是間隔(margin)。

圖3. 二分類(lèi)情景下不同損失函數(shù)的決策間隔(decision margins)。虛線表示決策邊界,灰色區(qū)域是決策間隔。

?

2.8. Target Logit Analysis
To investigate why the face recognition performance can?be improved by SphereFace, CosineFace and ArcFace, we
analysis the target logit curves and the θ distributions during?training. Here, we use the LResNet34E-IR (refer to?Sec. 3.2) network and the refined MS1M dataset (refer to?Sec. 3.1).

2.8. 目標(biāo)Logit分析
補(bǔ)充一點(diǎn):target logit按照字面翻譯是目標(biāo)邏輯,但實(shí)際上跟論文想表達(dá)的意思不符。target logit代表的是全連接層輸出矩陣中預(yù)測(cè)類(lèi)別為真實(shí)類(lèi)別的輸出,應(yīng)該翻譯成目標(biāo)分?jǐn)?shù)比較好。

為了研究為什么SphereFace,CosineFace和ArcFace可以改善人臉識(shí)別性能,我們分析了目標(biāo)logit曲線和訓(xùn)練期間的θ分布。在這里,我們使用LResNet34E-IR(參見(jiàn)3.2節(jié))網(wǎng)絡(luò)和修改后的MS1M數(shù)據(jù)集(參見(jiàn)3.1節(jié))。

圖4. 目標(biāo)logit分析。 (a) Softmax,SphereFace,CosineFace和ArcFace的目標(biāo)logit曲線。 (b)?對(duì)Softmax,CosineFace和ArcFace進(jìn)行批訓(xùn)練,估算的目標(biāo)logit 收斂曲線。 (c)?在訓(xùn)練期間,θ分布從大角度移動(dòng)到小角度(開(kāi)始,中間和結(jié)束)。最好通過(guò)放大查看。

?

In Figure 4(a), we plot the target logit curves for?Softmax, SphereFace, CosineFace and ArcFace. For?SphereFace, the best setting is m = 4 and λ = 5, which?is similar to the curve with m = 1.5 and λ = 0. However,?the implementation of SphereFace requires the m to be an?integer. When we try the minimum multiplicative margin,?m = 2 and λ = 0, the training can not converge. Therefore,?decreasing the target logit curve slightly from Softmax is?able to increase the training difficulty and improve the performance,?but decreasing too much may cause the training?divergence.

在圖4(a)中,我們繪制了Softmax、SphereFace、CosineFace和ArcFace的目標(biāo)logit曲線。對(duì)于SphereFace,最佳設(shè)置為m = 4 和 λ= 5, 它類(lèi)似于m = 1.5 和 λ= 0 的曲線。但是,SphereFace的實(shí)現(xiàn)要求m為整數(shù)。我們嘗試最小化乘法間隔,m = 2 和 λ= 0,但是訓(xùn)練無(wú)法收斂。因此,與Softmax相比,稍微降低目標(biāo)logit曲線可以增加訓(xùn)練難度,提高訓(xùn)練效果,但降低太多會(huì)導(dǎo)致訓(xùn)練發(fā)散。

?

Both CosineFace and ArcFace follow this insight. As we?can see from Figure 4(a), CosineFace moves the target logit?curve along the negative direction of y-axis, while ArcFace?moves the target logit curve along the negative direction of?x-axis. Now, we can easily understand the performance improvement?from Softmax to CosineFace and ArcFace.

CosineFace和ArcFace都遵循這一觀點(diǎn)。從圖4(a)可以看出,CosineFace將目標(biāo)logit曲線沿y軸負(fù)方向移動(dòng),ArcFace將目標(biāo)logit曲線沿x軸負(fù)方向移動(dòng)。現(xiàn)在,我們可以很容易地理解從Softmax到CosineFace和ArcFace的性能改進(jìn)。

?

For ArcFace with the margin m = 0.5, the target logit?curve is not monotonic decreasing when ?. In?fact, the target logit curve increases when .?However, as shown in Figure 4(c), the θ has a Gaussian distribution?with the centre at ?and the largest angle below??when starting from the randomly initialised network.?The increasing interval of ArcFace is almost never reached?during training. Therefore, we do not need to deal with this?explicitly.

對(duì)于margin m = 0.5的ArcFace,當(dāng)??時(shí),目標(biāo)logit曲線不是單調(diào)遞減的。事實(shí)上,當(dāng)?時(shí),目標(biāo)logit曲線會(huì)增加。然而,如圖4(c)所示,當(dāng)從隨機(jī)初始化網(wǎng)絡(luò)開(kāi)始時(shí),θ具有高斯分布,其中心位于,最大角度小于。在訓(xùn)練期間,ArcFace逐漸增大的間隔幾乎從未達(dá)到??。因此,我們不需要明確地處理這個(gè)問(wèn)題。

?

In Figure 4(c), we show the θ distributions of CosineFace?and ArcFace in three phases of training, e.g. start, middle?and end. The distribution centres gradually move from ?to . In Figure 4(a), we find the target logit curve?of ArcFace is lower than that of CosineFace between ?to?. Therefore, the proposed ArcFace puts more strict margin?penalty compared to CosineFace in this interval. In Figure?4(b), we show the target logit converge curves estimated?on training batches for Softmax, CosineFace and ArcFace.?We can also find that the margin penalty of ArcFace is heavier?than that of CosineFace at the beginning, as the red dotted?line is lower than the blue dotted line. At the end of?training, ArcFace converges better than CosineFace, as the?histogram of θ is in the left (Figure 4(c)) and the target logit?converge curve is higher (Figure 4(b)). From Figure 4(c),?we can find that almost all of the θs are smaller than ?at?the end of training. The samples beyond this field are the?hardest samples as well as the noise samples of the training?dataset. Even though CosineFace puts more strict margin?penalty when ?(Figure 4(a)), this field is seldom?reached even at the end of training (Figure 4(c)). Therefore,?we can also understand why SphereFace can obtain?very good performance even with a relatively small margin?in this section.

在圖4(c)中,我們展示了CosineFace和ArcFace在三個(gè)訓(xùn)練階段的θ分布,例如:開(kāi)始,中間和結(jié)束。θ值的分布中心逐漸從?移動(dòng)到??之間。在圖4(a)中,我們發(fā)現(xiàn)在?到??之間,ArcFace的目標(biāo)logit曲線低于CosineFace的目標(biāo)logit曲線。因此,與CosineFace相比,本文提出的ArcFace對(duì)此區(qū)間內(nèi)的margin懲罰更為嚴(yán)格。在圖4(b)中,我們展示了對(duì)Softmax、CosineFace和ArcFace進(jìn)行批訓(xùn)練,估算出的目標(biāo)logit收斂曲線。我們還可以發(fā)現(xiàn)在開(kāi)始時(shí),ArcFace的margin懲罰比CosineFace重,因?yàn)榧t色虛線低于藍(lán)色虛線。在訓(xùn)練結(jié)束時(shí),ArcFace收斂比CosineFace要好,因?yàn)棣鹊闹狈綀D在左邊(圖4(c)),目標(biāo)logit收斂曲線更高(圖4(b))。從圖4(c)中,我們可以發(fā)現(xiàn)在訓(xùn)練結(jié)束時(shí)幾乎所有的θ都小于。超出這個(gè)區(qū)域的樣本是最困難的樣本和訓(xùn)練數(shù)據(jù)集的噪聲樣本。當(dāng)?(圖4(a)),盡管CosineFace會(huì)對(duì)margin進(jìn)行更嚴(yán)格的懲罰,在訓(xùn)練結(jié)束時(shí)也很少達(dá)到這個(gè)區(qū)域(圖4(c))。因此,我們也可以理解為什么SphereFace在本節(jié)中即使是相對(duì)較小的margin也可以獲得非常好的性能。

?

In conclusion, adding too much margin penalty when??may cause training divergence,??e.g.?SphereFace (m = 2 and λ = 0). Adding margin when?can potentially improve the performance,?because this section corresponds to the most effective semihard?negative samples [35]. Adding margin when ?can not obviously improve the performance, because this?section corresponds to the easiest samples. When we go?back to Figure 4(a) and rank the curves between ,?we can understand why the performance can improve from?Softmax, SphereFace, CosineFace to ArcFace under their?best parameter settings. Note that, ?and ?here are?the roughly estimated thresholds for easy and hard training?samples.

總之,當(dāng)??,添加太大的margin懲罰,可能會(huì)導(dǎo)致訓(xùn)練發(fā)散,例如SphereFace (m = 2 和 λ= 0) 。當(dāng)?,添加margin有可能會(huì)提高性能,因?yàn)檫@部分對(duì)應(yīng)最有效的半困難negative樣本[35]。當(dāng),添加margin無(wú)法明顯改善性能,因?yàn)檫@部分對(duì)應(yīng)于最簡(jiǎn)單的樣本。當(dāng)我們回到圖4(a),對(duì)??之間的曲線進(jìn)行排序時(shí),我們可以理解為什么在它們(Softmax,SphereFace,CosineFace、ArcFace)的最佳參數(shù)設(shè)置下,性能會(huì)有所提高。請(qǐng)注意,此處的??and ?是對(duì)于簡(jiǎn)單和困難訓(xùn)練樣本,粗略估計(jì)的閾值。

?

3. Experiments
In this paper, we target to obtain state-of-the-art performance?on MegaFace Challenge [21], the largest face?identification and verification benchmark, in a totally reproducible?way. We take Labelled Faces in the Wild?(LFW) [19], Celebrities in Frontal Profile (CFP) [36], Age?Database (AgeDB) [27] as the validation datasets, and conduct?extensive experiments regarding network settings and?loss function designs. The proposed ArcFace achieves?state-of-the-art performance on all of these four datasets.

3. 實(shí)驗(yàn)
在本文中,我們的目標(biāo)是在MegaFace Challenge [21]中以完全可復(fù)制的方式獲得最先進(jìn)的性能,其中MegaFace Challenge是目前世界上規(guī)模最大的人臉識(shí)別和人臉驗(yàn)證測(cè)試基準(zhǔn)。我們采用 Labelled Faces in the Wild?(LFW) [19], Celebrities in Frontal Profile (CFP) [36], Age?Database (AgeDB) [27] 作為驗(yàn)證數(shù)據(jù)集,并對(duì)有關(guān)網(wǎng)絡(luò)設(shè)置和損失函數(shù)設(shè)計(jì)進(jìn)行大量的實(shí)驗(yàn)。所提出的ArcFace在這四個(gè)數(shù)據(jù)集上實(shí)現(xiàn)了最先進(jìn)的性能。

?

3.1. Data
3.1.1 Training data
We use two datasets, VGG2 [7] and MS-Celeb-1M [11], as?our training data.

VGG2. VGG2 dataset contains a training set with 8,631?identities (3,141,890 images) and a test set with 500 identities?(169,396 images). VGG2 has large variations in pose,?age, illumination, ethnicity and profession. Since VGG2 is
a high-quality dataset, we use it directly without data refinement.

MS-Celeb-1M. The original MS-Celeb-1M dataset contains?about 100k identities with 10 million images. To decrease?the noise of MS-Celeb-1M and get a high-quality?training data, we rank all face images of each identity by?their distances to the identity centre. For a particular identity,?the face image whose feature vector is too far from the?identity’s feature centre is automatically removed [10]. We?further manually check the face images around the threshold?of the first automatic step for each identity. Finally, we?obtain a dataset which contains 3.8M images of 85k unique?identities. To facilitate other researchers to reproduce all of?the experiments in this paper, we make the refined MS1M?dataset public available within a binary file, but please cite?the original paper [11] and follow the original license [11]?when using this dataset. Our contribution here is only training?data refinement, not release.

3.1. 數(shù)據(jù)
3.1.1 訓(xùn)練數(shù)據(jù)集
我們使用兩個(gè)數(shù)據(jù)集,VGG2 [7]和MS-Celeb-1M [11]作為我們的訓(xùn)練數(shù)據(jù)集。

VGG2。 VGG2數(shù)據(jù)集包含具有8,631個(gè)身份(3,141,890個(gè)圖像)的訓(xùn)練集和具有500個(gè)身份(169,396個(gè)圖像)的測(cè)試集。VGG2在姿勢(shì),年齡,光照,種族和職業(yè)方面有很大差異。由于VGG2是一個(gè)高質(zhì)量的數(shù)據(jù)集,我們直接使用它,無(wú)需對(duì)數(shù)據(jù)進(jìn)行清洗。

MS-Celeb-1M。最初的MS-Celeb-1M數(shù)據(jù)集包含大約10萬(wàn)個(gè)身份和1000萬(wàn)張圖像。為了降低MS-Celeb-1M的噪聲并獲得高質(zhì)量的訓(xùn)練數(shù)據(jù),我們將每個(gè)身份的所有面部圖像按照它們到身份中心的距離進(jìn)行排序。對(duì)于一個(gè)特定的身份,如果其特征向量距離身份特征中心太遠(yuǎn),則該人臉圖像將被自動(dòng)清洗[10]。在第一個(gè)自動(dòng)步驟中,我們進(jìn)一步為每個(gè)身份手動(dòng)檢查閾值附近的人臉圖像。最后,我們得到一個(gè)包含3.8M張圖像(85k個(gè)唯一身份)的數(shù)據(jù)集。為了方便其他研究人員復(fù)制本文中的所有實(shí)驗(yàn),我們用一個(gè)二進(jìn)制文件,將清洗過(guò)的MS1M數(shù)據(jù)集公開(kāi),但是在使用該數(shù)據(jù)集時(shí),請(qǐng)引用原始論文[11]并遵循原始許可證[11]。我們?cè)谶@里的貢獻(xiàn)只是對(duì)訓(xùn)練數(shù)據(jù)進(jìn)行修改,而不是發(fā)布。

?

3.1.2 Validation data
We employ Labelled Faces in the Wild (LFW) [19],Celebrities in Frontal Profile (CFP) [36] and Age Database?(AgeDB) [27] as the validation datasets.

LFW. [19] LFW dataset contains 13,233 web-collected?images from 5749 different identities, with large variations?in pose, expression and illuminations. Following the standard?protocol of unrestricted with labelled outside data, we?give the verification accuracy on 6,000 face pairs.??

CFP. [36]. CFP dataset consists of 500 subjects, each?with 10 frontal and 4 profile images. The evaluation protocol includes frontal-frontal (FF) and frontal-profile (FP)?face verification, each having 10 folders with 350 sameperson?pairs and 350 different-person pairs. In this paper,?we only use the most challenging subset, CFP-FP, to report?the performance.

AgeDB. [27, 10] AgeDB dataset is an in-the-wild dataset?with large variations in pose, expression, illuminations, and?age. AgeDB contains 12,240 images of 440 distinct subjects,?such as actors, actresses, writers, scientists, and politicians.?Each image is annotated with respect to the identity,?age and gender attribute. The minimum and maximum ages are 3 and 101, respectively. The average age range for each?subject is 49 years. There are four groups of test data with different year gaps (5 years, 10 years, 20 years and 30 years,respectively) [10]. Each group has ten split of face images,?and each split contains 300 positive examples and 300 negative?examples. The face verification evaluation metric is?the same as LFW. In this paper, we only use the most challenging?subset, AgeDB-30, to report the performance.

3.1.2 驗(yàn)證數(shù)據(jù)集
我們采用?Labelled Faces in the Wild (LFW) [19],Celebrities in Frontal Profile (CFP) [36] and Age Database?(AgeDB) [27] 作為驗(yàn)證數(shù)據(jù)集。

LFW。 [19] LFW數(shù)據(jù)集包含來(lái)自5749個(gè)不同身份的13,233個(gè)網(wǎng)絡(luò)收集的圖像,其姿態(tài),表情和照明有很大變化。遵循不受限制的標(biāo)準(zhǔn)協(xié)議,并標(biāo)注外部數(shù)據(jù),我們給出了6,000對(duì)人臉的驗(yàn)證精度。

CFP。[36]。CFP數(shù)據(jù)集包含500名受試者,每個(gè)受試者有10張正面圖和4張側(cè)面圖。評(píng)估方案包括正面對(duì)正面(FF)和正面對(duì)側(cè)面(FP)的人臉驗(yàn)證,每個(gè)都有10個(gè)文件夾,包含350對(duì)相同的人和350對(duì)不同的人。在本文中,我們僅使用最具挑戰(zhàn)性的子集CFP-FP來(lái)報(bào)告性能。

補(bǔ)充:收集和注釋在無(wú)約束條件下捕獲的面部圖像,通常被稱(chēng)為“in-the-wild”

AgeDB。[27,10] AgeDB數(shù)據(jù)集是一種in-the-wild的數(shù)據(jù)集,在姿態(tài)、表情、光照和年齡方面有很大的變化。AgeDB。[27,10] AgeDB數(shù)據(jù)集是一種野外數(shù)據(jù)集,在姿態(tài)、表情、光照和年齡方面有很大的變化。AgeDB包含了12240張440個(gè)不同主題的圖片,這些主題包括男女演員、作家、科學(xué)家和政治家。每個(gè)圖像都有關(guān)于身份、年齡和性別屬性的注釋。最小年齡為3歲,最大年齡為101歲。每個(gè)研究對(duì)象的平均年齡范圍為49歲。有四組測(cè)試數(shù)據(jù)具有不同的年份差距(分別為5年,10年,20年和30年)[10]。每組10張分割的人臉圖片,每組包含300個(gè)正例圖片和300個(gè)負(fù)例圖片。人臉驗(yàn)證評(píng)價(jià)指標(biāo)與LFW相同。在本文中,我們僅使用最具挑戰(zhàn)性的子集AgeDB-30來(lái)報(bào)告性能。

?

3.1.3 Test data
MegaFace. MegaFace datasets [21] are released as the?largest public available testing benchmark, which aims at?evaluating the performance of face recognition algorithms?at the million scale of distractors. MegaFace datasets include?gallery set and probe set. The gallery set, a subset of?Flickr photos from Yahoo, consists of more than one million?images from 690k different individuals. The probe sets?are two existing databases: FaceScrub [28] and FGNet [1].?FaceScrub is a publicly available dataset that containing?100k photos of 530 unique individuals, in which 55,742?images are males, and 52,076 images are females. FGNet?is a face ageing dataset, with 1002 images from 82 identities.?Each identity has multiple face images at different ages?(ranging from 1 to 69).

It is quite understandable that data collection of?MegaFace is very arduous and time-consuming thus data?noise is inevitable. For FaceScrub dataset, all of the face?images from one particular identity should have the same?identity. For the one million distractors, there should not?be any overlap with the FaceScrub identities. However, we?find noisy face images not only exist in FaceScrub dataset?but also exist in the one million distractors, which significantly?affect the performance.

In Figure 5, we give the noisy face image examples from?the Facesrub dataset. As shown in Figure 8(c), we rank all?of the faces according to the cosine distance to the identity?centre. In fact, face image 221 and 136 are not Aaron Eckhart.?We manually clean the FaceScrub dataset and finally?find 605 noisy face images. During testing, we change the?noisy face to another right face, which can increase the identification?accuracy by about 1%. In Figure 6(b), we give the?noisy face image examples from the MegaFace distractors.?All of the four face images from the MegaFace distractors?are Alec Baldwin. We manually clean the MegaFace distractors?and finally find 707 noisy face images. During testing,?we add one additional feature dimension to distinguish?these noisy faces, which can increase the identification accuracy?by about 15%.

Even though the noisy face images are double checked?by seven annotators who are very familiar with these?celebrities, we still can not promise these images are 100%?noisy. We put the noise lists of the FaceScrub dataset and?the MegaFace distractors online. We believe the masses?have sharp eyes and we will update these lists based on other?researchers’ feedback.

3.1.3 測(cè)試數(shù)據(jù)集
MegaFace。MegaFace數(shù)據(jù)集[21]作為世界上規(guī)模最大的公開(kāi)測(cè)試基準(zhǔn),旨在評(píng)估人臉識(shí)別算法在百萬(wàn)級(jí)干擾項(xiàng)干擾下的性能。MegaFace數(shù)據(jù)集包括圖庫(kù)集和探測(cè)集。圖庫(kù)集是來(lái)自雅虎Flickr照片的一個(gè)子集,由來(lái)自69萬(wàn)不同個(gè)體的100多萬(wàn)張照片組成。探測(cè)集是兩個(gè)現(xiàn)有的數(shù)據(jù)庫(kù):FaceScrub[28]和FGNet[1]。FaceScrub是一個(gè)公開(kāi)數(shù)據(jù)集,包含530個(gè)獨(dú)立個(gè)體的100k張照片,其中55,742張是男性,52,076張是女性。FGNet是一個(gè)面部老化數(shù)據(jù)集,包含來(lái)自82個(gè)身份的1002張圖像。每個(gè)身份在不同年齡(從1歲到69歲)都有多個(gè)人臉圖像。

可以理解的是,MegaFace的數(shù)據(jù)采集是非常艱巨和耗時(shí)的,因此數(shù)據(jù)噪聲是不可避免的。對(duì)于FaceScrub數(shù)據(jù)集,來(lái)自一個(gè)特定身份的所有人臉圖像應(yīng)該具有相同的身份。對(duì)于數(shù)量為一百萬(wàn)的干擾集,不應(yīng)該與FaceScrub身份有任何重復(fù)。然而,我們發(fā)現(xiàn)噪聲人臉圖像不僅存在于FaceScrub數(shù)據(jù)集中,而且還存在于數(shù)量為一百萬(wàn)的干擾集中,這對(duì)性能有很大的影響。

在圖5中,我們給出了來(lái)自Facesrub數(shù)據(jù)集的噪聲人臉圖像示例。如圖8(c)所示,我們根據(jù)到身份中心的余弦距離對(duì)所有的人臉進(jìn)行排序。事實(shí)上,noise face 221和?noise face 136?并不是Aaron Eckhart。我們手動(dòng)清理FaceScrub數(shù)據(jù)集,最終找到605張有噪聲的人臉圖像。在測(cè)試過(guò)程中,我們將有噪聲的人臉變換為另一個(gè)右臉,可以使識(shí)別精度提高約1%。在圖6(b)中,我們給出了來(lái)自MegaFace干擾集的噪聲人臉圖像示例。這四張來(lái)自MegaFace干擾集的人臉圖像都是亞歷克·鮑德溫。我們手動(dòng)清楚了MegaFace的干擾集,最終找到了707張有噪聲的人臉圖像。在測(cè)試過(guò)程中,我們?cè)黾恿艘粋€(gè)額外的特征維度來(lái)區(qū)分這些有噪聲的人臉,可以將識(shí)別精度提高約15%。

盡管這些有噪聲的人臉圖像被7位非常熟悉這些名人的注釋者反復(fù)檢查,我們?nèi)匀徊荒鼙WC這些圖像100%沒(méi)有噪聲。我們將FaceScrub數(shù)據(jù)集和MegaFace干擾集的噪聲列表放到了網(wǎng)上。我們相信大眾有敏銳的眼睛,我們將根據(jù)其他研究人員的反饋更新這些列表。

圖5. 來(lái)自FaceScrub數(shù)據(jù)集的噪聲人臉圖像示例。在(a)中,圖像id放在左上角,到身份中心的余弦距離放在左下角。

圖6. (a)用于注釋器從FaceScrub數(shù)據(jù)集學(xué)習(xí)身份。(b)顯示從MegaFace干擾集中選取的重復(fù)人臉。

?

3.2. Network Settings
We first evaluate the face verification performance based?on different network settings by using VGG2 as the training?data and Softmax as the loss function. All experiments in?this paper are implemented by MxNet [8]. We set the batch?size as 512 and train models on four or eight NVIDIA Tesla?P40 (24GB) GPUs. The learning rate is started from 0.1?and divided by 10 at the 100k, 140k, 160k iterations. Total?iteration step is set as 200k. We set momentum at 0.9 and?weight decay at 5e -?4 (Table 5).

3.2. 網(wǎng)絡(luò)設(shè)置
我們首先使用VGG2作為訓(xùn)練數(shù)據(jù)和Softmax作為損失函數(shù),根據(jù)不同的網(wǎng)絡(luò)設(shè)置,評(píng)估人臉驗(yàn)證的性能。本文中的所有實(shí)驗(yàn)均由MxNet [8]實(shí)現(xiàn)。我們將批大小(batch?size)設(shè)置為512,在4個(gè)或8個(gè)NVIDIA Tesla P40(24GB)GPU上訓(xùn)練模型。學(xué)習(xí)速率從0.1開(kāi)始,并在100k、140k、160k個(gè)迭代(iterations)時(shí)除以10。總迭代步長(zhǎng)設(shè)置為200k。我們?cè)O(shè)定動(dòng)量為0.9,權(quán)重衰減為5e - 4(表5)。

?

3.2.1 Input setting
Following [46, 23], we use five facial landmarks (eye centres,nose tip and mouth corners) [49] for similarity transformation?to normalise the face images. The faces are cropped?and resized to 112 × 112, and each pixel (ranged between?[0,255]) in RGB images is normalised by subtracting 127.5?then divided by 128.?

As most of the convolutional networks are designed for the Image-Net [34] classification task, the input image size?is usually set as 224 × 224 or larger. However, the size?of our face crops is only 112 × 112. To preserve higher?feature map resolution, we use conv3 × 3 and stride = 1?in the first convolutional layer instead of using conv7 × 7?and stride = 2. For these two settings, the output size of?the convolutional networks is 7×7 (denoted as “L” in front?of the network names) and 3 × 3, respectively.

3.2.1 輸入設(shè)置
按照[46,23],我們使用五個(gè)面部關(guān)鍵點(diǎn)landmarks(眼睛中心,鼻尖和嘴角)[49]進(jìn)行相似性變換,來(lái)標(biāo)準(zhǔn)化人臉圖像。將人臉裁剪并調(diào)整為112×112,在RGB圖像中,通過(guò)對(duì)每個(gè)像素(范圍在[0,255]之間)減去127.5再除以128,來(lái)進(jìn)行歸一化。

由于大多數(shù)卷積網(wǎng)絡(luò)都是針對(duì)Image-Net [34]分類(lèi)任務(wù)而設(shè)計(jì)的,因此輸入圖像大小通常設(shè)置為224 × 224或更大。但是,我們的剪裁后人臉圖像的大小只有112×112。為了保持更高的feature map分辨率,我們?cè)诘谝粋€(gè)convolutional layer中使用了conv3×3 and stride = 1來(lái)代替conv7×7 and stride = 2。對(duì)于這兩種設(shè)置,卷積網(wǎng)絡(luò)的輸出大小分別為7×7(在網(wǎng)絡(luò)名稱(chēng)前面用“L”表示)和3×3。

?
3.2.2 Output setting
In last several layers, some different options can be investigated?to check how the embedding settings affect the model??performance. All feature embedding dimension is set to 512?expect for Option-A, as the embedding size in Option-A is
determined by the channel size of last convolutional layer.

?Option-A: Use global pooling layer(GP).

?Option-B: Use one fully connected (FC) layer after GP.

?Option-C: Use FC-Batch Normalisation (BN) [20] after?GP.

?Option-D: Use FC-BN-Parametric Rectified Linear Unit (PReLu) [13] after GP.

?Option-E: Use BN-Dropout [38]-FC-BN after the last?convolutional layer.

During testing, the score is computed by the Cosine Distance?of two feature vectors. Nearest neighbour and threshold?comparison are used for face identification and verification?tasks.

3.2.2 輸出設(shè)置
在最后幾層中,可以探討一些不同的選項(xiàng),來(lái)檢測(cè)嵌入設(shè)置是如何影響模型的性能。對(duì)于Option-A,所有feature的嵌入維數(shù)設(shè)置為512,其中Option-A中的嵌入維數(shù)由最后一個(gè)convolutional layer的通道大小決定。

?選項(xiàng)-A:使用全局池化層(GP)。

?選項(xiàng)-B:在GP之后使用一個(gè)全連接(FC)層。

?選項(xiàng)-C:在GP之后使用FC-Batch 標(biāo)準(zhǔn)化(BN)[20]。

?選項(xiàng)-D:在GP之后使用FC-BN-Parametric 整流線性單元(PReLu)[13]。

?選項(xiàng)-E:在最后一個(gè)卷積層之后使用BN-Dropout [38] -FC-BN。

在測(cè)試過(guò)程中,通過(guò)兩個(gè)特征向量的余弦距離來(lái)計(jì)算分?jǐn)?shù)。采用鄰近算法和閾值比較,用于人臉識(shí)別和人臉驗(yàn)證任務(wù)。

?

3.2.3 Block Setting
Besides the original ResNet [14] unit, we also investigate?a more advanced residual unit setting [12] for the training?of face recognition model. In Figure 7, we show the improved?residual unit (denoted as “IR” in the end of model?names), which has a BN-Conv-BN-PReLu-Conv-BN structure.?Compared to the residual unit proposed by [12], we?set stride = 2 for the second convolutional layer instead of?the first one. In addition, PReLu [13] is used to substitute?the original ReLu.

3.2.3 模塊設(shè)置
在原有的ResNet[14]單元的基礎(chǔ)上,我們還研究了一種更高級(jí)的用于人臉識(shí)別模型訓(xùn)練的殘差單元設(shè)置[12]。在圖7中,我們展示了改進(jìn)后的殘差單元(模型名稱(chēng)末尾用“IR”表示),其結(jié)構(gòu)為BN-Conv-BN-PReLu-Conv-BN。與[12]提出的殘差單位相比,我們將第二個(gè)卷積層的步長(zhǎng)設(shè)置為2,而不是第一個(gè)卷積層?(如下圖第二個(gè)藍(lán)色框中,步長(zhǎng)設(shè)置為2)。另外,使用PReLu[13]代替原來(lái)的ReLu。

3.2.4 Backbones
Based on recent advances on the model structure designs,we also explore MobileNet [16], Inception-Resnet-V2 [40], Densely connected convolutional networks?(DenseNet) [18], Squeeze and excitation networks?(SE) [17] and Dual path Network (DPN) [9] for deep face?recognition. In this paper, we compare the differences between?these networks from the aspects of accuracy, speed?and model size.

3.2.4 骨干
基于模型結(jié)構(gòu)設(shè)計(jì)的最新進(jìn)展,我們還探索了MobileNet [16], Inception-Resnet-V2 [40], ?DenseNet[18], Squeeze,?SE[17] 和DPN [9],用于深度人臉識(shí)別。本文從精度、速度和模型大小三個(gè)方面比較了這些網(wǎng)絡(luò)之間的差異。


3.2.5 Network Setting Conclusions
Input selects L. In Table 2, we compare two networks with?and without the setting of “L”. When using conv3 × 3 and?stride = 1 as the first convolutional layer, the network output?is 7×7. By contrast, if we use conv7×7 and stride = 2?as the first??convolutional layer, the network output is only?3×3. It is obvious from Table 2 that choosing larger feature?maps during training obtains higher verification accuracy.

表2. 驗(yàn)證精度(%)在不同的輸入條件下(Softmax@VGG2)。

3.2.5 網(wǎng)絡(luò)設(shè)置結(jié)論
輸入選擇L。在表2中,我們比較了兩個(gè)有和沒(méi)有設(shè)置“L”的網(wǎng)絡(luò)。當(dāng)使用conv3×3和stride = 1作為第一個(gè)卷積層時(shí),網(wǎng)絡(luò)輸出為7×7。相比之下,如果我們使用conv7×7和stride = 2作為第一個(gè)卷積層,網(wǎng)絡(luò)輸出只有3×3。從表2可以看出,在訓(xùn)練過(guò)程中選擇較大的feature map可以獲得較高的驗(yàn)證精度。

?

Output selects E. In Table 3, we give the detailed comparison?between different output settings. The option E?(BN-Dropout-FC-BN) obtains the best performance. In this?paper, the dropout parameter is set as 0.4. Dropout can effectively?act as the????regularisation term to avoid over-fitting?and obtain better generalisation for deep face recognition.

表3. 驗(yàn)證精度(%)在不同的輸出設(shè)置(Softmax@VGG2)。

輸出選擇E。在表3中,我們給出了不同輸出設(shè)置的詳細(xì)比較。選項(xiàng)E (BN-Dropout-FC-BN)的性能最好。本文將dropout參數(shù)設(shè)置為0.4。Dropout可以有效地作為正則化項(xiàng),避免過(guò)擬合,獲得更好的深度人臉識(shí)別泛化效果。

?

Block selects IR. In Table 4, we give the comparison?between the original residual unit and the improved?residual unit. As we can see from the results, the proposed?BN-Conv(stride=1)-BN-PReLu-Conv(stride=2)-BN?unit can obviously improve the verification performance.

表4. 驗(yàn)證精度(%)原殘差單元與改進(jìn)殘差單元的比較(Softmax@VGG2)。

殘差模塊選擇 IR。表4給出了原殘差單元與改進(jìn)殘差單元的比較。從結(jié)果可以看出,提出的BN-Conv(stride=1)-BN-PReLu-Conv(stride=2)-BN 單元可以明顯提高驗(yàn)證性能。

?

Backbones Comparisons. In Table 8, we give the verification accuracy, test speed and model size of different backbones. The running time is estimated on the P40 GPU. As?the performance on LFW is almost saturated, we focus on?the more challenging test sets, CFP-FP and AgeDB-30, to?compare these network backbones. The Inception-Resnet-V2 network obtains the best performance with long running?time (53.6ms) and largest model size (642MB). By contrast,MobileNet can finish face feature embedding within?4.2ms with a model of 112MB, and the performance only?drops slightly. As we can see from Table 8, the performance?gaps between these large networks, e.g. ResNet-100,Inception-Resnet-V2, DenseNet, DPN and SE-Resnet-100,
are relatively small. Based on the trade-off between accuracy,speed and model size, we choose LResNet100E-IR to?conduct experiments on the Megaface challenge.

表8.??不同骨干之間的準(zhǔn)確性(%)、速度(ms)和模型大小(MB)的比較(Softmax@VGG2)

骨干比較。在表8中,我們給出了不同骨架的驗(yàn)證精度、測(cè)試速度和模型尺寸。運(yùn)行時(shí)間在P40 GPU上估算。由于LFW的性能已經(jīng)接近飽和,我們將重點(diǎn)放在更具挑戰(zhàn)性的測(cè)試集CFP-FP和AgeDB-30上,來(lái)比較這些網(wǎng)絡(luò)骨架。Inception-Resnet-V2網(wǎng)絡(luò)獲得最佳的性能,其運(yùn)行時(shí)間長(zhǎng)為(53.6ms),最大的模型大小為(642MB)。相比之下,MobileNet可以使用大小為112MB的模型,在4.2ms內(nèi)完成人臉特征的嵌入,性能略有下降。從表8可以看出,這些大型網(wǎng)絡(luò),如ResNet-100,Inception-Resnet-V2, DenseNet, DPN 和?SE-Resnet-100,它們之間的性能差距相對(duì)較小。基于精度、速度和模型尺寸之間的權(quán)衡,我們選擇LResNet100E-IR來(lái)進(jìn)行Megaface challenge實(shí)驗(yàn)。

?

Weight decay. Based on the SE-LResNet50E-IR network,we also explore how the weight decay (WD) value?affects the verification performance. As we can see from?Table 5, when the weight decay value is set as 5e -?4, the?verification accuracy reaches the highest point. Therefore,?we fix the weight decay at 5e -?4 in all other experiments.

表5. 不同權(quán)重衰減(WD)值的驗(yàn)證性能(%)(SE-LResNet50E-IR,Softmax@VGG2)。

權(quán)重衰減。基于SE-LResNet50E-IR網(wǎng)絡(luò),我們還探討了權(quán)重衰減(WD)值如何影響驗(yàn)證性能。從表5可以看出,當(dāng)權(quán)重衰減值設(shè)置為5e - 4時(shí),驗(yàn)證精度達(dá)到最高點(diǎn)。因此,在所有其他實(shí)驗(yàn)中,我們將權(quán)重衰減的值固定為5e - 4。

?

3.3. Loss Setting
Since the margin parameter m plays an important role?in the proposed ArcFace, we first conduct experiments to?search the best angular margin. By varying m from 0.2?to 0.8, we use the LMobileNetE network and the ArcFace?loss to train models on the refined MS1M dataset. As?illustrated in Table 6, the performance improves consistently?from m = 0.2 on all datasets and gets saturated at?m = 0.5. Then, the verification accuracy turns to decrease?from m = 0.5. In this paper, we fix the additive angular?margin m as 0.5.

表6. 不同的角度間隔 m (LMobileNetE,ArcFace@MS1M)對(duì)應(yīng)的ArcFace驗(yàn)證性能(%)。

3.3. 損失設(shè)計(jì)
由于margin參數(shù) m 在提出的ArcFace中起著重要的作用,我們首先進(jìn)行實(shí)驗(yàn)來(lái)尋找最佳的角度間隔。通過(guò)將m從0.2變化到0.8,我們使用LMobileNetE網(wǎng)絡(luò)和ArcFace損失在清洗完的MS1M數(shù)據(jù)集上訓(xùn)練模型。如表6所示,在所有數(shù)據(jù)集上,從m = 0.2開(kāi)始,性能不斷提高,在m = 0.5時(shí)達(dá)到飽和。驗(yàn)證精度從m = 0.5之后開(kāi)始下降。本文將加法角度間隔 m 固定為0.5。

?

Based on the LResNet100E-IR network and the refined?MS1M dataset, we compare the performance of different?loss functions, e.g. Softmax, SphereFace [23], Cosine-Face [44, 43] and ArcFace. In Table 7, we give the detailed?verification accuracy on the LFW, CFP-FP, and AgeDB-30?datasets. As LFW is almost saturated, the performance improvement?is not obvious. We find that (1) Compared to?Softmax, SphereFace, CosineFace and ArcFace improve the?performance obviously, especially under large pose and age?variations. (2) CosineFace and ArcFace obviously outperform?SphereFace with much easier implementation. Both CosineFace and ArcFace can converge easily without additional?supervision from Softmax. By contrast, additional?supervision from Softmax is indispensable for SphereFace?to avoid divergence during training. (3) ArcFace is slightly?better than CosineFace. However, ArcFace is more intuitive?and has a more clear geometric interpretation on the hypersphere?manifold as shown in Figure 1.

表7. 不同損失函數(shù)下的驗(yàn)證性能(%)(LResNet100E-IR@MS1M)。

基于LResNet100E-IR網(wǎng)絡(luò)和MS1M數(shù)據(jù)集清洗,我們比較了不同損失函數(shù)的性能,如Softmax、SphereFace[23]、Cosine-Face[44、43]和ArcFace。在表7中,我們給出了LFW、CFP-FP和AgeDB-30數(shù)據(jù)集的詳細(xì)驗(yàn)證精度。由于LFW接近飽和,性能改善不明顯。我們發(fā)現(xiàn)(1)與Softmax相比,SphereFace、CosineFace和ArcFace明顯提高了性能,特別是在較大的姿態(tài)和年齡變化情況下。(2) CosineFace和ArcFace明顯優(yōu)于SphereFace,實(shí)現(xiàn)更簡(jiǎn)單。CosineFace和ArcFace可以很容易地收斂,而不需要額外的Softmax監(jiān)督。相比之下,為了避免在訓(xùn)練中出現(xiàn)發(fā)散,額外的Softmax監(jiān)督對(duì)于SphereFace來(lái)說(shuō)是必不可少的。(3) ArcFace略?xún)?yōu)于CosineFace。但是ArcFace更加直觀,對(duì)超球面流形的幾何解釋更加清晰,如圖1所示。

?

3.4. MegaFace Challenge1 on FaceScrub
For the experiments on the MegaFace challenge, we?use the LResNet100E-IR network and the refined MS1M?dataset as the training data. In both Table 9 and 10, we?give the identification and verification results on the original?MegaFace dataset and the refined MegaFace dataset.

In Table 9, we use the whole refined MS1M dataset to?train models. We compare the performance of the proposed?ArcFace with related baseline methods, e.g. Softmax,Triplet, SphereFace, and CosineFace. The proposed Arc-Face obtains the best performance before and after the distractors?refinement. After the overlapped face images are?removed from the one million distractors, the identification?performance significantly improves. We believe that the results?on the manually refined MegaFace dataset are more?reliable, and the performance of face identification under?million distractors is better than we think [2].

To strictly follow the evaluation instructions on?MegaFace, we need to remove all of the identities appearing?in the FaceScrub dataset from our training data. We calculate?the feature centre for each identity in the refined MS1M?dataset and the FaceScrub dataset. We find that 578 identities from the refined MS1M dataset have a close distance?(cosine similarity is higher than 0.45) with the identities?from the FaceScrub dataset. We remove these 578 identities?from the refined MS1M dataset and compare the proposed?ArcFace to other baseline methods in Table 10. ArcFace?still outperforms CosineFace with a slight performance drop?compared to Table 9. But for Softmax, the identification?rate drops obviously from 78.89% to 73.66% after the suspectable?overlap identities are removed from the training?data. On the refined MegaFace testset, the verification result?of CosineFace is slightly higher than that of ArcFace.This is because we read the verification results which are?closest to FAR=1e-6 from the outputs of the devkit. As we?can see from Figure 8, the proposed ArcFace always outperforms?CosineFace under both identification and verification?metric.

3.4. 在FaceScrub上的MegaFace Challenge1
對(duì)于MegaFace挑戰(zhàn)的實(shí)驗(yàn),我們使用LResNet100E-IR網(wǎng)絡(luò)和清洗完的MS1M數(shù)據(jù)集作為訓(xùn)練數(shù)據(jù)。在表9和表10中,我們給出了原始MegaFace數(shù)據(jù)集和清洗完的MegaFace數(shù)據(jù)集的識(shí)別和驗(yàn)證結(jié)果。

在表9中,我們使用整個(gè)清洗完的MS1M數(shù)據(jù)集來(lái)訓(xùn)練模型。我們將提出的ArcFace與相關(guān)baseline方法(Softmax、Triplet、SphereFace和CosineFace)的性能進(jìn)行了比較。在修改干擾項(xiàng)之前和之后,提出的ArcFace都獲得最佳的性能。從數(shù)量為一百萬(wàn)的干擾集中去除重復(fù)的人臉圖像后,識(shí)別性能顯著提高。我們認(rèn)為在手動(dòng)清洗完的MegaFace數(shù)據(jù)集上的結(jié)果更可靠,在百萬(wàn)級(jí)別的干擾集下,人臉識(shí)別的性能比我們認(rèn)為的[2]更好。

為了嚴(yán)格遵守MegaFace上的評(píng)估說(shuō)明,我們需要從我們的訓(xùn)練數(shù)據(jù)集中刪除FaceScrub數(shù)據(jù)集中出現(xiàn)的所有身份。我們計(jì)算了清洗完的MS1M數(shù)據(jù)集和FaceScrub數(shù)據(jù)集中每個(gè)身份的特征中心。我們發(fā)現(xiàn)來(lái)自清洗完的MS1M數(shù)據(jù)集的578個(gè)身份與來(lái)自FaceScrub數(shù)據(jù)集的身份的距離相近(余弦相似度高于0.45)。我們從清洗完的MS1M數(shù)據(jù)集中刪除了這578個(gè)身份,并將提出的ArcFace與其他baseline方法進(jìn)行比較,在表10中。ArcFace仍然優(yōu)于CosineFace,與表9相比性能略有下降。但是對(duì)于Softmax,在從訓(xùn)練數(shù)據(jù)中去除疑似重復(fù)的身份后,識(shí)別率明顯下降,從78.89%下降到73.66%。在清洗完的MegaFace測(cè)試集上,CosineFace的驗(yàn)證結(jié)果略高于ArcFace。這是因?yàn)槲覀冏x取的驗(yàn)證結(jié)果與devkit的輸出FAR=1e-6 最接近。從圖8可以看出,在識(shí)別度和驗(yàn)證度度量方面,提出的ArcFace總是優(yōu)于CosineFace。

以下補(bǔ)充2個(gè)概念

rank-1 :https://blog.csdn.net/sinat_42239797/article/details/93651594

TAR和FAR:https://blog.csdn.net/liuweiyuxiang/article/details/81259492

表9. MegaFace Challenge1 (LResNet100E-IR@MS1M)中不同方法的識(shí)別和驗(yàn)證結(jié)果。“Rank 1”指的是rank-1人臉識(shí)別的精度,“VR”指的是,在FAR(錯(cuò)誤接受的比例)為時(shí),人臉驗(yàn)證的TAR(正確接受的比例)。(R)表示MegaFace數(shù)據(jù)集清洗的版本。

表10. MegaFace Challenge1 (Methods@ MS1M - FaceScrub)?中不同方法的識(shí)別和驗(yàn)證結(jié)果。“Rank 1”指的是rank-1人臉識(shí)別的精度,“VR”指的是,在FAR(錯(cuò)誤接受的比例)為時(shí),人臉驗(yàn)證的TAR(正確接受的比例)。(R)表示MegaFace數(shù)據(jù)集清洗的版本。

圖8.?(a) 和?(c) 報(bào)告了在附帶1M干擾項(xiàng)的MegaFace數(shù)據(jù)集上不同方法的CMC曲線 。(b) 和?(d) 報(bào)告了在附帶1M干擾集的MegaFace數(shù)據(jù)集上不同方法的ROC曲線 。(a) 和?(b)在原始的MegaFace數(shù)據(jù)集上評(píng)估,(c) 和?(d)則在清洗完的MegaFace數(shù)據(jù)集上評(píng)估。

?

3.5. Further Improvement by Triplet Loss
Due to the limitation of GPU memory, it is hard to train?Softmax-based methods,e.g. SphereFace, CosineFace and?ArcFace, with millions of identities. One practical solution?is to employ metric learning methods, and the most widely?used method is the Triplet loss [35, 22]. However, the converging?speed of Triplet loss is relatively slow. To this end,?we explore Triplet loss to fine-turn exist face recognition?models which are trained with Softmax based methods.

For Triplet loss fine-tuning, we use the LResNet100EIR?network and set learning rate at 0.005, momentum at 0?and weight decay at 5e -?4. As shown in Table 11, we?give the verification accuracy by Triplet loss fine-tuning?on the AgeDB-30 dataset. We find that (1) The Softmax?model trained on a dataset with fewer identity numbers (e.g.VGG2 with 8,631 identities) can be obviously improved?by Triplet loss fine-tuning on a dataset with more identity?numbers (e.g. MS1M with 85k identities). This improvement?confirms the effectiveness of the two-step training?strategy, and this strategy can significantly accelerate the
whole model training compared to training Triplet loss from?scratch. (2) The Softmax model can be further improved by?Triplet loss fine-tuning on the same dataset, which proves?that the local refinement can improve the global model. (3)?The excellence of margin improved Softmax methods, e.g.SphereFace, CosineFace, and ArcFace, can be kept and further?improved by Triplet loss fine-tuning, which also verifies?that local metric learning method, e.g. Triplet loss, is complementary to global hypersphere metric learning based?methods.

As the margin used in Triplet loss is the Euclidean distance,we will investigate Triplet loss with the angular margin?recently.

表11.??通過(guò)三重?fù)p失微調(diào)(LResNet100E-IR)提高驗(yàn)證精度。

3.5. 進(jìn)一步改進(jìn)三重?fù)p失
由于GPU內(nèi)存的限制,很難訓(xùn)練使用softmax-based的方法(SphereFace, CosineFace和ArcFace),去訓(xùn)練百萬(wàn)級(jí)別的身份。一種實(shí)用的解決方法是使用度量學(xué)習(xí)方法,最廣泛使用的方法是三重?fù)p失[35,22]。然而,三重態(tài)損失的收斂速度相對(duì)較慢。為此,我們探索三重?fù)p失的微調(diào)現(xiàn),存在的softmax based方法訓(xùn)練的人臉識(shí)別模型。

對(duì)于三重?fù)p失的微調(diào),我們使用LResNet100EIR網(wǎng)絡(luò),并設(shè)置學(xué)習(xí)率為0.005,動(dòng)量為0,權(quán)重衰減為5e - 4。如表11所示,我們通過(guò)對(duì)AgeDB-30數(shù)據(jù)集進(jìn)行三重?fù)p失微調(diào)來(lái)給出驗(yàn)證精度。我們發(fā)現(xiàn) (1)用較少身份數(shù)量的數(shù)據(jù)集(例如具有8,631個(gè)身份的vgg2)訓(xùn)練的Softmax模型可以顯著得到提升,通過(guò)使用在較多身份數(shù)量的數(shù)據(jù)集(例如具有85k身份的MS1M)上微調(diào)過(guò)的三重?fù)p失。這一改進(jìn)證實(shí)了兩步訓(xùn)練策略的有效性,與從頭開(kāi)始訓(xùn)練的三重?fù)p失相比,這種策略可以顯著加速整個(gè)模型訓(xùn)練。(2)通過(guò)對(duì)同一數(shù)據(jù)集上的三重?fù)p失進(jìn)行微調(diào),可以進(jìn)一步改進(jìn)Softmax模型,證明局部改進(jìn)可以提升全局模型。(3)margin的有點(diǎn)提升了的Softmax方法,如sphereface、CosineFace和ArcFace。這個(gè)優(yōu)點(diǎn)可以通過(guò)三重?fù)p失的微調(diào)來(lái)保持和進(jìn)一步改進(jìn),這也驗(yàn)證了局部度量學(xué)習(xí)方法,如三重?fù)p失,是對(duì)全局超球度量學(xué)習(xí)基本方法的補(bǔ)充。

由于三重?fù)p失使用的間隔是歐幾里德距離,所以我們最近將用研究帶有角度間隔的三重?fù)p失。

?

4. Conclusions
In this paper, we contribute to improving deep face?recognition from data refinement, network settings and?loss function?designs. We have (1) refined the largest?public available training dataset (MS1M) and test dataset?(MegaFace); (2) explored different network settings and?analysed the trade-off between accuracy and speed; (3) proposed?a geometrically interpretable loss function called ArcFaceand explained why the proposed ArcFace is better?than Softmax, SphereFace and CosineFace from the view?of semi-hard sample distributions; (4) obtained state-of-theart?performance on the MegaFace dataset in a totally reproducible way.

4. 結(jié)論
在本文中,我們從數(shù)據(jù)清洗、網(wǎng)絡(luò)設(shè)置和損失函數(shù)設(shè)計(jì)三個(gè)方面來(lái)提升深度人臉識(shí)別的效果。我們有(1)清洗了規(guī)模最大的公開(kāi)訓(xùn)練數(shù)據(jù)集(MS1M)和測(cè)試數(shù)據(jù)集(MegaFace);(2)探索不同的網(wǎng)絡(luò)設(shè)置,分析準(zhǔn)確性與速度之間的權(quán)衡;(3)提出了一種稱(chēng)為ArcFace的幾何可解釋損失函數(shù),從semi-hard樣本分布的角度解釋了為什么提出的ArcFace要優(yōu)于Softmax、SphereFace和CosineFace;(4)以完全可復(fù)制的方式,在MegaFace數(shù)據(jù)集中獲得最先進(jìn)的性能
————————————————
版權(quán)聲明:本文為CSDN博主「神羅Noctis」的原創(chuàng)文章,遵循CC 4.0 BY-SA版權(quán)協(xié)議,轉(zhuǎn)載請(qǐng)附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/qq_39937396/article/details/102523945

總結(jié)

以上是生活随笔為你收集整理的Arcface v1 论文翻译与解读的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

精品国产乱码久久久久乱码 | 国产真实夫妇视频 | 国产成人无码一二三区视频 | 国内综合精品午夜久久资源 | 亚洲成a人一区二区三区 | 18无码粉嫩小泬无套在线观看 | 99久久婷婷国产综合精品青草免费 | 日韩视频 中文字幕 视频一区 | 国产人妻大战黑人第1集 | 国产熟女一区二区三区四区五区 | 亚洲欧美中文字幕5发布 | 国产成人精品久久亚洲高清不卡 | 国产黑色丝袜在线播放 | 亚洲精品无码国产 | 秋霞特色aa大片 | 日欧一片内射va在线影院 | 国产午夜亚洲精品不卡 | 一本大道久久东京热无码av | 无遮挡啪啪摇乳动态图 | 亚洲综合在线一区二区三区 | 午夜肉伦伦影院 | 久久精品99久久香蕉国产色戒 | 精品无码一区二区三区爱欲 | 久久精品成人欧美大片 | 天堂а√在线中文在线 | 久久久久亚洲精品男人的天堂 | 亚洲男人av香蕉爽爽爽爽 | 99久久人妻精品免费一区 | 青春草在线视频免费观看 | 久久精品人人做人人综合 | 国产精品无码一区二区三区不卡 | 欧美喷潮久久久xxxxx | 亚洲乱码日产精品bd | 中文字幕av伊人av无码av | 日韩人妻少妇一区二区三区 | 亚洲啪av永久无码精品放毛片 | 国产真人无遮挡作爱免费视频 | 熟妇人妻无码xxx视频 | 久久国产精品偷任你爽任你 | 18黄暴禁片在线观看 | 性生交大片免费看l | 波多野结衣 黑人 | www一区二区www免费 | 欧美性猛交xxxx富婆 | 久久久精品成人免费观看 | 国产麻豆精品一区二区三区v视界 | 亚洲一区二区三区香蕉 | 久久综合狠狠综合久久综合88 | 少妇被黑人到高潮喷出白浆 | 日本在线高清不卡免费播放 | 色综合天天综合狠狠爱 | 中文字幕无线码免费人妻 | 久9re热视频这里只有精品 | 樱花草在线播放免费中文 | 免费网站看v片在线18禁无码 | 精品厕所偷拍各类美女tp嘘嘘 | 精品久久久久久人妻无码中文字幕 | 国产av人人夜夜澡人人爽麻豆 | 国精产品一品二品国精品69xx | 无遮挡国产高潮视频免费观看 | 麻豆成人精品国产免费 | 成在人线av无码免观看麻豆 | 一本久久a久久精品亚洲 | 国产精品久久久午夜夜伦鲁鲁 | 国产精品igao视频网 | 亚洲熟悉妇女xxx妇女av | 亚洲日本va午夜在线电影 | 成人aaa片一区国产精品 | 国产精品无码mv在线观看 | 国产亚洲人成a在线v网站 | 精品国产国产综合精品 | 亚洲欧洲无卡二区视頻 | 水蜜桃av无码 | 国产精品视频免费播放 | 亚洲精品久久久久avwww潮水 | 日韩无套无码精品 | 午夜无码区在线观看 | 日本一卡2卡3卡四卡精品网站 | 亚洲小说图区综合在线 | 国产成人无码区免费内射一片色欲 | 风流少妇按摩来高潮 | 狠狠躁日日躁夜夜躁2020 | 风流少妇按摩来高潮 | 色婷婷久久一区二区三区麻豆 | 精品午夜福利在线观看 | 国内少妇偷人精品视频 | 国产精品久久久av久久久 | 亚洲色欲色欲欲www在线 | 乱码av麻豆丝袜熟女系列 | 又粗又大又硬毛片免费看 | 欧美freesex黑人又粗又大 | 2019nv天堂香蕉在线观看 | 午夜肉伦伦影院 | 国产精品人妻一区二区三区四 | 色综合天天综合狠狠爱 | 日本在线高清不卡免费播放 | 人妻少妇精品视频专区 | 国产精品99爱免费视频 | 久久人人97超碰a片精品 | 人人妻人人澡人人爽欧美一区 | 国产成人综合美国十次 | 亚洲精品成人av在线 | 亚洲精品中文字幕乱码 | 97久久超碰中文字幕 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 国产无遮挡吃胸膜奶免费看 | 丝袜 中出 制服 人妻 美腿 | 国产真实夫妇视频 | 国产又爽又猛又粗的视频a片 | 麻豆果冻传媒2021精品传媒一区下载 | 性欧美大战久久久久久久 | 亚洲欧美国产精品专区久久 | 国产午夜亚洲精品不卡 | 欧美兽交xxxx×视频 | 性生交片免费无码看人 | 国产凸凹视频一区二区 | 国产乱人伦偷精品视频 | 亚洲精品www久久久 | 欧美日本精品一区二区三区 | 伊人色综合久久天天小片 | 成 人 网 站国产免费观看 | 午夜丰满少妇性开放视频 | 午夜免费福利小电影 | 丰满少妇女裸体bbw | 无码人妻av免费一区二区三区 | 人妻与老人中文字幕 | 人妻少妇精品久久 | 巨爆乳无码视频在线观看 | 欧美人妻一区二区三区 | 国产特级毛片aaaaaaa高清 | 色综合久久88色综合天天 | 又黄又爽又色的视频 | аⅴ资源天堂资源库在线 | 狠狠色噜噜狠狠狠7777奇米 | 国产精品亚洲一区二区三区喷水 | 色综合久久久久综合一本到桃花网 | 国产69精品久久久久app下载 | 成人aaa片一区国产精品 | 亚洲国精产品一二二线 | 亚洲无人区一区二区三区 | 国产小呦泬泬99精品 | 国产免费无码一区二区视频 | 妺妺窝人体色www在线小说 | 1000部啪啪未满十八勿入下载 | 国产性生交xxxxx无码 | 少妇人妻偷人精品无码视频 | 色欲久久久天天天综合网精品 | 又色又爽又黄的美女裸体网站 | 久久久av男人的天堂 | 中文字幕无码视频专区 | 精品一区二区三区无码免费视频 | 国产偷抇久久精品a片69 | 国产疯狂伦交大片 | 色综合久久久久综合一本到桃花网 | 久久人人爽人人爽人人片ⅴ | 午夜无码人妻av大片色欲 | 免费无码的av片在线观看 | 98国产精品综合一区二区三区 | 亚洲国产精品毛片av不卡在线 | 欧美大屁股xxxxhd黑色 | 亚洲阿v天堂在线 | 亚洲色成人中文字幕网站 | 亚洲精品国产第一综合99久久 | 午夜丰满少妇性开放视频 | 在线精品国产一区二区三区 | 一个人看的www免费视频在线观看 | 麻豆国产人妻欲求不满谁演的 | 国产人成高清在线视频99最全资源 | 欧美精品免费观看二区 | 夜精品a片一区二区三区无码白浆 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 久久久精品成人免费观看 | 特大黑人娇小亚洲女 | 中文无码精品a∨在线观看不卡 | 一本色道久久综合亚洲精品不卡 | √天堂资源地址中文在线 | 一本色道久久综合亚洲精品不卡 | 日本熟妇乱子伦xxxx | 免费人成网站视频在线观看 | 精品国产av色一区二区深夜久久 | 成人影院yy111111在线观看 | 国产激情精品一区二区三区 | 久久综合网欧美色妞网 | 最新国产乱人伦偷精品免费网站 | 纯爱无遮挡h肉动漫在线播放 | 色噜噜亚洲男人的天堂 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲国产精品无码一区二区三区 | 夫妻免费无码v看片 | 亚洲 另类 在线 欧美 制服 | 国产成人久久精品流白浆 | 久久精品无码一区二区三区 | аⅴ资源天堂资源库在线 | 蜜桃臀无码内射一区二区三区 | 国产美女精品一区二区三区 | 人妻互换免费中文字幕 | 国产农村乱对白刺激视频 | 日本成熟视频免费视频 | 精品久久久久久人妻无码中文字幕 | 55夜色66夜色国产精品视频 | 久久午夜无码鲁丝片秋霞 | 荫蒂添的好舒服视频囗交 | 久久久久av无码免费网 | 国产精品手机免费 | 性欧美videos高清精品 | 丰满肥臀大屁股熟妇激情视频 | 日本高清一区免费中文视频 | 亚洲精品久久久久中文第一幕 | 亚洲va中文字幕无码久久不卡 | 玩弄少妇高潮ⅹxxxyw | 青青青手机频在线观看 | 白嫩日本少妇做爰 | 成年美女黄网站色大免费视频 | 日日天干夜夜狠狠爱 | 亚洲第一无码av无码专区 | 人妻有码中文字幕在线 | 嫩b人妻精品一区二区三区 | 国产亚av手机在线观看 | 国产欧美精品一区二区三区 | 国产乱人无码伦av在线a | 欧美大屁股xxxxhd黑色 | 欧美日本精品一区二区三区 | 97夜夜澡人人双人人人喊 | 美女黄网站人色视频免费国产 | 国产偷自视频区视频 | 人妻少妇精品无码专区动漫 | 亚洲色大成网站www | 精品无码一区二区三区爱欲 | 999久久久国产精品消防器材 | 精品久久久中文字幕人妻 | 亚洲成av人片在线观看无码不卡 | 久久久久久久久888 | 东北女人啪啪对白 | 国产精品亚洲五月天高清 | 亚洲欧美精品aaaaaa片 | 亚洲国产成人av在线观看 | 好爽又高潮了毛片免费下载 | 国产无遮挡又黄又爽免费视频 | 一本色道久久综合亚洲精品不卡 | 精品一区二区不卡无码av | 亚洲啪av永久无码精品放毛片 | 色婷婷综合中文久久一本 | 亚洲日本在线电影 | 少妇久久久久久人妻无码 | 国产精品久久久久久亚洲毛片 | 亚洲а∨天堂久久精品2021 | 精品久久久久久人妻无码中文字幕 | 国产亚洲精品久久久久久久 | 亚洲国产综合无码一区 | 国产成人一区二区三区在线观看 | 欧美日韩精品 | 精品无码国产自产拍在线观看蜜 | 久久aⅴ免费观看 | 久久久精品成人免费观看 | 久久综合色之久久综合 | 精品成人av一区二区三区 | 国产特级毛片aaaaaaa高清 | 亚洲欧洲日本综合aⅴ在线 | 亚洲一区av无码专区在线观看 | 一二三四在线观看免费视频 | 露脸叫床粗话东北少妇 | 无套内谢老熟女 | 久久综合给合久久狠狠狠97色 | 亚洲一区二区三区国产精华液 | 欧美老妇交乱视频在线观看 | 免费无码一区二区三区蜜桃大 | 欧美zoozzooz性欧美 | 久久久久人妻一区精品色欧美 | 久久97精品久久久久久久不卡 | 亚洲国产精品毛片av不卡在线 | 激情综合激情五月俺也去 | 乌克兰少妇性做爰 | а√天堂www在线天堂小说 | 国产三级精品三级男人的天堂 | 久久无码中文字幕免费影院蜜桃 | 麻豆果冻传媒2021精品传媒一区下载 | 国产精品人人妻人人爽 | 久久久久久久人妻无码中文字幕爆 | av无码久久久久不卡免费网站 | 天堂无码人妻精品一区二区三区 | 熟女俱乐部五十路六十路av | 日日碰狠狠躁久久躁蜜桃 | 成人毛片一区二区 | 久久久久成人片免费观看蜜芽 | 天天摸天天透天天添 | 无码午夜成人1000部免费视频 | 97资源共享在线视频 | 精品无人区无码乱码毛片国产 | 欧美野外疯狂做受xxxx高潮 | 亚洲国产精品一区二区第一页 | 久久久久成人精品免费播放动漫 | 亚洲精品成人福利网站 | 国产精品a成v人在线播放 | 巨爆乳无码视频在线观看 | 在线精品国产一区二区三区 | 亚洲日本va午夜在线电影 | 99久久精品日本一区二区免费 | 激情内射亚州一区二区三区爱妻 | 国产精品永久免费视频 | 国产精品美女久久久久av爽李琼 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 一区二区三区高清视频一 | 久久婷婷五月综合色国产香蕉 | 伊人久久大香线焦av综合影院 | 亚洲s色大片在线观看 | 又大又硬又黄的免费视频 | 亚洲精品综合一区二区三区在线 | 小sao货水好多真紧h无码视频 | 久久国产精品二国产精品 | 男人和女人高潮免费网站 | 国产av一区二区三区最新精品 | 少妇一晚三次一区二区三区 | 午夜无码人妻av大片色欲 | 又紧又大又爽精品一区二区 | 国产香蕉97碰碰久久人人 | 欧美高清在线精品一区 | 亚洲国产综合无码一区 | 午夜免费福利小电影 | 欧美人与物videos另类 | 中文字幕人妻无码一区二区三区 | 性色欲网站人妻丰满中文久久不卡 | 国产激情无码一区二区 | 亚洲国产欧美日韩精品一区二区三区 | 久久亚洲中文字幕精品一区 | 国产内射爽爽大片视频社区在线 | 国产成人无码区免费内射一片色欲 | 成人免费视频一区二区 | 无码成人精品区在线观看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 激情综合激情五月俺也去 | 少妇高潮一区二区三区99 | 欧美 日韩 人妻 高清 中文 | 国产av剧情md精品麻豆 | 亚洲精品综合五月久久小说 | 中文字幕无码免费久久9一区9 | 国产精品无码一区二区桃花视频 | 波多野结衣aⅴ在线 | 欧洲熟妇精品视频 | 久久www免费人成人片 | 日韩精品a片一区二区三区妖精 | 亚洲国产日韩a在线播放 | 西西人体www44rt大胆高清 | 又大又紧又粉嫩18p少妇 | 97se亚洲精品一区 | 亚洲 另类 在线 欧美 制服 | 丰满人妻翻云覆雨呻吟视频 | 丰满人妻翻云覆雨呻吟视频 | 国产人成高清在线视频99最全资源 | 极品尤物被啪到呻吟喷水 | 日本精品高清一区二区 | 亚洲中文字幕乱码av波多ji | 国产乱人伦av在线无码 | 午夜性刺激在线视频免费 | 天天拍夜夜添久久精品 | 综合人妻久久一区二区精品 | 日韩精品无码免费一区二区三区 | 强辱丰满人妻hd中文字幕 | 99久久99久久免费精品蜜桃 | 玩弄人妻少妇500系列视频 | 欧美人与牲动交xxxx | 人妻尝试又大又粗久久 | 一本色道久久综合亚洲精品不卡 | 伊人久久大香线焦av综合影院 | 精品一区二区三区波多野结衣 | 自拍偷自拍亚洲精品被多人伦好爽 | 人人澡人摸人人添 | a在线亚洲男人的天堂 | 九九久久精品国产免费看小说 | 亚洲精品www久久久 | 99riav国产精品视频 | 理论片87福利理论电影 | 亚洲中文字幕无码中文字在线 | 午夜福利电影 | 国产亚洲精品精品国产亚洲综合 | 国产婷婷色一区二区三区在线 | 久久精品女人的天堂av | 99久久99久久免费精品蜜桃 | 无套内谢的新婚少妇国语播放 | 日本丰满护士爆乳xxxx | 国产精品成人av在线观看 | 男人的天堂2018无码 | 狂野欧美性猛xxxx乱大交 | 国产精品沙发午睡系列 | 亚洲а∨天堂久久精品2021 | 2019午夜福利不卡片在线 | 国内丰满熟女出轨videos | 国产绳艺sm调教室论坛 | 日本www一道久久久免费榴莲 | 帮老师解开蕾丝奶罩吸乳网站 | 日日摸夜夜摸狠狠摸婷婷 | 久久精品国产99精品亚洲 | 国产午夜精品一区二区三区嫩草 | 久久99精品国产麻豆 | 亚洲国精产品一二二线 | 无码午夜成人1000部免费视频 | 国产精品永久免费视频 | 精品欧洲av无码一区二区三区 | 色情久久久av熟女人妻网站 | 亚洲精品一区二区三区在线观看 | 内射巨臀欧美在线视频 | 久久人人爽人人爽人人片ⅴ | 国产亚洲tv在线观看 | 婷婷五月综合激情中文字幕 | 呦交小u女精品视频 | 真人与拘做受免费视频 | 国产成人无码区免费内射一片色欲 | 国产精品无码一区二区三区不卡 | 无码福利日韩神码福利片 | 亚洲成av人在线观看网址 | 激情人妻另类人妻伦 | 精品国产av色一区二区深夜久久 | 亚洲 a v无 码免 费 成 人 a v | 波多野结衣 黑人 | 亚洲经典千人经典日产 | 老子影院午夜精品无码 | 亚洲日韩一区二区三区 | 国产三级精品三级男人的天堂 | 中文字幕久久久久人妻 | 狠狠躁日日躁夜夜躁2020 | 在线观看国产一区二区三区 | 日韩人妻无码一区二区三区久久99 | 久久国语露脸国产精品电影 | 亚洲成熟女人毛毛耸耸多 | 国产精品亚洲一区二区三区喷水 | 亚洲一区二区三区国产精华液 | 亚洲色欲色欲欲www在线 | 中文字幕人妻无码一区二区三区 | 18无码粉嫩小泬无套在线观看 | 丰满少妇女裸体bbw | 亚洲男人av香蕉爽爽爽爽 | 三上悠亚人妻中文字幕在线 | 日韩亚洲欧美精品综合 | 少妇性l交大片欧洲热妇乱xxx | 久久成人a毛片免费观看网站 | 国产人妻精品午夜福利免费 | 久久午夜无码鲁丝片 | 2019午夜福利不卡片在线 | 中文字幕无码av波多野吉衣 | 无遮挡啪啪摇乳动态图 | 又大又硬又黄的免费视频 | 一本一道久久综合久久 | 天堂在线观看www | 性欧美牲交在线视频 | 久久久久久a亚洲欧洲av冫 | 麻豆精品国产精华精华液好用吗 | 欧美猛少妇色xxxxx | 国产精品亚洲а∨无码播放麻豆 | 欧美精品在线观看 | 黑人大群体交免费视频 | 综合网日日天干夜夜久久 | 午夜精品一区二区三区的区别 | 日韩人妻少妇一区二区三区 | 青青青爽视频在线观看 | 国产香蕉97碰碰久久人人 | 麻豆国产人妻欲求不满谁演的 | 亚洲成a人片在线观看日本 | 国产亚洲美女精品久久久2020 | 高潮毛片无遮挡高清免费视频 | 中文字幕人妻无码一区二区三区 | 久久精品人妻少妇一区二区三区 | 激情国产av做激情国产爱 | 天天做天天爱天天爽综合网 | 久久久中文字幕日本无吗 | 性史性农村dvd毛片 | a片在线免费观看 | 亚洲精品久久久久久久久久久 | 在线观看国产一区二区三区 | 丰满人妻一区二区三区免费视频 | 亚洲国产午夜精品理论片 | 国产 浪潮av性色四虎 | 国产亚洲欧美日韩亚洲中文色 | 国产精品无码mv在线观看 | 美女张开腿让人桶 | 国产成人无码a区在线观看视频app | 色婷婷欧美在线播放内射 | 亚洲欧美中文字幕5发布 | 曰韩少妇内射免费播放 | 国内揄拍国内精品人妻 | 国产精品美女久久久久av爽李琼 | 成人免费无码大片a毛片 | 亚洲熟妇色xxxxx欧美老妇 | 国产精品久久久午夜夜伦鲁鲁 | 精品无码国产自产拍在线观看蜜 | 国内老熟妇对白xxxxhd | 欧美成人免费全部网站 | 亚洲精品久久久久久久久久久 | 日韩精品a片一区二区三区妖精 | 亚洲国产精品无码一区二区三区 | 国产内射爽爽大片视频社区在线 | 丰腴饱满的极品熟妇 | 欧美变态另类xxxx | 成人精品天堂一区二区三区 | 学生妹亚洲一区二区 | 亚洲国精产品一二二线 | 丰腴饱满的极品熟妇 | 熟女俱乐部五十路六十路av | 亚洲综合无码一区二区三区 | 国产精品爱久久久久久久 | 久久国产精品_国产精品 | 欧美怡红院免费全部视频 | 丝袜足控一区二区三区 | 国产精品亚洲专区无码不卡 | 国产成人综合在线女婷五月99播放 | 欧美日韩亚洲国产精品 | 久久精品人人做人人综合试看 | 欧美激情一区二区三区成人 | 狠狠噜狠狠狠狠丁香五月 | 久久99精品久久久久久动态图 | 黑人巨大精品欧美一区二区 | 国产内射老熟女aaaa | 老子影院午夜精品无码 | 久久五月精品中文字幕 | 欧美日韩久久久精品a片 | 中文字幕亚洲情99在线 | 水蜜桃色314在线观看 | 亚洲欧美国产精品久久 | 国产成人午夜福利在线播放 | 99久久久国产精品无码免费 | 荫蒂添的好舒服视频囗交 | 又粗又大又硬又长又爽 | 日本一卡二卡不卡视频查询 | 老熟妇乱子伦牲交视频 | 亚洲日韩av一区二区三区中文 | 三级4级全黄60分钟 | 暴力强奷在线播放无码 | 麻豆av传媒蜜桃天美传媒 | 久久99久久99精品中文字幕 | 国产精品第一国产精品 | 色五月丁香五月综合五月 | 一本无码人妻在中文字幕免费 | 国产av无码专区亚洲a∨毛片 | 在线亚洲高清揄拍自拍一品区 | 亚洲综合久久一区二区 | 色综合久久中文娱乐网 | 亚洲伊人久久精品影院 | 蜜臀aⅴ国产精品久久久国产老师 | 国产成人精品无码播放 | 成人三级无码视频在线观看 | www国产亚洲精品久久网站 | 成人精品视频一区二区三区尤物 | 日韩视频 中文字幕 视频一区 | 少妇激情av一区二区 | 在线精品国产一区二区三区 | 国产激情无码一区二区app | 免费人成网站视频在线观看 | 国产无遮挡又黄又爽又色 | 国产在热线精品视频 | 对白脏话肉麻粗话av | 一本久久a久久精品亚洲 | 亚洲国产精品久久人人爱 | 中文字幕乱码人妻无码久久 | 欧美性生交xxxxx久久久 | 日韩精品无码免费一区二区三区 | 色婷婷欧美在线播放内射 | 亚洲一区二区三区 | 亚洲综合精品香蕉久久网 | 国产av久久久久精东av | 免费观看又污又黄的网站 | 久久午夜无码鲁丝片午夜精品 | 国产香蕉尹人视频在线 | 亚洲 欧美 激情 小说 另类 | 一本色道久久综合亚洲精品不卡 | 亚洲一区二区三区无码久久 | 色婷婷综合中文久久一本 | 青春草在线视频免费观看 | 国产精品毛片一区二区 | 300部国产真实乱 | 国内精品久久久久久中文字幕 | 久久国产精品精品国产色婷婷 | 亚洲码国产精品高潮在线 | 国产精品igao视频网 | 日韩欧美中文字幕在线三区 | 国产肉丝袜在线观看 | 亚洲性无码av中文字幕 | 人妻无码久久精品人妻 | 一本色道婷婷久久欧美 | 三上悠亚人妻中文字幕在线 | 欧美真人作爱免费视频 | 日欧一片内射va在线影院 | 亚洲精品中文字幕 | а√天堂www在线天堂小说 | 精品一二三区久久aaa片 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲色偷偷男人的天堂 | 人人妻人人澡人人爽人人精品浪潮 | 97久久国产亚洲精品超碰热 | 亚洲gv猛男gv无码男同 | 亚洲色欲色欲天天天www | 欧美老妇交乱视频在线观看 | 99久久无码一区人妻 | 亚洲色欲色欲天天天www | 欧美性生交活xxxxxdddd | 国产人妻久久精品二区三区老狼 | 国产一区二区三区日韩精品 | 88国产精品欧美一区二区三区 | 鲁大师影院在线观看 | 国精品人妻无码一区二区三区蜜柚 | 国产熟妇高潮叫床视频播放 | 欧美老妇交乱视频在线观看 | 伊人色综合久久天天小片 | 欧美亚洲国产一区二区三区 | 高潮毛片无遮挡高清免费 | 中文字幕日韩精品一区二区三区 | 天干天干啦夜天干天2017 | 东北女人啪啪对白 | 人人妻人人澡人人爽精品欧美 | 无码国产激情在线观看 | 免费观看又污又黄的网站 | 精品国产一区二区三区四区 | 亚洲欧美日韩国产精品一区二区 | 亚洲爆乳大丰满无码专区 | 噜噜噜亚洲色成人网站 | 大肉大捧一进一出视频出来呀 | 中文字幕无码av波多野吉衣 | 精品久久久久香蕉网 | 精品人妻中文字幕有码在线 | 日本一卡2卡3卡四卡精品网站 | 亚洲 另类 在线 欧美 制服 | 男女下面进入的视频免费午夜 | 网友自拍区视频精品 | 亚洲日本va中文字幕 | 人人澡人摸人人添 | 天堂无码人妻精品一区二区三区 | 少妇性荡欲午夜性开放视频剧场 | 玩弄少妇高潮ⅹxxxyw | 精品久久久久久亚洲精品 | 亚洲 a v无 码免 费 成 人 a v | 极品尤物被啪到呻吟喷水 | 国产精品久久久久久无码 | 亚洲国产成人av在线观看 | 欧美亚洲国产一区二区三区 | 性欧美videos高清精品 | 一本无码人妻在中文字幕免费 | 国产亚洲精品久久久久久国模美 | 国产三级久久久精品麻豆三级 | 97夜夜澡人人爽人人喊中国片 | 日韩精品一区二区av在线 | 亚洲最大成人网站 | 十八禁真人啪啪免费网站 | 天堂无码人妻精品一区二区三区 | 亲嘴扒胸摸屁股激烈网站 | 无码人妻精品一区二区三区下载 | 黑人玩弄人妻中文在线 | 亚洲精品久久久久中文第一幕 | 久久无码专区国产精品s | 性啪啪chinese东北女人 | 2020久久香蕉国产线看观看 | 人妻夜夜爽天天爽三区 | 好屌草这里只有精品 | 久久国内精品自在自线 | 国内老熟妇对白xxxxhd | 国产艳妇av在线观看果冻传媒 | 亚洲欧美色中文字幕在线 | 男人的天堂2018无码 | 人妻互换免费中文字幕 | 日韩精品无码免费一区二区三区 | 久久国语露脸国产精品电影 | 国产69精品久久久久app下载 | 特黄特色大片免费播放器图片 | 午夜成人1000部免费视频 | 精品久久久久香蕉网 | 亚洲成色在线综合网站 | 人妻无码αv中文字幕久久琪琪布 | 久久五月精品中文字幕 | 一本色道久久综合狠狠躁 | 亚洲日韩av片在线观看 | 天天摸天天透天天添 | 国产在线一区二区三区四区五区 | 在线精品亚洲一区二区 | 免费网站看v片在线18禁无码 | 久久综合色之久久综合 | 亚洲精品国产a久久久久久 | 久久精品国产99久久6动漫 | 色婷婷欧美在线播放内射 | 乱人伦人妻中文字幕无码 | 亚洲国产精品无码一区二区三区 | 国产高潮视频在线观看 | 精品 日韩 国产 欧美 视频 | 欧美性生交xxxxx久久久 | 免费无码av一区二区 | 99久久亚洲精品无码毛片 | 亚洲日本在线电影 | 人妻aⅴ无码一区二区三区 | 国产精品多人p群无码 | 久久国产劲爆∧v内射 | 亚洲成在人网站无码天堂 | 丰满人妻被黑人猛烈进入 | 午夜理论片yy44880影院 | 日本护士xxxxhd少妇 | 国产成人久久精品流白浆 | 亚洲成av人影院在线观看 | 欧美黑人性暴力猛交喷水 | 国产人妻久久精品二区三区老狼 | 国产亚洲精品精品国产亚洲综合 | 无套内谢老熟女 | 搡女人真爽免费视频大全 | 人人妻在人人 | 极品尤物被啪到呻吟喷水 | 国产精品怡红院永久免费 | 少妇高潮喷潮久久久影院 | 亚洲综合在线一区二区三区 | 国产成人综合在线女婷五月99播放 | 一本加勒比波多野结衣 | 亚洲欧美精品aaaaaa片 | 国产亚洲视频中文字幕97精品 | 亚洲一区二区三区无码久久 | 成人无码影片精品久久久 | 久久无码人妻影院 | 欧美自拍另类欧美综合图片区 | 国产特级毛片aaaaaa高潮流水 | 妺妺窝人体色www婷婷 | 国产午夜亚洲精品不卡下载 | 国产精品亚洲综合色区韩国 | 日日躁夜夜躁狠狠躁 | 久久久久久久女国产乱让韩 | 装睡被陌生人摸出水好爽 | 人人妻人人藻人人爽欧美一区 | 少妇人妻av毛片在线看 | 免费看少妇作爱视频 | 午夜精品一区二区三区的区别 | 捆绑白丝粉色jk震动捧喷白浆 | 欧美国产日韩久久mv | 日日天日日夜日日摸 | 狠狠色噜噜狠狠狠7777奇米 | 丰满少妇熟乱xxxxx视频 | 欧美日韩一区二区综合 | 欧美高清在线精品一区 | 动漫av一区二区在线观看 | 国精产品一品二品国精品69xx | 蜜臀av在线播放 久久综合激激的五月天 | 老子影院午夜精品无码 | 啦啦啦www在线观看免费视频 | 黑人巨大精品欧美黑寡妇 | 无码毛片视频一区二区本码 | 国精品人妻无码一区二区三区蜜柚 | 扒开双腿吃奶呻吟做受视频 | 亚洲欧美精品伊人久久 | 国内综合精品午夜久久资源 | 在线精品国产一区二区三区 | 无码人妻丰满熟妇区毛片18 | 中文字幕无码av波多野吉衣 | 蜜桃av抽搐高潮一区二区 | 无码一区二区三区在线观看 | 女人被男人躁得好爽免费视频 | 无码播放一区二区三区 | 日日鲁鲁鲁夜夜爽爽狠狠 | 亚洲综合在线一区二区三区 | 国产精品高潮呻吟av久久 | 欧美xxxxx精品 | 亚洲国产精品久久人人爱 | 国产精品资源一区二区 | 久久精品中文字幕一区 | 丝袜人妻一区二区三区 | 国产绳艺sm调教室论坛 | 欧美一区二区三区视频在线观看 | 成在人线av无码免观看麻豆 | 999久久久国产精品消防器材 | 中文字幕无码av波多野吉衣 | av无码电影一区二区三区 | 少妇被黑人到高潮喷出白浆 | 国产高清av在线播放 | 少妇厨房愉情理9仑片视频 | 久久无码中文字幕免费影院蜜桃 | 一本久道高清无码视频 | 亚洲精品成a人在线观看 | 午夜男女很黄的视频 | 波多野结衣乳巨码无在线观看 | 中文字幕无码人妻少妇免费 | 日韩视频 中文字幕 视频一区 | 久久久亚洲欧洲日产国码αv | 又大又紧又粉嫩18p少妇 | 在线天堂新版最新版在线8 | 国产成人午夜福利在线播放 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产精品久久久久久亚洲影视内衣 | 亚洲男人av天堂午夜在 | 亚洲欧洲日本综合aⅴ在线 | 日本一区二区三区免费高清 | 久久久久成人片免费观看蜜芽 | 国产人妻大战黑人第1集 | 国产乱人伦av在线无码 | 久久人人爽人人爽人人片av高清 | 乱人伦人妻中文字幕无码 | 久久久久亚洲精品男人的天堂 | 好屌草这里只有精品 | 性色欲情网站iwww九文堂 | 久久久精品国产sm最大网站 | 国语精品一区二区三区 | 人妻尝试又大又粗久久 | 久久人妻内射无码一区三区 | 露脸叫床粗话东北少妇 | 免费观看的无遮挡av | 内射白嫩少妇超碰 | 一区二区传媒有限公司 | 亚洲爆乳大丰满无码专区 | 纯爱无遮挡h肉动漫在线播放 | 欧美日本日韩 | 国产精品久久久久无码av色戒 | 麻豆果冻传媒2021精品传媒一区下载 | 小sao货水好多真紧h无码视频 | 中文字幕中文有码在线 | 亚洲色大成网站www | 免费无码午夜福利片69 | 国产av无码专区亚洲a∨毛片 | 免费看男女做好爽好硬视频 | 国产午夜福利亚洲第一 | 99精品视频在线观看免费 | 丰满人妻一区二区三区免费视频 | 国语自产偷拍精品视频偷 | 色情久久久av熟女人妻网站 | 国产精品亚洲五月天高清 | 亚洲成色www久久网站 | 男女爱爱好爽视频免费看 | 国产内射老熟女aaaa | 亚洲小说图区综合在线 | 成人一区二区免费视频 | 精品无码国产一区二区三区av | 国产精品亚洲专区无码不卡 | 久久人人爽人人爽人人片av高清 | 免费视频欧美无人区码 | 欧美一区二区三区视频在线观看 | 又大又黄又粗又爽的免费视频 | 久久成人a毛片免费观看网站 | 丰满少妇高潮惨叫视频 | 久久久久久久人妻无码中文字幕爆 | 麻豆人妻少妇精品无码专区 | 亚洲一区二区三区国产精华液 | 国产色视频一区二区三区 | 日日摸日日碰夜夜爽av | 婷婷丁香五月天综合东京热 | 中文无码成人免费视频在线观看 | 国产av久久久久精东av | 99riav国产精品视频 | 国产乱人偷精品人妻a片 | 天天拍夜夜添久久精品 | 97久久超碰中文字幕 | 亚洲国产精品一区二区第一页 | 99视频精品全部免费免费观看 | 国产特级毛片aaaaaa高潮流水 | 成 人 免费观看网站 | 亚洲欧美日韩综合久久久 | 国产精品怡红院永久免费 | 少妇性l交大片欧洲热妇乱xxx | 精品无码一区二区三区的天堂 | 亚洲中文字幕av在天堂 | 无码人妻精品一区二区三区下载 | 色婷婷综合激情综在线播放 | 国产激情无码一区二区 | 中文字幕无码热在线视频 | ass日本丰满熟妇pics | 亚洲一区二区观看播放 | 中文字幕无码免费久久9一区9 | 欧美放荡的少妇 | 丝袜人妻一区二区三区 | 国产av久久久久精东av | 欧美野外疯狂做受xxxx高潮 | 好男人社区资源 | 久精品国产欧美亚洲色aⅴ大片 | 日本一区二区三区免费播放 | 狂野欧美性猛交免费视频 | 无码人妻精品一区二区三区不卡 | 日本熟妇乱子伦xxxx | 久久久久久久人妻无码中文字幕爆 | 丰腴饱满的极品熟妇 | 久久99国产综合精品 | 亚洲日本一区二区三区在线 | 一二三四社区在线中文视频 | 欧美性猛交xxxx富婆 | 97久久精品无码一区二区 | 国产精品香蕉在线观看 | 老子影院午夜伦不卡 | 日日摸日日碰夜夜爽av | 久久精品国产一区二区三区 | 成熟女人特级毛片www免费 | 丰满妇女强制高潮18xxxx | 欧美色就是色 | 亚洲日本va午夜在线电影 | 成在人线av无码免观看麻豆 | 给我免费的视频在线观看 | 亚洲成av人综合在线观看 | 欧美丰满熟妇xxxx | 无码国产乱人伦偷精品视频 | 久久精品国产日本波多野结衣 | 亚洲精品成a人在线观看 | 97久久国产亚洲精品超碰热 | 国产美女精品一区二区三区 | 国产亚洲人成a在线v网站 | 2020久久香蕉国产线看观看 | 在线观看欧美一区二区三区 | 国产在线一区二区三区四区五区 | 成人毛片一区二区 | 欧美性生交xxxxx久久久 | 无码av中文字幕免费放 | 国产亚洲人成a在线v网站 | 日韩欧美群交p片內射中文 | 亚洲成a人片在线观看无码 | 日韩精品乱码av一区二区 | 熟妇人妻激情偷爽文 | 日本一区二区三区免费高清 | 成人aaa片一区国产精品 | 亚洲人交乣女bbw | 夜夜高潮次次欢爽av女 | 亚洲s码欧洲m码国产av | www一区二区www免费 | 国产午夜福利亚洲第一 | 永久免费观看美女裸体的网站 | 国产又爽又猛又粗的视频a片 | 女人被男人爽到呻吟的视频 | √8天堂资源地址中文在线 | 国产又爽又黄又刺激的视频 | 网友自拍区视频精品 | 国产午夜福利100集发布 | 精品国产福利一区二区 | 精品水蜜桃久久久久久久 | 水蜜桃色314在线观看 | 国产午夜精品一区二区三区嫩草 | 精品无码国产一区二区三区av | 人人妻人人澡人人爽人人精品 | 亚洲码国产精品高潮在线 | 中文亚洲成a人片在线观看 | 性史性农村dvd毛片 | 天天爽夜夜爽夜夜爽 | 中文无码精品a∨在线观看不卡 | 亚洲中文字幕在线无码一区二区 | 亚洲 日韩 欧美 成人 在线观看 | 亚洲熟妇色xxxxx亚洲 | 欧美猛少妇色xxxxx | 亚无码乱人伦一区二区 | 夫妻免费无码v看片 | 国产农村乱对白刺激视频 | 国产精品久久久久久久9999 | 成人无码视频在线观看网站 | 亚洲欧美日韩成人高清在线一区 | 亚无码乱人伦一区二区 | 国产av久久久久精东av | 又大又紧又粉嫩18p少妇 | 亚洲国产综合无码一区 | 亚洲综合无码一区二区三区 | 日本精品高清一区二区 | 欧美国产亚洲日韩在线二区 | 色诱久久久久综合网ywww | 色婷婷综合激情综在线播放 | 欧美日本精品一区二区三区 | 色噜噜亚洲男人的天堂 | 无遮无挡爽爽免费视频 | 波多野结衣av一区二区全免费观看 | 国产精品欧美成人 | 女人和拘做爰正片视频 | 又色又爽又黄的美女裸体网站 | 国产乱子伦视频在线播放 | 日日麻批免费40分钟无码 | 国内揄拍国内精品人妻 | 午夜无码人妻av大片色欲 | 欧美老熟妇乱xxxxx | 精品久久久无码中文字幕 | 国产av一区二区精品久久凹凸 | 午夜精品久久久久久久久 | 日韩人妻系列无码专区 | 真人与拘做受免费视频 | 少妇性荡欲午夜性开放视频剧场 | 亚洲人成网站色7799 | 男女猛烈xx00免费视频试看 | 国产成人综合在线女婷五月99播放 | 无码成人精品区在线观看 | 国产成人精品无码播放 | 国产精品无码mv在线观看 | 久久综合给合久久狠狠狠97色 | 少妇高潮一区二区三区99 | 日韩精品久久久肉伦网站 | 国产一区二区三区四区五区加勒比 | 一二三四在线观看免费视频 | 黑森林福利视频导航 | 中文字幕乱码亚洲无线三区 | 免费无码肉片在线观看 | 亚洲精品国产精品乱码不卡 | 免费视频欧美无人区码 | 国产精品无码一区二区桃花视频 | 亚洲色无码一区二区三区 | 国产成人无码午夜视频在线观看 | 久久精品女人天堂av免费观看 | 欧美日韩综合一区二区三区 | 7777奇米四色成人眼影 | 亚洲色偷偷偷综合网 | 午夜精品久久久久久久久 | 一二三四在线观看免费视频 | 国产亚洲精品久久久久久久 | а√资源新版在线天堂 | 久久精品中文字幕大胸 | 亚洲精品一区国产 | 动漫av一区二区在线观看 | 国产偷国产偷精品高清尤物 | 蜜桃无码一区二区三区 | 亚洲精品中文字幕 | ass日本丰满熟妇pics | 99久久久无码国产aaa精品 | 国产精品无码成人午夜电影 | 中文无码精品a∨在线观看不卡 | 久久人人爽人人爽人人片ⅴ | 国产亚洲精品久久久ai换 | 性做久久久久久久久 | 国产免费无码一区二区视频 | 久久久婷婷五月亚洲97号色 | 在线观看欧美一区二区三区 | 老熟妇仑乱视频一区二区 | 1000部夫妻午夜免费 | 激情爆乳一区二区三区 | 免费国产黄网站在线观看 | 99riav国产精品视频 | 欧美成人免费全部网站 | 欧美亚洲日韩国产人成在线播放 | 国产一区二区不卡老阿姨 | 日本www一道久久久免费榴莲 | 国产人妻人伦精品1国产丝袜 | 国产肉丝袜在线观看 | 午夜无码区在线观看 | 性啪啪chinese东北女人 | 永久免费观看国产裸体美女 | 熟妇女人妻丰满少妇中文字幕 | 人妻少妇精品久久 | 131美女爱做视频 | 99久久人妻精品免费二区 | 99久久精品国产一区二区蜜芽 | 国产莉萝无码av在线播放 | 99在线 | 亚洲 | 亚洲一区二区三区无码久久 | 伊人色综合久久天天小片 | 亚洲精品无码人妻无码 | 成人女人看片免费视频放人 | 好爽又高潮了毛片免费下载 | 未满小14洗澡无码视频网站 | 国产人妻精品一区二区三区 | 国产热a欧美热a在线视频 | 精品久久久无码人妻字幂 | 麻豆果冻传媒2021精品传媒一区下载 | 免费男性肉肉影院 | 波多野结衣乳巨码无在线观看 | 日韩欧美成人免费观看 | 欧美熟妇另类久久久久久多毛 | 人人妻人人澡人人爽欧美一区九九 | 中文字幕色婷婷在线视频 | 欧美xxxx黑人又粗又长 | 女人和拘做爰正片视频 | 天天爽夜夜爽夜夜爽 | 东京热一精品无码av | 中文字幕无码热在线视频 | 国产一区二区不卡老阿姨 | a片免费视频在线观看 | 日韩精品a片一区二区三区妖精 | 在线观看免费人成视频 | 精品乱子伦一区二区三区 | 丝袜 中出 制服 人妻 美腿 | 国产97色在线 | 免 | 高潮毛片无遮挡高清免费视频 | 国产乱人伦av在线无码 | 久久久久久亚洲精品a片成人 | 51国偷自产一区二区三区 | 亚洲精品中文字幕久久久久 | 成人女人看片免费视频放人 | 久久99精品久久久久久 | 色狠狠av一区二区三区 | 久久精品国产日本波多野结衣 | 国内少妇偷人精品视频免费 | 国内丰满熟女出轨videos | 亚洲综合在线一区二区三区 | 国产明星裸体无码xxxx视频 | 亚洲 另类 在线 欧美 制服 | 成 人 网 站国产免费观看 | 一本色道久久综合亚洲精品不卡 | 99久久精品无码一区二区毛片 | 中文字幕av日韩精品一区二区 | 国产亚洲精品久久久久久国模美 | 久久久久成人精品免费播放动漫 | 牛和人交xxxx欧美 | 日本大香伊一区二区三区 | 88国产精品欧美一区二区三区 | 国产精品久久国产三级国 | 国产香蕉97碰碰久久人人 | 久久久久久a亚洲欧洲av冫 | 丝袜人妻一区二区三区 | 欧美亚洲日韩国产人成在线播放 | 国产成人无码av片在线观看不卡 | 亚洲精品午夜无码电影网 | 亚洲综合无码一区二区三区 | 一个人看的视频www在线 | 欧美精品在线观看 | 久久精品国产一区二区三区肥胖 | 九九在线中文字幕无码 | 性色av无码免费一区二区三区 | 无码成人精品区在线观看 | 老司机亚洲精品影院无码 | 久久天天躁夜夜躁狠狠 | 精品久久久无码中文字幕 | 97久久国产亚洲精品超碰热 | 色欲av亚洲一区无码少妇 | 国产精品无码mv在线观看 | 精品久久久中文字幕人妻 | 爽爽影院免费观看 | 亚洲 激情 小说 另类 欧美 | 亚洲欧美精品aaaaaa片 | 日本熟妇大屁股人妻 | 澳门永久av免费网站 | 国产成人综合在线女婷五月99播放 | 四虎国产精品免费久久 | 97久久精品无码一区二区 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产一区二区不卡老阿姨 | 国产免费久久久久久无码 | 国产内射老熟女aaaa | 男女下面进入的视频免费午夜 | 99久久亚洲精品无码毛片 | 午夜无码人妻av大片色欲 | 成年女人永久免费看片 | 色综合久久中文娱乐网 | 亚洲人成网站免费播放 | 亚洲精品久久久久avwww潮水 | 大屁股大乳丰满人妻 | 2020久久超碰国产精品最新 | 性生交大片免费看女人按摩摩 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产综合久久久久鬼色 | yw尤物av无码国产在线观看 | 曰本女人与公拘交酡免费视频 | 成人无码视频免费播放 | 亚洲中文字幕无码中文字在线 | 国产精品久久久午夜夜伦鲁鲁 | 高清国产亚洲精品自在久久 | √8天堂资源地址中文在线 | 欧美变态另类xxxx | 97久久国产亚洲精品超碰热 | 内射巨臀欧美在线视频 | 激情综合激情五月俺也去 | 久久久久国色av免费观看性色 | 无码精品人妻一区二区三区av | 精品久久久久久人妻无码中文字幕 | 亚洲国产综合无码一区 | 欧美35页视频在线观看 | 亚洲天堂2017无码 | 亚洲国产成人av在线观看 | 国产片av国语在线观看 | 亚洲中文字幕无码中文字在线 | 少妇性俱乐部纵欲狂欢电影 | 4hu四虎永久在线观看 | 东京无码熟妇人妻av在线网址 | 亚洲无人区一区二区三区 | 亚洲精品一区二区三区大桥未久 | 18无码粉嫩小泬无套在线观看 | 久久综合九色综合97网 | 亚洲经典千人经典日产 | 国产欧美亚洲精品a | 成人三级无码视频在线观看 | 亚洲aⅴ无码成人网站国产app | 亚洲精品国产第一综合99久久 | 99麻豆久久久国产精品免费 | 国产xxx69麻豆国语对白 | 亚洲小说图区综合在线 | 无码一区二区三区在线观看 | 亚洲午夜无码久久 | 日本肉体xxxx裸交 | a片免费视频在线观看 | 18禁黄网站男男禁片免费观看 | 中文字幕乱码中文乱码51精品 | 大地资源中文第3页 | 国精产品一品二品国精品69xx | 国产精品18久久久久久麻辣 | 亚洲人成网站在线播放942 | 无人区乱码一区二区三区 | 性欧美牲交xxxxx视频 | 亚洲欧洲中文日韩av乱码 | 久久综合狠狠综合久久综合88 | 在线播放无码字幕亚洲 | 一本精品99久久精品77 | 久久婷婷五月综合色国产香蕉 | 呦交小u女精品视频 | 久久人人爽人人人人片 | 好男人www社区 | 国产在线精品一区二区三区直播 | 国产国语老龄妇女a片 | 永久黄网站色视频免费直播 | 无套内谢的新婚少妇国语播放 | 亚洲精品国产精品乱码视色 | 国产亚洲tv在线观看 | 亚洲国精产品一二二线 | 国产精品久久久久久久9999 | 亚洲理论电影在线观看 | 九九综合va免费看 | 精品人妻人人做人人爽 | 老司机亚洲精品影院无码 | 精品国产一区av天美传媒 | 亚洲成熟女人毛毛耸耸多 | 国产婷婷色一区二区三区在线 | 小鲜肉自慰网站xnxx | 久久成人a毛片免费观看网站 | √8天堂资源地址中文在线 | 奇米影视7777久久精品 | 国产精品亚洲专区无码不卡 | 久久综合狠狠综合久久综合88 | 老司机亚洲精品影院无码 | 久在线观看福利视频 | 亚洲人成网站免费播放 | 国产亚洲精品久久久久久大师 | 国产精品亚洲lv粉色 | 国产香蕉尹人视频在线 | 国产精品多人p群无码 | 天堂一区人妻无码 | 色窝窝无码一区二区三区色欲 | 欧美freesex黑人又粗又大 | 色情久久久av熟女人妻网站 | 中文字幕无码乱人伦 | 99国产欧美久久久精品 | 青春草在线视频免费观看 | 日韩欧美群交p片內射中文 | 亚洲午夜久久久影院 | 日韩精品成人一区二区三区 | 成人片黄网站色大片免费观看 | 国产超级va在线观看视频 | 99久久久无码国产aaa精品 | 少妇的肉体aa片免费 | 国产成人一区二区三区在线观看 | 久久人人爽人人爽人人片ⅴ | 亚洲欧美日韩成人高清在线一区 | 在线 国产 欧美 亚洲 天堂 | 亚洲狠狠婷婷综合久久 | 18禁止看的免费污网站 | 亚洲日本va午夜在线电影 | 秋霞成人午夜鲁丝一区二区三区 | 强伦人妻一区二区三区视频18 | 久久久久国色av免费观看性色 | 小鲜肉自慰网站xnxx | 亚洲成a人片在线观看日本 | 国内老熟妇对白xxxxhd | 曰韩少妇内射免费播放 | 亚洲日本va中文字幕 | 任你躁在线精品免费 | 国产成人精品一区二区在线小狼 | 兔费看少妇性l交大片免费 | 亚洲色成人中文字幕网站 | 欧美熟妇另类久久久久久不卡 | 性欧美熟妇videofreesex | 成人免费视频一区二区 | 精品久久久久久人妻无码中文字幕 | 久9re热视频这里只有精品 | 国产特级毛片aaaaaaa高清 | 7777奇米四色成人眼影 | 精品久久综合1区2区3区激情 | 蜜臀av在线播放 久久综合激激的五月天 | 在线视频网站www色 | 亚洲一区二区三区四区 | 欧美日韩久久久精品a片 | 国产片av国语在线观看 | 中文字幕无码日韩欧毛 | 丰满人妻翻云覆雨呻吟视频 | 永久免费观看美女裸体的网站 | 99在线 | 亚洲 | 女人被爽到呻吟gif动态图视看 | 激情爆乳一区二区三区 | 亚洲一区二区三区四区 | 亚洲欧美综合区丁香五月小说 | 国产无av码在线观看 | 国产内射老熟女aaaa | 美女黄网站人色视频免费国产 | 欧洲vodafone精品性 | 国产97人人超碰caoprom | 日韩欧美成人免费观看 | 女人被男人躁得好爽免费视频 | 国产精品免费大片 | 日韩欧美中文字幕公布 | 六月丁香婷婷色狠狠久久 | 少妇太爽了在线观看 | 精品偷自拍另类在线观看 | 亚洲欧美综合区丁香五月小说 | 欧美老妇与禽交 | 欧美猛少妇色xxxxx | 无码福利日韩神码福利片 | 婷婷丁香六月激情综合啪 | 未满小14洗澡无码视频网站 | 麻豆md0077饥渴少妇 | 亚洲精品一区二区三区婷婷月 | 亚洲中文字幕无码中字 | 婷婷五月综合缴情在线视频 | 国产午夜亚洲精品不卡 | 一本色道久久综合亚洲精品不卡 | 久久精品女人天堂av免费观看 | а√资源新版在线天堂 | 亚洲娇小与黑人巨大交 | 国产成人无码区免费内射一片色欲 | 天天做天天爱天天爽综合网 | 无码毛片视频一区二区本码 | 国产深夜福利视频在线 | 国产精品人妻一区二区三区四 | 国产一区二区三区精品视频 | 久久精品女人的天堂av | 久久午夜无码鲁丝片午夜精品 | 300部国产真实乱 | 亚洲色大成网站www | 国产sm调教视频在线观看 | 两性色午夜视频免费播放 | 国产精品无码成人午夜电影 | 国内精品人妻无码久久久影院蜜桃 | 成人免费视频视频在线观看 免费 | 午夜无码区在线观看 | 欧美日韩一区二区三区自拍 | 无码午夜成人1000部免费视频 | 中文无码伦av中文字幕 | 日韩在线不卡免费视频一区 | 欧美熟妇另类久久久久久不卡 | 久久国产精品二国产精品 | 中文字幕av伊人av无码av | 成人影院yy111111在线观看 | 亚洲a无码综合a国产av中文 | 国产成人综合美国十次 | 亚洲欧美日韩国产精品一区二区 | 亚洲国产成人a精品不卡在线 | 98国产精品综合一区二区三区 | аⅴ资源天堂资源库在线 | 国产精品久久久久久亚洲影视内衣 | 日本精品人妻无码免费大全 | 欧美人与物videos另类 | 中文字幕日韩精品一区二区三区 | 欧美日韩一区二区三区自拍 | 思思久久99热只有频精品66 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产精品资源一区二区 | 无码人妻久久一区二区三区不卡 | 性啪啪chinese东北女人 | а√资源新版在线天堂 | 亚洲国产一区二区三区在线观看 | 午夜精品一区二区三区的区别 | 亚洲の无码国产の无码影院 | 欧美人与动性行为视频 | 日本丰满护士爆乳xxxx | 少妇人妻大乳在线视频 | 亚洲 高清 成人 动漫 | 99riav国产精品视频 | 国产猛烈高潮尖叫视频免费 | 一个人免费观看的www视频 | 国内揄拍国内精品人妻 | 无码人妻丰满熟妇区毛片18 | 精品国偷自产在线视频 | 樱花草在线播放免费中文 | 欧美性猛交内射兽交老熟妇 | 国产偷国产偷精品高清尤物 | 欧美性生交活xxxxxdddd | 兔费看少妇性l交大片免费 | 婷婷六月久久综合丁香 | 国产卡一卡二卡三 | 水蜜桃亚洲一二三四在线 | 一本色道久久综合狠狠躁 | 熟妇人妻无乱码中文字幕 | 天堂无码人妻精品一区二区三区 | 免费国产黄网站在线观看 | 婷婷色婷婷开心五月四房播播 | 精品欧美一区二区三区久久久 | 99精品无人区乱码1区2区3区 | 国产一区二区不卡老阿姨 | 久久99精品久久久久婷婷 | 久青草影院在线观看国产 | 国产精品a成v人在线播放 | 国产一区二区三区影院 | 精品国产麻豆免费人成网站 | 草草网站影院白丝内射 | 亚洲综合无码久久精品综合 | 国产精品视频免费播放 | 熟妇人妻激情偷爽文 | 日韩少妇内射免费播放 | 奇米影视7777久久精品人人爽 | 日韩人妻无码一区二区三区久久99 | 四虎4hu永久免费 | а天堂中文在线官网 | 蜜桃视频插满18在线观看 | 国产偷自视频区视频 | 久久精品无码一区二区三区 | 亚洲男女内射在线播放 | 无码福利日韩神码福利片 | 小sao货水好多真紧h无码视频 | 国产午夜手机精彩视频 | 人妻少妇被猛烈进入中文字幕 | 四虎影视成人永久免费观看视频 | 精品厕所偷拍各类美女tp嘘嘘 | 久久国产精品偷任你爽任你 | 色妞www精品免费视频 | 亚洲精品久久久久久久久久久 | 三级4级全黄60分钟 | 欧美日韩综合一区二区三区 | 在教室伦流澡到高潮hnp视频 | 精品熟女少妇av免费观看 | 成在人线av无码免观看麻豆 | 国内老熟妇对白xxxxhd | 亚洲国产精品一区二区美利坚 | 日日噜噜噜噜夜夜爽亚洲精品 | 麻豆人妻少妇精品无码专区 | 曰韩无码二三区中文字幕 | 夜夜影院未满十八勿进 | 999久久久国产精品消防器材 | 精品无码国产一区二区三区av | 无人区乱码一区二区三区 | 日韩欧美中文字幕在线三区 | 精品亚洲韩国一区二区三区 | 亚洲 a v无 码免 费 成 人 a v | 人妻插b视频一区二区三区 | 国产做国产爱免费视频 | 国产成人精品视频ⅴa片软件竹菊 | 国产亚洲欧美在线专区 | 一本久久a久久精品亚洲 | 高潮毛片无遮挡高清免费 | 久久成人a毛片免费观看网站 | 亚洲日韩乱码中文无码蜜桃臀网站 | 成年美女黄网站色大免费视频 | 狂野欧美性猛交免费视频 | 国产极品视觉盛宴 | 亚洲色欲色欲欲www在线 | 国产性生大片免费观看性 | 日日麻批免费40分钟无码 | 夫妻免费无码v看片 | 丰满护士巨好爽好大乳 | 国产成人精品无码播放 | 日本高清一区免费中文视频 | 欧美日本精品一区二区三区 | 免费看少妇作爱视频 | www国产亚洲精品久久久日本 | 久久www免费人成人片 | 欧美日本日韩 | 狂野欧美性猛xxxx乱大交 | 国产成人无码午夜视频在线观看 | 亚洲日韩av一区二区三区四区 | 久久人人97超碰a片精品 | 国产一区二区三区日韩精品 | 亚洲精品美女久久久久久久 | 久久精品国产一区二区三区 | 亚洲日本va午夜在线电影 | а√资源新版在线天堂 | 欧美性生交xxxxx久久久 | 中文字幕人妻无码一区二区三区 | 亚洲色大成网站www国产 | 久久99精品国产.久久久久 | 人人妻人人澡人人爽欧美一区 | 国产乱码精品一品二品 | 亚洲性无码av中文字幕 | 97资源共享在线视频 | 国产成人精品无码播放 | 波多野结衣乳巨码无在线观看 | 欧美丰满少妇xxxx性 | 人妻体内射精一区二区三四 | 久久99精品久久久久久 | 内射爽无广熟女亚洲 | 成人无码精品1区2区3区免费看 | 国产精品a成v人在线播放 | 高潮毛片无遮挡高清免费视频 | 最近的中文字幕在线看视频 | 乱码av麻豆丝袜熟女系列 | 亚洲人交乣女bbw | 婷婷色婷婷开心五月四房播播 | 激情爆乳一区二区三区 | 成人av无码一区二区三区 | 激情五月综合色婷婷一区二区 | 国产香蕉尹人视频在线 | 精品一二三区久久aaa片 | 国内精品久久久久久中文字幕 | 性做久久久久久久免费看 | 日日夜夜撸啊撸 | 亚洲中文字幕无码一久久区 | 精品熟女少妇av免费观看 | 精品久久久无码人妻字幂 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | av无码电影一区二区三区 | 色婷婷综合激情综在线播放 | 性欧美疯狂xxxxbbbb | 俺去俺来也www色官网 | 天天综合网天天综合色 | 夜精品a片一区二区三区无码白浆 | 无遮挡啪啪摇乳动态图 | 性欧美videos高清精品 | 国内精品一区二区三区不卡 | 国产精品无码成人午夜电影 | 对白脏话肉麻粗话av | 亚洲s码欧洲m码国产av | 午夜精品一区二区三区在线观看 | 国产精品亚洲а∨无码播放麻豆 | 亚洲一区二区三区播放 | 国产无套内射久久久国产 | 性史性农村dvd毛片 | 日韩欧美群交p片內射中文 | 亚洲精品成人av在线 | 国产精品久久精品三级 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 人人澡人人妻人人爽人人蜜桃 | 亚洲男人av天堂午夜在 | 永久免费精品精品永久-夜色 | 国产手机在线αⅴ片无码观看 | 强奷人妻日本中文字幕 | 中国女人内谢69xxxxxa片 | 精品一二三区久久aaa片 | 国产精品国产自线拍免费软件 | 国産精品久久久久久久 | 丰满岳乱妇在线观看中字无码 | 少妇高潮一区二区三区99 | 内射后入在线观看一区 | 免费无码的av片在线观看 | 国产亚洲精品久久久久久 | 欧美怡红院免费全部视频 | 国产精品久久久久影院嫩草 | 久久熟妇人妻午夜寂寞影院 | 一本大道伊人av久久综合 | 丰满岳乱妇在线观看中字无码 | 成人免费视频视频在线观看 免费 | 欧美变态另类xxxx | 国产精品久免费的黄网站 | 中文字幕无码免费久久9一区9 | 国产在线精品一区二区三区直播 | 性欧美大战久久久久久久 | 无码播放一区二区三区 | 精品国精品国产自在久国产87 | 亚洲狠狠婷婷综合久久 | 日韩精品一区二区av在线 | 一个人免费观看的www视频 | 红桃av一区二区三区在线无码av | 无码国内精品人妻少妇 | 在线观看欧美一区二区三区 | 秋霞成人午夜鲁丝一区二区三区 | 极品嫩模高潮叫床 | 亚洲欧美综合区丁香五月小说 | 精品国产一区二区三区四区 | 午夜熟女插插xx免费视频 | 少妇性l交大片欧洲热妇乱xxx | 国产综合色产在线精品 | 2020久久超碰国产精品最新 | 无码人妻久久一区二区三区不卡 | 欧美精品免费观看二区 | 欧美人与牲动交xxxx | 久久99久久99精品中文字幕 | 黑森林福利视频导航 | 中文字幕无线码 | 国产av一区二区三区最新精品 | 日本护士xxxxhd少妇 | 中文字幕无线码免费人妻 | 国产精品无码一区二区三区不卡 | 中文字幕亚洲情99在线 | 久久精品国产精品国产精品污 | 青草青草久热国产精品 | 97人妻精品一区二区三区 | 免费无码午夜福利片69 | 久精品国产欧美亚洲色aⅴ大片 | 免费中文字幕日韩欧美 | 久久国产劲爆∧v内射 | 免费观看的无遮挡av | 一二三四在线观看免费视频 | 亚洲成色www久久网站 | 亚洲七七久久桃花影院 | 亚洲精品欧美二区三区中文字幕 | 国产成人无码a区在线观看视频app | 国产综合色产在线精品 | 无码人妻久久一区二区三区不卡 | 中文字幕人成乱码熟女app | 真人与拘做受免费视频一 | 国产成人综合美国十次 | 午夜熟女插插xx免费视频 | 久久无码中文字幕免费影院蜜桃 | 亚洲中文字幕va福利 | 日本大香伊一区二区三区 | 久久99精品国产麻豆蜜芽 | 久久综合给合久久狠狠狠97色 | 免费中文字幕日韩欧美 | 成人欧美一区二区三区黑人免费 | 无码国产乱人伦偷精品视频 | 东京热男人av天堂 | 中文字幕av无码一区二区三区电影 | 婷婷五月综合缴情在线视频 | 精品无码av一区二区三区 | 性生交大片免费看女人按摩摩 | 蜜臀aⅴ国产精品久久久国产老师 | 高中生自慰www网站 | 日本xxxx色视频在线观看免费 | 爽爽影院免费观看 | 亚洲a无码综合a国产av中文 | 强伦人妻一区二区三区视频18 | 久久精品成人欧美大片 | 天天爽夜夜爽夜夜爽 | 奇米影视888欧美在线观看 | 国产人成高清在线视频99最全资源 | 精品一区二区三区无码免费视频 | 俺去俺来也www色官网 | 粗大的内捧猛烈进出视频 | 无码国产色欲xxxxx视频 | 国产特级毛片aaaaaa高潮流水 | 国产一区二区三区日韩精品 | 精品无码国产自产拍在线观看蜜 | 欧美怡红院免费全部视频 | 熟女少妇在线视频播放 | 国内揄拍国内精品人妻 | 久久 国产 尿 小便 嘘嘘 | 国产深夜福利视频在线 | 377p欧洲日本亚洲大胆 | 无遮无挡爽爽免费视频 | 丰满少妇高潮惨叫视频 | 又大又硬又爽免费视频 | 国产成人无码一二三区视频 | 131美女爱做视频 | 国产精品美女久久久久av爽李琼 | 色偷偷人人澡人人爽人人模 | 精品厕所偷拍各类美女tp嘘嘘 | 波多野结衣高清一区二区三区 | 噜噜噜亚洲色成人网站 | 日日噜噜噜噜夜夜爽亚洲精品 | 午夜精品一区二区三区在线观看 | 欧美老人巨大xxxx做受 | 亚洲国产av美女网站 | 粉嫩少妇内射浓精videos | 人人妻人人澡人人爽人人精品浪潮 | 婷婷五月综合缴情在线视频 | 欧美日韩在线亚洲综合国产人 | 中文字幕色婷婷在线视频 | 少妇厨房愉情理9仑片视频 | 老头边吃奶边弄进去呻吟 | 免费人成在线视频无码 | 久久五月精品中文字幕 | 青青青手机频在线观看 | 日韩欧美群交p片內射中文 | 熟妇激情内射com | 国产日产欧产精品精品app | 亚洲乱码日产精品bd | 久久精品99久久香蕉国产色戒 | 国产内射爽爽大片视频社区在线 | 女人被爽到呻吟gif动态图视看 | 少妇邻居内射在线 | 无码成人精品区在线观看 | 精品夜夜澡人妻无码av蜜桃 | 精品国产一区二区三区四区 | 丰满诱人的人妻3 | 国产黑色丝袜在线播放 | 免费男性肉肉影院 | 色五月丁香五月综合五月 | a片免费视频在线观看 | 日日摸夜夜摸狠狠摸婷婷 | 国产精品福利视频导航 | 国产偷国产偷精品高清尤物 | 天天躁日日躁狠狠躁免费麻豆 | 欧美性生交xxxxx久久久 | 精品国偷自产在线视频 | 无码人中文字幕 | 好爽又高潮了毛片免费下载 | 久久午夜无码鲁丝片 | 国产精品久久国产三级国 | 无码福利日韩神码福利片 | 国产精品对白交换视频 | 亚洲国产欧美日韩精品一区二区三区 | 久在线观看福利视频 | 双乳奶水饱满少妇呻吟 | 爽爽影院免费观看 | 日本大乳高潮视频在线观看 | 欧美人与善在线com | 中文字幕亚洲情99在线 | 国产午夜精品一区二区三区嫩草 | 久久精品成人欧美大片 | а天堂中文在线官网 | 午夜福利不卡在线视频 | 99视频精品全部免费免费观看 | 天堂久久天堂av色综合 | 久久精品丝袜高跟鞋 | 亚洲熟妇色xxxxx欧美老妇 | 乱中年女人伦av三区 | 欧美激情综合亚洲一二区 | 男女作爱免费网站 | 18精品久久久无码午夜福利 | 任你躁国产自任一区二区三区 | 国产一区二区不卡老阿姨 | 人妻少妇精品视频专区 | 国产亚洲精品久久久久久久久动漫 | 性欧美疯狂xxxxbbbb | 国内少妇偷人精品视频免费 | 久久精品国产日本波多野结衣 | 亚洲欧美日韩综合久久久 | 久久久久久久女国产乱让韩 | 国内精品九九久久久精品 | 久久精品女人天堂av免费观看 | 欧美老妇与禽交 | 精品国产av色一区二区深夜久久 | 国产精品福利视频导航 |