久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Kaggle实战:点击率预估

發(fā)布時間:2024/1/23 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Kaggle实战:点击率预估 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

版權聲明:本文出自程世東的知乎,原創(chuàng)文章,轉載請注明出處:Kaggle實戰(zhàn)——點擊率預估。

請安裝TensorFlow1.0,Python3.5

項目地址:?chengstone/kaggle_criteo_ctr_challenge-

點擊率預估用來判斷一條廣告被用戶點擊的概率,對每次廣告的點擊做出預測,把用戶最有可能點擊的廣告找出來,是廣告技術最重要的算法之一。

數據集下載

這次我們使用Kaggle上的Display Advertising Challenge挑戰(zhàn)的criteo數據集。

下載數據集請在終端輸入下面命令(腳本文件路徑:./data/download.sh):

wget --no-check-certificate?https://s3-eu-west-1.amazonaws.com/criteo-labs/dac.tar.gz

tar zxf dac.tar.gz

rm -f dac.tar.gz

mkdir raw

mv ./*.txt raw/

解壓縮以后,train.txt文件11.7G,test.txt文件1.35G。

數據量太大了,我們只使用前100萬條數據。

head -n 1000000 test.txt > test_sub100w.txt

head -n 1000000 train.txt > train_sub100w.txt

然后將文件名重新命名為train.txt和test.txt,文件位置不變。

Data fields

Label

  • Target variable that indicates if an ad was clicked (1) or not (0).

I1-I13

  • A total of 13 columns of integer features (mostly count features).

C1-C26

  • A total of 26 columns of categorical features. The values of these features have been hashed onto 32 bits for anonymization purposes.

數據中含有Label字段,表示這條廣告是否被點擊,I1-I13一共13個數值特征(Dense Input),C1-C26共26個Categorical類別特征(Sparse Input)。

網絡模型

模型包含三部分網絡,一個是FFM(Field-aware Factorization Machines),一個是FM(Factorization Machine),另一個是DNN,其中FM網絡包含GBDT和FM兩個組件。通常在數據預處理的部分,需要做特征交叉組合等特征工程,以便找出幫助我們預測的特征出來,這絕對是技術活。

這次我們跳過特征工程的步驟,把這些組件和深度神經網絡組合在一起,將挑選特征的工作交給模型來處理。其中FFM使用了LibFFM,FM使用了LibFM,GBDT使用了LightGBM,當然你也可以使用xgboost。

GBDT

給入訓練數據后,GBDT會訓練出若干棵樹,我們要使用的是GBDT中每棵樹輸出的葉子結點,將這些葉子結點作為categorical類別特征輸入給FM。有關決策樹的使用,請參照Facebook的這篇文章Practical Lessons from Predicting Clicks on Ads at Facebook。

FM

FM用來解決數據量大并且特征稀疏下的特征組合問題,先來看看公式(只考慮二階多項式的情況):n代表樣本的特征數量,??是第i個特征的值,??是模型參數。

從公式可以看出來這是在線性模型基礎上,添加了特征組合??,當然只有在特征??和?都不為0時才有意義。然而在實際的應用場景中,訓練組合特征的參數是很困難的。因為輸入數據普遍存在稀疏性,這導致??和??大部分情況都是0,而組合特征的參數??只有在特征不為0時才能訓練出有意義的值。

比如跟購物相關的特征中,女性可能會更關注化妝品或者首飾之類的物品,而男性可能更關注體育用品或者電子產品等商品,這說明特征組合訓練是有意義的。而商品特征可能存在幾百上千種分類,通常我們將類別特征轉成One hot編碼的形式,這樣一個特征就要變成幾百維的特征,再加上其他的分類特征,這導致輸入的特征空間急劇膨脹,所以數據的稀疏性是實際問題中不可避免的挑戰(zhàn)。

為了解決二次項參數訓練的問題,引入了矩陣分解的概念。在上一篇文章中我們討論的是電影推薦系統(tǒng),我們構造了用戶特征向量和電影特征向量,通過兩個特征向量的點積得到了用戶對于某部電影的評分。如果將用戶特征矩陣與電影特征矩陣相乘就會得到所有用戶對所有影片的評分矩陣。

如果將上面的過程反過來看,實際上對于評分矩陣,我們可以分解成用戶矩陣和電影矩陣,而評分矩陣中每一個數據點就相當于上面討論的組合特征的參數??。

對于參數矩陣W,我們采用矩陣分解的方法,將每一個參數??分解成兩個向量(稱之為隱向量)的點積。這樣矩陣就可以分解為??,而每個參數??,??是第i維特征的隱向量,這樣FM的二階公式就變成:

這就是FM模型的思想。

將GBDT輸出的葉子節(jié)點作為訓練數據的輸入,來訓練FM模型。這樣對于我們的FM網絡,需要訓練GBDT和FM。看得出來,這次我們的點擊率預測網絡要復雜了許多,影響最終結果的因素和超參更多了。關于FM和GBDT兩個組件的訓練我們會在下文進行說明。

FFM

接下來需要訓練FFM模型。FFM在FM的基礎上增加了一個Field的概念,比如說一個商品字段,是一個分類特征,可以分成很多不同的feature,但是這些feature都屬于同一個Field,或者說同一個categorical的分類特征都可以放到同一個Field。

這可以看成是1對多的關系,打個比方,比如職業(yè)字段,這是一個特征,經過One Hot以后,變成了N個特征。那這N個特征其實都屬于職業(yè),所以職業(yè)就是一個Field。

我們要通過特征組合來訓練隱向量,這樣每一維特征??,都會與其他特征的每一種Field??學習一個隱向量??。也就是說,隱向量不僅與特征有關,還與Field有關。模型的公式:

DNN

我們來看DNN的部分。將輸入數據分成兩部分,一部分是數值特征(Dense Input),一部分是類別特征(Sparse Input)。我們仍然不適用One Hot編碼,將類別特征傳入嵌入層,得到多個嵌入向量,再將這些嵌入向量和數值特征連接在一起,傳入全連接層,一共連接三層全連接層,使用Relu激活函數。然后再將第三層全連接的輸出和FFM、FM的全連接層的輸出連接在一起,傳入最后一層全連接層。

我們要學習的目標Label表示廣告是否被點擊了,只有1(點擊)和0(沒有點擊)兩種狀態(tài)。所以我們網絡的最后一層要做Logistic回歸,在最后一層全連接層使用Sigmoid激活函數,得到廣告被點擊的概率。

使用LogLoss作為損失函數,FTRL作為學習算法。

FTRL有關的Paper:Ad_click_prediction_a_view_from_the_trenches

LibFFM和LibFM的代碼我做了修改,請使用代碼庫中我的相關代碼。

預處理數據集

?

  • 生成神經網絡的輸入
  • 生成FFM的輸入
  • 生成GBDT的輸入

首先要為DNN、FFM和GBDT的輸入做預處理。對于數值特征,我們將I1-I13轉成0-1之間的小數。類別特征我們將某類別使用次數少于cutoff(超參)的忽略掉,留下使用次數多的feature作為某類別字段的特征,然后將這些特征以各自字段為組進行編號。

比如有C1和C2兩個類別字段,C1下面有特征a(大于cutoff次)、b(少于cutoff次)、c(大于cutoff次),C2下面有特征x和y(均大于cutoff次),這樣留下來的特征就是C1:a、c和C2:x、y。然后以各自字段為分組進行編號,對于C1字段,a和c的特征id對應0和1;對于C2字段,x和y也是0和1。

對于類別特征的輸入數據處理,FFM和GBDT各不相同,我們分別來說。

GBDT

GBDT的處理要簡單一些,C1-C26每個字段各自的特征id值作為輸入即可。 GBDT的輸入數據格式是:Label I1-I13 C1-C26 所以實際輸入可能是這樣:0 小數1 小數2 ~ 小數13 1(C1特征Id) 0(C2特征Id) ~ C26特征Id 其中C1特征Id是1,說明此處C1字段的feature是c,而C2字段的feature是x。

下面是一段生成的真實數據: 0 0.05 0.004983 0.05 0 0.021594 0.008 0.15 0.04 0.362 0.166667 0.2 0 0.04 2 3 0 0 1 1 0 3 1 0 0 0 0 3 0 0 1 4 1 3 0 0 2 0 1 0

很抱歉,我的造句能力實在很差,要是上面一段文字看的你很混亂的話,那就直接看代碼吧:)

FFM

FFM的輸入數據要復雜一些,詳細可以參看官方Github上的說明,摘抄如下:

It is important to understand the difference between?field?and?feature. For example, if we have a raw data like this:

Click Advertiser Publisher ===== ========== ========= 0 Nike CNN 1 ESPN BBC

Here, we have

* 2 fields: Advertiser and Publisher * 4 features: Advertiser-Nike, Advertiser-ESPN, Publisher-CNN, Publisher-BBC

Usually you will need to build two dictionares, one for field and one for features, like this:

DictField[Advertiser] -> 0 DictField[Publisher] -> 1DictFeature[Advertiser-Nike] -> 0 DictFeature[Publisher-CNN] -> 1 DictFeature[Advertiser-ESPN] -> 2 DictFeature[Publisher-BBC] -> 3

Then, you can generate FFM format data:

0 0:0:1 1:1:1 1 0:2:1 1:3:1

Note that because these features are categorical, the values here are all ones.

fields應該很好理解,features的劃分跟之前GBDT有些不一樣,在剛剛GBDT的處理中我們是每個類別內獨立編號,C1有features 0~n,C2有features 0~n。而這次FFM是所有的features統(tǒng)一起來編號。你看它的例子,C1是Advertiser,有兩個feature,C2是Publisher,有兩個feature,統(tǒng)一起來編號就是0~3。而在GBDT我們要獨立編號的,看起來像這樣:

DictFeature[Advertiser-Nike] -> 0 DictFeature[Advertiser-ESPN] -> 1 DictFeature[Publisher-CNN] -> 0 DictFeature[Publisher-BBC] -> 1

現在我們假設有第三條數據,看看如何構造FFM的輸入數據:

Click Advertiser Publisher ===== ========== ========= 0 Nike CNN 1 ESPN BBC 0 Lining CNN

按照規(guī)則,應該是像下面這樣:

DictFeature[Advertiser-Nike] -> 0 DictFeature[Publisher-CNN] -> 1 DictFeature[Advertiser-ESPN] -> 2 DictFeature[Publisher-BBC] -> 3 DictFeature[Advertiser-Lining] -> 4

在我們這次FFM的輸入數據處理中,跟上面略有些區(qū)別,每個類別編號以后,下一個類別繼續(xù)編號,所以最終的features編號是這樣的:

DictFeature[Advertiser-Nike] -> 0 DictFeature[Advertiser-ESPN] -> 1 DictFeature[Advertiser-Lining] -> 2 DictFeature[Publisher-CNN] -> 3 DictFeature[Publisher-BBC] -> 4

對于我們的數據是從I1開始編號的,從I1-I13,所以C1的編號要從加13開始。

這是一條來自真實的FFM輸入數據: 0 0:0:0.05 1:1:0.004983 2:2:0.05 3:3:0 4:4:0.021594 5:5:0.008 6:6:0.15 7:7:0.04 8:8:0.362 9:9:0.166667 10:10:0.2 11:11:0 12:12:0.04 13:15:1 14:29:1 15:64:1 16:76:1 17:92:1 18:101:1 19:107:1 20:122:1 21:131:1 22:133:1 23:143:1 24:166:1 25:179:1 26:209:1 27:216:1 28:243:1 29:260:1 30:273:1 31:310:1 32:317:1 33:318:1 34:333:1 35:340:1 36:348:1 37:368:1 38:381:1

DNN

DNN的輸入數據就沒有那么復雜了,仍然是I1-I13的小數和C1-C26的統(tǒng)一編號,就像FFM一樣,只是不需要從加13開始,最后是Label。

真實數據就像這樣:

0.05,0.004983,0.05,0,0.021594,0.008,0.15,0.04,0.362,0.166667,0.2,0,0.04,2,16,51,63,79,88,94,109,118,120,130,153,166,196,203,230,247,260,297,304,305,320,327,335,355,368,0

要說明的就這么多了,我們來看看代碼吧,因為要同時生成訓練數據、驗證數據和測試數據,所以要運行一段時間。

核心代碼講解

完整代碼請參見項目地址

以下代碼來自百度deep_fm的preprocess.py,稍稍添了些代碼,我就不重復造輪子了:)

# There are 13 integer features and 26 categorical features continous_features = range(1, 14) categorial_features = range(14, 40)# Clip integer features. The clip point for each integer feature # is derived from the 95% quantile of the total values in each feature continous_clip = [20, 600, 100, 50, 64000, 500, 100, 50, 500, 10, 10, 10, 50]class ContinuousFeatureGenerator:"""Normalize the integer features to [0, 1] by min-max normalization"""def __init__(self, num_feature):self.num_feature = num_featureself.min = [sys.maxsize] * num_featureself.max = [-sys.maxsize] * num_featuredef build(self, datafile, continous_features):with open(datafile, 'r') as f:for line in f:features = line.rstrip('\n').split('\t')for i in range(0, self.num_feature):val = features[continous_features[i]]if val != '':val = int(val)if val > continous_clip[i]:val = continous_clip[i]self.min[i] = min(self.min[i], val)self.max[i] = max(self.max[i], val)def gen(self, idx, val):if val == '':return 0.0val = float(val)return (val - self.min[idx]) / (self.max[idx] - self.min[idx])class CategoryDictGenerator:"""Generate dictionary for each of the categorical features"""def __init__(self, num_feature):self.dicts = []self.num_feature = num_featurefor i in range(0, num_feature):self.dicts.append(collections.defaultdict(int))def build(self, datafile, categorial_features, cutoff=0):with open(datafile, 'r') as f:for line in f:features = line.rstrip('\n').split('\t')for i in range(0, self.num_feature):if features[categorial_features[i]] != '':self.dicts[i][features[categorial_features[i]]] += 1for i in range(0, self.num_feature):self.dicts[i] = filter(lambda x: x[1] >= cutoff,self.dicts[i].items())self.dicts[i] = sorted(self.dicts[i], key=lambda x: (-x[1], x[0]))vocabs, _ = list(zip(*self.dicts[i]))self.dicts[i] = dict(zip(vocabs, range(1, len(vocabs) + 1)))self.dicts[i]['<unk>'] = 0def gen(self, idx, key):if key not in self.dicts[idx]:res = self.dicts[idx]['<unk>']else:res = self.dicts[idx][key]return resdef dicts_sizes(self):return list(map(len, self.dicts))def preprocess(datadir, outdir):"""All the 13 integer features are normalzied to continous values and thesecontinous features are combined into one vecotr with dimension 13.Each of the 26 categorical features are one-hot encoded and all the one-hotvectors are combined into one sparse binary vector."""dists = ContinuousFeatureGenerator(len(continous_features))dists.build(os.path.join(datadir, 'train.txt'), continous_features)dicts = CategoryDictGenerator(len(categorial_features))dicts.build(os.path.join(datadir, 'train.txt'), categorial_features, cutoff=200)#200 50dict_sizes = dicts.dicts_sizes()categorial_feature_offset = [0]for i in range(1, len(categorial_features)):offset = categorial_feature_offset[i - 1] + dict_sizes[i - 1]categorial_feature_offset.append(offset)random.seed(0)# 90% of the data are used for training, and 10% of the data are used# for validation.train_ffm = open(os.path.join(outdir, 'train_ffm.txt'), 'w')valid_ffm = open(os.path.join(outdir, 'valid_ffm.txt'), 'w')train_lgb = open(os.path.join(outdir, 'train_lgb.txt'), 'w')valid_lgb = open(os.path.join(outdir, 'valid_lgb.txt'), 'w')with open(os.path.join(outdir, 'train.txt'), 'w') as out_train:with open(os.path.join(outdir, 'valid.txt'), 'w') as out_valid:with open(os.path.join(datadir, 'train.txt'), 'r') as f:for line in f:features = line.rstrip('\n').split('\t')continous_feats = []continous_vals = []for i in range(0, len(continous_features)):val = dists.gen(i, features[continous_features[i]])continous_vals.append("{0:.6f}".format(val).rstrip('0').rstrip('.'))continous_feats.append("{0:.6f}".format(val).rstrip('0').rstrip('.'))#('{0}'.format(val))categorial_vals = []categorial_lgb_vals = []for i in range(0, len(categorial_features)):val = dicts.gen(i, features[categorial_features[i]]) + categorial_feature_offset[i]categorial_vals.append(str(val))val_lgb = dicts.gen(i, features[categorial_features[i]])categorial_lgb_vals.append(str(val_lgb))continous_vals = ','.join(continous_vals)categorial_vals = ','.join(categorial_vals)label = features[0]if random.randint(0, 9999) % 10 != 0:out_train.write(','.join([continous_vals, categorial_vals, label]) + '\n')train_ffm.write('\t'.join(label) + '\t')train_ffm.write('\t'.join(['{}:{}:{}'.format(ii, ii, val) for ii,val in enumerate(continous_vals.split(','))]) + '\t')train_ffm.write('\t'.join(['{}:{}:1'.format(ii + 13, str(np.int32(val) + 13)) for ii, val in enumerate(categorial_vals.split(','))]) + '\n')train_lgb.write('\t'.join(label) + '\t')train_lgb.write('\t'.join(continous_feats) + '\t')train_lgb.write('\t'.join(categorial_lgb_vals) + '\n')else:out_valid.write(','.join([continous_vals, categorial_vals, label]) + '\n')valid_ffm.write('\t'.join(label) + '\t')valid_ffm.write('\t'.join(['{}:{}:{}'.format(ii, ii, val) for ii,val in enumerate(continous_vals.split(','))]) + '\t')valid_ffm.write('\t'.join(['{}:{}:1'.format(ii + 13, str(np.int32(val) + 13)) for ii, val in enumerate(categorial_vals.split(','))]) + '\n')valid_lgb.write('\t'.join(label) + '\t')valid_lgb.write('\t'.join(continous_feats) + '\t')valid_lgb.write('\t'.join(categorial_lgb_vals) + '\n')train_ffm.close()valid_ffm.close()train_lgb.close()valid_lgb.close()test_ffm = open(os.path.join(outdir, 'test_ffm.txt'), 'w')test_lgb = open(os.path.join(outdir, 'test_lgb.txt'), 'w')with open(os.path.join(outdir, 'test.txt'), 'w') as out:with open(os.path.join(datadir, 'test.txt'), 'r') as f:for line in f:features = line.rstrip('\n').split('\t')continous_feats = []continous_vals = []for i in range(0, len(continous_features)):val = dists.gen(i, features[continous_features[i] - 1])continous_vals.append("{0:.6f}".format(val).rstrip('0').rstrip('.'))continous_feats.append("{0:.6f}".format(val).rstrip('0').rstrip('.'))#('{0}'.format(val))categorial_vals = []categorial_lgb_vals = []for i in range(0, len(categorial_features)):val = dicts.gen(i,features[categorial_features[i] -1]) + categorial_feature_offset[i]categorial_vals.append(str(val))val_lgb = dicts.gen(i, features[categorial_features[i] - 1])categorial_lgb_vals.append(str(val_lgb))continous_vals = ','.join(continous_vals)categorial_vals = ','.join(categorial_vals)out.write(','.join([continous_vals, categorial_vals]) + '\n')test_ffm.write('\t'.join(['{}:{}:{}'.format(ii, ii, val) for ii,val in enumerate(continous_vals.split(','))]) + '\t')test_ffm.write('\t'.join(['{}:{}:1'.format(ii + 13, str(np.int32(val) + 13)) for ii, val in enumerate(categorial_vals.split(','))]) + '\n')test_lgb.write('\t'.join(continous_feats) + '\t')test_lgb.write('\t'.join(categorial_lgb_vals) + '\n')test_ffm.close()test_lgb.close()return dict_sizes

訓練FFM

數據準備好了,開始調用LibFFM,訓練FFM模型。

learning rate是0.1,迭代32次,訓練好后保存的模型文件是model_ffm。

import subprocess, sys, os, timeNR_THREAD = 1 cmd = './libffm/libffm/ffm-train --auto-stop -r 0.1 -t 32 -s {nr_thread} -p ./data/valid_ffm.txt ./data/train_ffm.txt model_ffm'.format(nr_thread=NR_THREAD) os.popen(cmd).readlines()

訓練結果:

['First check if the text file has already been converted to binary format (1.3 seconds)\n','Binary file found. Skip converting text to binary\n','First check if the text file has already been converted to binary format (0.2 seconds)\n','Binary file found. Skip converting text to binary\n','iter tr_logloss va_logloss tr_time\n',' 1 0.49339 0.48196 12.8\n',' 2 0.47621 0.47651 25.9\n',' 3 0.47149 0.47433 39.0\n',' 4 0.46858 0.47277 51.2\n',' 5 0.46630 0.47168 63.0\n',' 6 0.46447 0.47092 74.7\n',' 7 0.46269 0.47038 86.4\n',' 8 0.46113 0.47000 98.0\n',' 9 0.45960 0.46960 109.6\n',' 10 0.45811 0.46940 121.2\n',' 11 0.45660 0.46913 132.5\n',' 12 0.45509 0.46899 144.3\n',' 13 0.45366 0.46903\n','Auto-stop. Use model at 12th iteration.\n']

FFM模型訓練好了,我們把訓練、驗證和測試數據輸入給FFM,得到FFM層的輸出,輸出的文件名為*.out.logit

cmd = './libffm/libffm/ffm-predict ./data/train_ffm.txt model_ffm tr_ffm.out'.format(nr_thread=NR_THREAD) os.popen(cmd).readlines() cmd = './libffm/libffm/ffm-predict ./data/valid_ffm.txt model_ffm va_ffm.out'.format(nr_thread=NR_THREAD) os.popen(cmd).readlines() cmd = './libffm/libffm/ffm-predict ./data/test_ffm.txt model_ffm te_ffm.out true'.format(nr_thread=NR_THREAD) os.popen(cmd).readlines()

訓練GBDT

現在調用LightGBM訓練GBDT模型,因為決策樹較容易過擬合,我們設置樹的個數為32,葉子節(jié)點數設為30,深度就不設置了,學習率設為0.05。

def lgb_pred(tr_path, va_path, _sep = '\t', iter_num = 32):# load or create your datasetprint('Load data...')df_train = pd.read_csv(tr_path, header=None, sep=_sep)df_test = pd.read_csv(va_path, header=None, sep=_sep)y_train = df_train[0].valuesy_test = df_test[0].valuesX_train = df_train.drop(0, axis=1).valuesX_test = df_test.drop(0, axis=1).values# create dataset for lightgbmlgb_train = lgb.Dataset(X_train, y_train)lgb_eval = lgb.Dataset(X_test, y_test, reference=lgb_train)# specify your configurations as a dictparams = {'task': 'train','boosting_type': 'gbdt','objective': 'binary','metric': {'l2', 'auc', 'logloss'},'num_leaves': 30, # 'max_depth': 7,'num_trees': 32,'learning_rate': 0.05,'feature_fraction': 0.9,'bagging_fraction': 0.8,'bagging_freq': 5,'verbose': 0}print('Start training...')# traingbm = lgb.train(params,lgb_train,num_boost_round=iter_num,valid_sets=lgb_eval,feature_name=["I1","I2","I3","I4","I5","I6","I7","I8","I9","I10","I11","I12","I13","C1","C2","C3","C4","C5","C6","C7","C8","C9","C10","C11","C12","C13","C14","C15","C16","C17","C18","C19","C20","C21","C22","C23","C24","C25","C26"],categorical_feature=["C1","C2","C3","C4","C5","C6","C7","C8","C9","C10","C11","C12","C13","C14","C15","C16","C17","C18","C19","C20","C21","C22","C23","C24","C25","C26"],early_stopping_rounds=5)print('Save model...')# save model to filegbm.save_model('lgb_model.txt')print('Start predicting...')# predicty_pred = gbm.predict(X_test, num_iteration=gbm.best_iteration)# evalprint('The rmse of prediction is:', mean_squared_error(y_test, y_pred) ** 0.5)return gbm,y_pred,X_train,y_train

訓練結果:

[1] valid_0's l2: 0.241954 valid_0's auc: 0.70607 Training until validation scores don't improve for 5 rounds. [2] valid_0's l2: 0.234704 valid_0's auc: 0.715608 [3] valid_0's l2: 0.228139 valid_0's auc: 0.717791 [4] valid_0's l2: 0.222168 valid_0's auc: 0.72273 [5] valid_0's l2: 0.216728 valid_0's auc: 0.724065 [6] valid_0's l2: 0.211819 valid_0's auc: 0.725036 [7] valid_0's l2: 0.207316 valid_0's auc: 0.727427 [8] valid_0's l2: 0.203296 valid_0's auc: 0.728583 [9] valid_0's l2: 0.199582 valid_0's auc: 0.730092 [10] valid_0's l2: 0.196185 valid_0's auc: 0.730792 [11] valid_0's l2: 0.193063 valid_0's auc: 0.732316 [12] valid_0's l2: 0.190268 valid_0's auc: 0.733773 [13] valid_0's l2: 0.187697 valid_0's auc: 0.734782 [14] valid_0's l2: 0.185351 valid_0's auc: 0.735636 [15] valid_0's l2: 0.183215 valid_0's auc: 0.736346 [16] valid_0's l2: 0.181241 valid_0's auc: 0.737393 [17] valid_0's l2: 0.179468 valid_0's auc: 0.737709 [18] valid_0's l2: 0.177829 valid_0's auc: 0.739096 [19] valid_0's l2: 0.176326 valid_0's auc: 0.740135 [20] valid_0's l2: 0.174948 valid_0's auc: 0.741065 [21] valid_0's l2: 0.173675 valid_0's auc: 0.742165 [22] valid_0's l2: 0.172499 valid_0's auc: 0.742672 [23] valid_0's l2: 0.171471 valid_0's auc: 0.743246 [24] valid_0's l2: 0.17045 valid_0's auc: 0.744415 [25] valid_0's l2: 0.169582 valid_0's auc: 0.744792 [26] valid_0's l2: 0.168746 valid_0's auc: 0.745478 [27] valid_0's l2: 0.167966 valid_0's auc: 0.746282 [28] valid_0's l2: 0.167264 valid_0's auc: 0.74675 [29] valid_0's l2: 0.166582 valid_0's auc: 0.747429 [30] valid_0's l2: 0.16594 valid_0's auc: 0.748392 [31] valid_0's l2: 0.165364 valid_0's auc: 0.748986 [32] valid_0's l2: 0.164844 valid_0's auc: 0.749362 Did not meet early stopping. Best iteration is: [32] valid_0's l2: 0.164844 valid_0's auc: 0.749362 Save model... Start predicting... The rmse of prediction is: 0.406009502303

我們把每個特征的重要程度排個序看看

def ret_feat_impt(gbm):gain = gbm.feature_importance("gain").reshape(-1, 1) / sum(gbm.feature_importance("gain"))col = np.array(gbm.feature_name()).reshape(-1, 1)return sorted(np.column_stack((col, gain)),key=lambda x: x[1],reverse=True)[array(['I6', '0.1978774213012332'],dtype='<U32'), array(['I11', '0.1892171073393491'],dtype='<U32'), array(['C13', '0.09876586224832032'],dtype='<U32'), array(['I7', '0.09328723289667494'],dtype='<U32'), array(['C15', '0.07837089393651243'],dtype='<U32'), array(['I1', '0.06896606612740637'],dtype='<U32'), array(['C18', '0.03397325870627491'],dtype='<U32'), array(['C4', '0.03194220375573926'],dtype='<U32'), array(['I13', '0.027751948092299045'],dtype='<U32'), array(['C14', '0.022884477973766117'],dtype='<U32'), array(['C17', '0.01758709018584479'],dtype='<U32'), array(['I3', '0.01745531293913725'],dtype='<U32'), array(['C24', '0.015748415135270675'],dtype='<U32'), array(['C7', '0.014203757070472703'],dtype='<U32'), array(['I8', '0.013413268591324624'],dtype='<U32'), array(['C11', '0.012366386458128355'],dtype='<U32'), array(['C10', '0.011022221770323784'],dtype='<U32'), array(['I5', '0.01042866903792042'],dtype='<U32'), array(['C16', '0.010389410428237439'],dtype='<U32'), array(['I9', '0.009918639946598076'],dtype='<U32'), array(['C2', '0.006787009911825981'],dtype='<U32'), array(['C12', '0.005168884905437884'],dtype='<U32'), array(['I4', '0.00468917800335175'],dtype='<U32'), array(['C26', '0.003364625407413743'],dtype='<U32'), array(['C23', '0.0031263193710805628'],dtype='<U32'), array(['C21', '0.0008737398560005959'],dtype='<U32'), array(['C19', '0.00042059860405565207'],dtype='<U32'), array(['I2', '0.0'],dtype='<U32'), array(['I10', '0.0'],dtype='<U32'), array(['I12', '0.0'],dtype='<U32'), array(['C1', '0.0'],dtype='<U32'), array(['C3', '0.0'],dtype='<U32'), array(['C5', '0.0'],dtype='<U32'), array(['C6', '0.0'],dtype='<U32'), array(['C8', '0.0'],dtype='<U32'), array(['C9', '0.0'],dtype='<U32'), array(['C20', '0.0'],dtype='<U32'), array(['C22', '0.0'],dtype='<U32'), array(['C25', '0.0'],dtype='<U32')]

通過eli5分析參數

import eli5 from sklearn.feature_extraction import DictVectorizer from sklearn.pipeline import make_pipeline from sklearn.model_selection import cross_val_scorefrom sklearn.utils import shuffle from sklearn.model_selection import train_test_split import csv import numpy as npwith open('./data/train_eli5.csv', 'rt') as f:data = list(csv.DictReader(f))_all_xs = [{k: v for k, v in row.items() if k != 'clicked'} for row in data] _all_ys = np.array([int(row['clicked']) for row in data])all_xs, all_ys = shuffle(_all_xs, _all_ys, random_state=0) train_xs, valid_xs, train_ys, valid_ys = train_test_split(all_xs, all_ys, test_size=0.25, random_state=0) print('{} items total, {:.1%} true'.format(len(all_xs), np.mean(all_ys)))# from xgboost import XGBClassifier import warnings # xgboost <= 0.6a2 shows a warning when used with scikit-learn 0.18+ warnings.filterwarnings('ignore', category=UserWarning) class CSCTransformer:def transform(self, xs):# work around https://github.com/dmlc/xgboost/issues/1238#issuecomment-243872543return xs.tocsc()def fit(self, *args):return selfclf = lgb.LGBMClassifier() vec = DictVectorizer() pipeline = make_pipeline(vec, CSCTransformer(), clf)def evaluate(_clf):scores = cross_val_score(_clf, all_xs, all_ys, scoring='accuracy', cv=10)print('Accuracy: {:.3f} ± {:.3f}'.format(np.mean(scores), 2 * np.std(scores)))_clf.fit(train_xs, train_ys) # so that parts of the original pipeline are fittedevaluate(pipeline)booster = clf.booster_ #如果運行出錯請使用這句clf.booster() original_feature_names = booster.feature_name booster.feature_names = vec.get_feature_names() # recover original feature names booster.feature_names = original_feature_names

輸出結果:

899991 items total, 25.5% true Accuracy: 0.776 ± 0.003

?

from eli5 import show_weights show_weights(clf, vec=vec)

from eli5 import show_prediction show_prediction(clf, valid_xs[1], vec=vec, show_feature_values=True)

用LightGBM的輸出生成FM數據

數據格式請參見libFM 1.4.2 manual中的說明,截取文檔中的格式說明如下:

GBDT已經訓練好了,我們需要GBDT輸出的葉子節(jié)點作為輸入數據X傳給FM,一共30個葉子節(jié)點,那么輸入給FM的數據格式就是X中不是0的數據的index:value。

一段真實數據如下:0 0:31 1:61 2:93 3:108 4:149 5:182 6:212 7:242 8:277 9:310 10:334 11:365 12:401 13:434 14:465 15:491 16:527 17:552 18:589 19:619 20:648 21:678 22:697 23:744 24:770 25:806 26:826 27:862 28:899 29:928 30:955 31:988

?

def generat_lgb2fm_data(outdir, gbm, dump, tr_path, va_path, te_path, _sep = '\t'):with open(os.path.join(outdir, 'train_lgb2fm.txt'), 'w') as out_train:with open(os.path.join(outdir, 'valid_lgb2fm.txt'), 'w') as out_valid:with open(os.path.join(outdir, 'test_lgb2fm.txt'), 'w') as out_test:df_train_ = pd.read_csv(tr_path, header=None, sep=_sep)df_valid_ = pd.read_csv(va_path, header=None, sep=_sep)df_test_= pd.read_csv(te_path, header=None, sep=_sep)y_train_ = df_train_[0].valuesy_valid_ = df_valid_[0].values X_train_ = df_train_.drop(0, axis=1).valuesX_valid_ = df_valid_.drop(0, axis=1).valuesX_test_= df_test_.valuestrain_leaves= gbm.predict(X_train_, num_iteration=gbm.best_iteration, pred_leaf=True)valid_leaves= gbm.predict(X_valid_, num_iteration=gbm.best_iteration, pred_leaf=True)test_leaves= gbm.predict(X_test_, num_iteration=gbm.best_iteration, pred_leaf=True)tree_info = dump['tree_info']tree_counts = len(tree_info)for i in range(tree_counts):train_leaves[:, i] = train_leaves[:, i] + tree_info[i]['num_leaves'] * i + 1valid_leaves[:, i] = valid_leaves[:, i] + tree_info[i]['num_leaves'] * i + 1test_leaves[:, i] = test_leaves[:, i] + tree_info[i]['num_leaves'] * i + 1 # print(train_leaves[:, i]) # print(tree_info[i]['num_leaves'])for idx in range(len(y_train_)): out_train.write((str(y_train_[idx]) + '\t'))out_train.write('\t'.join(['{}:{}'.format(ii, val) for ii,val in enumerate(train_leaves[idx]) if float(val) != 0 ]) + '\n')for idx in range(len(y_valid_)): out_valid.write((str(y_valid_[idx]) + '\t'))out_valid.write('\t'.join(['{}:{}'.format(ii, val) for ii,val in enumerate(valid_leaves[idx]) if float(val) != 0 ]) + '\n')for idx in range(len(X_test_)): out_test.write('\t'.join(['{}:{}'.format(ii, val) for ii,val in enumerate(test_leaves[idx]) if float(val) != 0 ]) + '\n')

訓練FM

為訓練FM的數據已經準備好了,我們調用LibFM進行訓練。

迭代64次,使用sgd訓練,學習率是0.00000001,訓練好的模型保存為文件fm_model。

訓練輸出的log,Train和Test的數值不是loss,是accuracy。

cmd = './libfm/libfm/bin/libFM -task c -train ./data/train_lgb2fm.txt -test ./data/valid_lgb2fm.txt -dim ’1,1,8’ -iter 64 -method sgd -learn_rate 0.00000001 -regular ’0,0,0.01’ -init_stdev 0.1 -save_model fm_model' os.popen(cmd).readlines()

訓練結果:

['----------------------------------------------------------------------------\n','libFM\n',' Version: 1.4.4\n',' Author: Steffen Rendle, srendle@libfm.org\n',' WWW: http://www.libfm.org/\n','This program comes with ABSOLUTELY NO WARRANTY; for details see license.txt.\n','This is free software, and you are welcome to redistribute it under certain\n','conditions; for details see license.txt.\n','----------------------------------------------------------------------------\n','Loading train...\t\n','has x = 1\n','has xt = 0\n','num_rows=899991\tnum_values=28799712\tnum_features=32\tmin_target=0\tmax_target=1\n','Loading test... \t\n','has x = 1\n','has xt = 0\n','num_rows=100009\tnum_values=3200288\tnum_features=32\tmin_target=0\tmax_target=1\n','#relations: 0\n','Loading meta data...\t\n','learnrate=1e-08\n','learnrates=1e-08,1e-08,1e-08\n','#iterations=64\n',"SGD: DON'T FORGET TO SHUFFLE THE ROWS IN TRAINING DATA TO GET THE BEST RESULTS.\n",'#Iter= 0\tTrain=0.625438\tTest=0.619484\n','#Iter= 1\tTrain=0.636596\tTest=0.632013\n','#Iter= 2\tTrain=0.627663\tTest=0.623114\n','#Iter= 3\tTrain=0.609776\tTest=0.606605\n','#Iter= 4\tTrain=0.563581\tTest=0.56092\n','#Iter= 5\tTrain=0.497907\tTest=0.495655\n','#Iter= 6\tTrain=0.461677\tTest=0.461408\n','#Iter= 7\tTrain=0.453666\tTest=0.452639\n','#Iter= 8\tTrain=0.454026\tTest=0.453419\n','#Iter= 9\tTrain=0.456836\tTest=0.455919\n','#Iter= 10\tTrain=0.46032\tTest=0.459339\n','#Iter= 11\tTrain=0.466546\tTest=0.465358\n','#Iter= 12\tTrain=0.473565\tTest=0.472317\n','#Iter= 13\tTrain=0.481726\tTest=0.480967\n','#Iter= 14\tTrain=0.492357\tTest=0.491216\n','#Iter= 15\tTrain=0.504419\tTest=0.502935\n','#Iter= 16\tTrain=0.517793\tTest=0.516214\n','#Iter= 17\tTrain=0.533604\tTest=0.532102\n','#Iter= 18\tTrain=0.552926\tTest=0.5515\n','#Iter= 19\tTrain=0.575645\tTest=0.573198\n','#Iter= 20\tTrain=0.59418\tTest=0.590887\n','#Iter= 21\tTrain=0.610691\tTest=0.607815\n','#Iter= 22\tTrain=0.626138\tTest=0.623384\n','#Iter= 23\tTrain=0.640751\tTest=0.637923\n','#Iter= 24\tTrain=0.65393\tTest=0.652141\n','#Iter= 25\tTrain=0.666099\tTest=0.6641\n','#Iter= 26\tTrain=0.677933\tTest=0.675419\n','#Iter= 27\tTrain=0.689539\tTest=0.687108\n','#Iter= 28\tTrain=0.700177\tTest=0.697397\n','#Iter= 29\tTrain=0.709265\tTest=0.706156\n','#Iter= 30\tTrain=0.716553\tTest=0.713266\n','#Iter= 31\tTrain=0.723218\tTest=0.719635\n','#Iter= 32\tTrain=0.729163\tTest=0.726065\n','#Iter= 33\tTrain=0.734428\tTest=0.731354\n','#Iter= 34\tTrain=0.738863\tTest=0.735844\n','#Iter= 35\tTrain=0.74284\tTest=0.740323\n','#Iter= 36\tTrain=0.746316\tTest=0.743793\n','#Iter= 37\tTrain=0.749123\tTest=0.746333\n','#Iter= 38\tTrain=0.751573\tTest=0.748493\n','#Iter= 39\tTrain=0.753264\tTest=0.750292\n','#Iter= 40\tTrain=0.754803\tTest=0.751642\n','#Iter= 41\tTrain=0.756011\tTest=0.753062\n','#Iter= 42\tTrain=0.756902\tTest=0.753892\n','#Iter= 43\tTrain=0.757642\tTest=0.754872\n','#Iter= 44\tTrain=0.758293\tTest=0.755372\n','#Iter= 45\tTrain=0.758855\tTest=0.755782\n','#Iter= 46\tTrain=0.759293\tTest=0.756322\n','#Iter= 47\tTrain=0.759695\tTest=0.756652\n','#Iter= 48\tTrain=0.760084\tTest=0.756982\n','#Iter= 49\tTrain=0.760343\tTest=0.757252\n','#Iter= 50\tTrain=0.76055\tTest=0.757332\n','#Iter= 51\tTrain=0.760706\tTest=0.757582\n','#Iter= 52\tTrain=0.760944\tTest=0.757842\n','#Iter= 53\tTrain=0.761035\tTest=0.757952\n','#Iter= 54\tTrain=0.761173\tTest=0.758152\n','#Iter= 55\tTrain=0.761291\tTest=0.758382\n','#Iter= 56\tTrain=0.76142\tTest=0.758412\n','#Iter= 57\tTrain=0.761541\tTest=0.758452\n','#Iter= 58\tTrain=0.761677\tTest=0.758572\n','#Iter= 59\tTrain=0.76175\tTest=0.758692\n','#Iter= 60\tTrain=0.761829\tTest=0.758822\n','#Iter= 61\tTrain=0.761855\tTest=0.758862\n','#Iter= 62\tTrain=0.761918\tTest=0.759002\n','#Iter= 63\tTrain=0.761988\tTest=0.758972\n','Final\tTrain=0.761988\tTest=0.758972\n','Writing FM model to fm_model\n']

FM模型訓練好了,我們把訓練、驗證和測試數據輸入給FM,得到FM層的輸出,輸出的文件名為*.fm.logits

cmd = './libfm/libfm/bin/libFM -task c -train ./data/train_lgb2fm.txt -test ./data/valid_lgb2fm.txt -dim ’1,1,8’ -iter 32 -method sgd -learn_rate 0.00000001 -regular ’0,0,0.01’ -init_stdev 0.1 -load_model fm_model -train_off true -prefix tr' os.popen(cmd).readlines() cmd = './libfm/libfm/bin/libFM -task c -train ./data/valid_lgb2fm.txt -test ./data/valid_lgb2fm.txt -dim ’1,1,8’ -iter 32 -method sgd -learn_rate 0.00000001 -regular ’0,0,0.01’ -init_stdev 0.1 -load_model fm_model -train_off true -prefix va' os.popen(cmd).readlines() cmd = './libfm/libfm/bin/libFM -task c -train ./data/test_lgb2fm.txt -test ./data/valid_lgb2fm.txt -dim ’1,1,8’ -iter 32 -method sgd -learn_rate 0.00000001 -regular ’0,0,0.01’ -init_stdev 0.1 -load_model fm_model -train_off true -prefix te -test2predict true' os.popen(cmd).readlines()

開始構建模型

embed_dim = 32 sparse_max = 30000 # sparse_feature_dim = 117568 sparse_dim = 26 dense_dim = 13 out_dim = 400

定義輸入占位符

import tensorflow as tf def get_inputs():dense_input = tf.placeholder(tf.float32, [None, dense_dim], name="dense_input")sparse_input = tf.placeholder(tf.int32, [None, sparse_dim], name="sparse_input")FFM_input = tf.placeholder(tf.float32, [None, 1], name="FFM_input")FM_input = tf.placeholder(tf.float32, [None, 1], name="FM_input")targets = tf.placeholder(tf.float32, [None, 1], name="targets")LearningRate = tf.placeholder(tf.float32, name = "LearningRate")return dense_input, sparse_input, FFM_input, FM_input, targets, LearningRate

輸入類別特征,從嵌入層獲得嵌入向量

def get_sparse_embedding(sparse_input):with tf.name_scope("sparse_embedding"):sparse_embed_matrix = tf.Variable(tf.random_uniform([sparse_max, embed_dim], -1, 1), name = "sparse_embed_matrix")sparse_embed_layer = tf.nn.embedding_lookup(sparse_embed_matrix, sparse_input, name = "sparse_embed_layer")sparse_embed_layer = tf.reshape(sparse_embed_layer, [-1, sparse_dim * embed_dim])return sparse_embed_layer

輸入數值特征,和嵌入向量鏈接在一起經過三層全連接層

def get_dnn_layer(dense_input, sparse_embed_layer):with tf.name_scope("dnn_layer"):input_combine_layer = tf.concat([dense_input, sparse_embed_layer], 1) #(?, 845 = 832 + 13)fc1_layer = tf.layers.dense(input_combine_layer, out_dim, name = "fc1_layer", activation=tf.nn.relu)fc2_layer = tf.layers.dense(fc1_layer, out_dim, name = "fc2_layer", activation=tf.nn.relu)fc3_layer = tf.layers.dense(fc2_layer, out_dim, name = "fc3_layer", activation=tf.nn.relu)return fc3_layer

構建計算圖

如前所述,將FFM和FM層的輸出經過全連接層,再和數值特征、嵌入向量的三層全連接層的輸出連接在一起,做Logistic回歸。

采用LogLoss損失,FtrlOptimizer優(yōu)化損失。

tf.reset_default_graph() train_graph = tf.Graph() with train_graph.as_default():dense_input, sparse_input, FFM_input, FM_input, targets, lr = get_inputs()sparse_embed_layer = get_sparse_embedding(sparse_input)fc3_layer = get_dnn_layer(dense_input, sparse_embed_layer)ffm_fc_layer = tf.layers.dense(FFM_input, 1, name = "ffm_fc_layer")fm_fc_layer = tf.layers.dense(FM_input, 1, name = "fm_fc_layer")feature_combine_layer = tf.concat([ffm_fc_layer, fm_fc_layer, fc3_layer], 1) #(?, 402)with tf.name_scope("inference"):logits = tf.layers.dense(feature_combine_layer, 1, name = "logits_layer")pred = tf.nn.sigmoid(logits, name = "prediction")with tf.name_scope("loss"):# LogLoss損失,Logistic回歸到點擊率 # cost = tf.losses.sigmoid_cross_entropy(targets, logits )sigmoid_cost = tf.nn.sigmoid_cross_entropy_with_logits(labels=targets, logits=logits, name = "sigmoid_cost")logloss_cost = tf.losses.log_loss(labels=targets, predictions=pred)cost = logloss_cost # + sigmoid_costloss = tf.reduce_mean(cost)# 優(yōu)化損失 # train_op = tf.train.AdamOptimizer(lr).minimize(loss) #costglobal_step = tf.Variable(0, name="global_step", trainable=False)optimizer = tf.train.FtrlOptimizer(lr) #tf.train.FtrlOptimizer(lr) AdamOptimizergradients = optimizer.compute_gradients(loss) #costtrain_op = optimizer.apply_gradients(gradients, global_step=global_step)# Accuracywith tf.name_scope("score"):correct_prediction = tf.equal(tf.to_float(pred > 0.5), targets)accuracy = tf.reduce_mean(tf.to_float(correct_prediction), name="accuracy")# auc, uop = tf.contrib.metrics.streaming_auc(pred, targets)

超參

數據量太大,我們只跑一個epoch。

# Number of Epochs num_epochs = 1 # Batch Size batch_size = 32# Learning Rate learning_rate = 0.01 # Show stats for every n number of batches show_every_n_batches = 25save_dir = './save'ffm_tr_out_path = './tr_ffm.out.logit' ffm_va_out_path = './va_ffm.out.logit' fm_tr_out_path = './tr.fm.logits' fm_va_out_path = './va.fm.logits' train_path = './data/train.txt' valid_path = './data/valid.txt'

讀取FFM的輸出

ffm_train = pd.read_csv(ffm_tr_out_path, header=None) ffm_train = ffm_train[0].valuesffm_valid = pd.read_csv(ffm_va_out_path, header=None) ffm_valid = ffm_valid[0].values

讀取FM的輸出

fm_train = pd.read_csv(fm_tr_out_path, header=None) fm_train = fm_train[0].valuesfm_valid = pd.read_csv(fm_va_out_path, header=None) fm_valid = fm_valid[0].values

讀取數據集

將DNN數據和FM、FFM的輸出數據讀取出來,并連接在一起

train_data = pd.read_csv(train_path, header=None) train_data = train_data.valuesvalid_data = pd.read_csv(valid_path, header=None) valid_data = valid_data.valuescc_train = np.concatenate((ffm_train.reshape(-1, 1), fm_train.reshape(-1, 1), train_data), 1) cc_valid = np.concatenate((ffm_valid.reshape(-1, 1), fm_valid.reshape(-1, 1), valid_data), 1)np.random.shuffle(cc_train) np.random.shuffle(cc_valid)train_y = cc_train[:,-1] test_y = cc_valid[:,-1]train_X = cc_train[:,0:-1] test_X = cc_valid[:,0:-1]

訓練網絡

%matplotlib inline %config InlineBackend.figure_format = 'retina' import matplotlib.pyplot as plt from sklearn.model_selection import train_test_split import time import datetime from sklearn.metrics import log_loss from sklearn.learning_curve import learning_curve from sklearn import metrics def train_model(num_epochs):losses = {'train':[], 'test':[]}acc_lst = {'train':[], 'test':[]}pred_lst = []with tf.Session(graph=train_graph) as sess:# Keep track of gradient values and sparsitygrad_summaries = []for g, v in gradients:if g is not None:grad_hist_summary = tf.summary.histogram("{}/grad/hist".format(v.name.replace(':', '_')), g)sparsity_summary = tf.summary.scalar("{}/grad/sparsity".format(v.name.replace(':', '_')), tf.nn.zero_fraction(g))grad_summaries.append(grad_hist_summary)grad_summaries.append(sparsity_summary)grad_summaries_merged = tf.summary.merge(grad_summaries)# Output directory for models and summariestimestamp = str(int(time.time()))out_dir = os.path.abspath(os.path.join(os.path.curdir, "runs", timestamp))print("Writing to {}\n".format(out_dir))# Summaries for loss and accuracyloss_summary = tf.summary.scalar("loss", loss) # acc_summary = tf.scalar_summary("accuracy", accuracy)# Train Summariestrain_summary_op = tf.summary.merge([loss_summary, grad_summaries_merged])train_summary_dir = os.path.join(out_dir, "summaries", "train")train_summary_writer = tf.summary.FileWriter(train_summary_dir, sess.graph)# Inference summariesinference_summary_op = tf.summary.merge([loss_summary])inference_summary_dir = os.path.join(out_dir, "summaries", "inference")inference_summary_writer = tf.summary.FileWriter(inference_summary_dir, sess.graph)sess.run(tf.global_variables_initializer())sess.run(tf.local_variables_initializer())saver = tf.train.Saver()for epoch_i in range(num_epochs):#將數據集分成訓練集和測試集train_batches = get_batches(train_X, train_y, batch_size)test_batches = get_batches(test_X, test_y, batch_size)#訓練的迭代,保存訓練損失for batch_i in range(len(train_X) // batch_size):x, y = next(train_batches)feed = {dense_input: x.take([2,3,4,5,6,7,8,9,10,11,12,13,14],1),sparse_input: x.take([15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35,36,37,38,39,40],1),FFM_input: np.reshape(x.take(0,1), [batch_size, 1]),FM_input: np.reshape(x.take(1,1), [batch_size, 1]),targets: np.reshape(y, [batch_size, 1]),lr: learning_rate}# _ = sess.run([train_op], feed) #coststep, train_loss, summaries, _, prediction, acc = sess.run([global_step, loss, train_summary_op, train_op, pred, accuracy], feed) #costprediction = prediction.reshape(y.shape)losses['train'].append(train_loss)acc_lst['train'].append(acc)train_summary_writer.add_summary(summaries, step) #if(np.mean(y) != 0):auc = metrics.roc_auc_score(y, prediction)else:auc = -1# Show every <show_every_n_batches> batchesif (epoch_i * (len(train_X) // batch_size) + batch_i) % show_every_n_batches == 0:time_str = datetime.datetime.now().isoformat()print('{}: Epoch {:>3} Batch {:>4}/{} train_loss = {:.3f} accuracy = {} auc = {}'.format(time_str,epoch_i,batch_i,(len(train_X) // batch_size),train_loss,acc,auc)) # print(metrics.classification_report(y, np.float32(prediction > 0.5)))#使用測試數據的迭代for batch_i in range(len(test_X) // batch_size):x, y = next(test_batches)feed = {dense_input: x.take([2,3,4,5,6,7,8,9,10,11,12,13,14],1),sparse_input: x.take([15,16,17,18,19,20,21,22,23,24,25,26,27,28,29,30,31,32,33,34,35,36,37,38,39,40],1),FFM_input: np.reshape(x.take(0,1), [batch_size, 1]),FM_input: np.reshape(x.take(1,1), [batch_size, 1]),targets: np.reshape(y, [batch_size, 1]),lr: learning_rate}# Get Predictionstep, test_loss, summaries, prediction, acc = sess.run([global_step, loss, inference_summary_op, pred, accuracy], feed) #cost#保存測試損失和準確率prediction = prediction.reshape(y.shape)losses['test'].append(test_loss)acc_lst['test'].append(acc)inference_summary_writer.add_summary(summaries, step) #pred_lst.append(prediction)if(np.mean(y) != 0):auc = metrics.roc_auc_score(y, prediction)else:auc = -1time_str = datetime.datetime.now().isoformat()if (epoch_i * (len(test_X) // batch_size) + batch_i) % show_every_n_batches == 0:print('{}: Epoch {:>3} Batch {:>4}/{} test_loss = {:.3f} accuracy = {} auc = {}'.format(time_str,epoch_i,batch_i,(len(test_X) // batch_size),test_loss,acc,auc))print(metrics.classification_report(y, np.float32(prediction > 0.5)))# Save Modelsaver.save(sess, save_dir) #, global_step=epoch_iprint('Model Trained and Saved')save_params((losses, acc_lst, pred_lst, save_dir))return losses, acc_lst, pred_lst, save_dir

輸出驗證集上的訓練信息

  • 平均準確率
  • 平均損失
  • 平均Auc
  • 預測的平均點擊率
  • 精確率、召回率、F1 Score等信息

因為數據中大部分都是負例,正例較少,如果模型全部猜0就能有75%的準確率,所以準確率這個指標是不可信的。

我們需要關注正例的精確率和召回率,當然最主要還是要看LogLoss的值,因為比賽采用的評價指標是LogLoss,而不是采用AUC值。

def train_info():print("Test Mean Acc : {}".format(np.mean(acc_lst['test']))) #test_pred_meanprint("Test Mean Loss : {}".format(np.mean(losses['test']))) #test_pred_meanprint("Mean Auc : {}".format(metrics.roc_auc_score(test_y[:-9], np.array(pred_lst).reshape(-1, 1))))print("Mean prediction : {}".format(np.mean(np.array(pred_lst).reshape(-1, 1))))print(metrics.classification_report(test_y[:-9], np.float32(np.array(pred_lst).reshape(-1, 1) > 0.5)))

TensorBoard中查看loss

總結

以上就是點擊率預估的完整過程,沒有進行完整數據的訓練,并且有很多超參可以調整,從只跑了一次epoch的結果來看,驗證集上的LogLoss是0.46,其他數據都在75%~80%之間,這跟FFM、GBDT和FM網絡訓練的準確率差不多。

擴展閱讀

  • Code for the 3rd place finish for Avazu Click-Through Rate Prediction
  • Kaggle : Display Advertising Challenge( ctr 預估 )
  • 用機器學習對CTR預估建模
  • Beginner&amp;#x27;s Guide to Click-Through Rate Prediction with Logistic Regression
  • 2nd place solution for Avazu click-through rate prediction competition
  • 常見計算廣告點擊率預估算法總結
  • 3 Idiots&amp;#x27; Approach for Display Advertising Challenge
  • Solution to the Outbrain Click Prediction competition
  • Deep Interest Network for Click-Through Rate Prediction
  • Learning Piece-wise Linear Models from Large Scale Data for Ad Click Prediction
  • 重磅!阿里媽媽首次公開自研CTR預估核心算法MLR
  • 阿里蓋坤團隊提出深度興趣網絡,更懂用戶什么時候會剁手
  • 深入FFM原理與實踐

總結

以上是生活随笔為你收集整理的Kaggle实战:点击率预估的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

久久精品人人做人人综合试看 | 亚洲国产欧美日韩精品一区二区三区 | 国产日产欧产精品精品app | 国产精品久久久久9999小说 | 国产精品国产自线拍免费软件 | 成人免费视频在线观看 | 欧美丰满老熟妇xxxxx性 | 中文字幕av日韩精品一区二区 | 亚洲国产精品美女久久久久 | 久久人人97超碰a片精品 | 国产亚洲精品精品国产亚洲综合 | 亚洲综合无码久久精品综合 | 亚洲一区av无码专区在线观看 | 亚洲国产高清在线观看视频 | 日韩精品久久久肉伦网站 | 久久综合色之久久综合 | 国产极品美女高潮无套在线观看 | 日韩精品成人一区二区三区 | 国产色xx群视频射精 | 精品久久8x国产免费观看 | 黑森林福利视频导航 | 麻豆果冻传媒2021精品传媒一区下载 | 国产真实夫妇视频 | 久久人人爽人人爽人人片ⅴ | 日韩人妻少妇一区二区三区 | 亚洲aⅴ无码成人网站国产app | 夜夜躁日日躁狠狠久久av | 久久久婷婷五月亚洲97号色 | 丰满少妇高潮惨叫视频 | 国产激情艳情在线看视频 | 天天躁日日躁狠狠躁免费麻豆 | 国产三级久久久精品麻豆三级 | 日韩视频 中文字幕 视频一区 | 在线播放亚洲第一字幕 | 亚洲精品国产第一综合99久久 | 国产色精品久久人妻 | 久久亚洲国产成人精品性色 | 色妞www精品免费视频 | 丰满诱人的人妻3 | 扒开双腿疯狂进出爽爽爽视频 | 久久久久99精品成人片 | 久久精品国产一区二区三区肥胖 | 俺去俺来也在线www色官网 | 男人和女人高潮免费网站 | 久久国产精品萌白酱免费 | 免费国产黄网站在线观看 | 亚洲精品国产精品乱码不卡 | 日韩亚洲欧美中文高清在线 | 欧洲欧美人成视频在线 | 午夜嘿嘿嘿影院 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产成人综合在线女婷五月99播放 | 日本一卡2卡3卡四卡精品网站 | 日韩亚洲欧美中文高清在线 | 亚洲精品中文字幕久久久久 | 国产无遮挡又黄又爽又色 | 国产精品亚洲lv粉色 | 日韩欧美中文字幕公布 | 精品午夜福利在线观看 | 免费人成在线观看网站 | 久久国产36精品色熟妇 | 一个人看的www免费视频在线观看 | 国产成人精品一区二区在线小狼 | 成人无码精品一区二区三区 | 成人性做爰aaa片免费看 | 欧美亚洲国产一区二区三区 | 福利一区二区三区视频在线观看 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲毛片av日韩av无码 | 日本又色又爽又黄的a片18禁 | 国产精品亚洲а∨无码播放麻豆 | 精品久久8x国产免费观看 | 国产婷婷色一区二区三区在线 | 人妻插b视频一区二区三区 | 亚洲一区二区三区播放 | 精品国产av色一区二区深夜久久 | 丰满人妻一区二区三区免费视频 | 国产精品对白交换视频 | 岛国片人妻三上悠亚 | 妺妺窝人体色www在线小说 | 欧美日韩色另类综合 | 成人精品视频一区二区 | 精品无码一区二区三区爱欲 | 久久久久99精品成人片 | 无套内谢的新婚少妇国语播放 | 精品夜夜澡人妻无码av蜜桃 | 久久久久99精品成人片 | 粉嫩少妇内射浓精videos | 国产小呦泬泬99精品 | 国产成人无码a区在线观看视频app | 精品久久久久久亚洲精品 | 国产真实乱对白精彩久久 | 少妇被黑人到高潮喷出白浆 | 国产一区二区三区四区五区加勒比 | 国产女主播喷水视频在线观看 | 亚洲精品一区二区三区在线 | 曰韩少妇内射免费播放 | 欧美野外疯狂做受xxxx高潮 | 色狠狠av一区二区三区 | 蜜桃无码一区二区三区 | 波多野结衣乳巨码无在线观看 | 大肉大捧一进一出视频出来呀 | 日韩欧美中文字幕在线三区 | 日日天干夜夜狠狠爱 | 亚洲中文字幕在线观看 | 搡女人真爽免费视频大全 | 天天摸天天透天天添 | 麻豆果冻传媒2021精品传媒一区下载 | 欧美激情综合亚洲一二区 | 日本熟妇乱子伦xxxx | 日韩精品一区二区av在线 | 2019nv天堂香蕉在线观看 | 精品一区二区不卡无码av | 精品人妻av区 | 狠狠色噜噜狠狠狠7777奇米 | 亚洲欧洲日本无在线码 | 亚洲日韩av一区二区三区中文 | 无码任你躁久久久久久久 | 狠狠色丁香久久婷婷综合五月 | 18禁黄网站男男禁片免费观看 | 沈阳熟女露脸对白视频 | 国语精品一区二区三区 | 日产国产精品亚洲系列 | 亚洲欧美综合区丁香五月小说 | 国产精品办公室沙发 | 亚洲精品中文字幕乱码 | 亚洲精品无码国产 | 亚洲 高清 成人 动漫 | 欧美成人家庭影院 | 国产一精品一av一免费 | 人人妻人人藻人人爽欧美一区 | 久久成人a毛片免费观看网站 | 高清不卡一区二区三区 | 国产成人综合美国十次 | 亚洲午夜久久久影院 | 亚洲精品一区二区三区四区五区 | 欧美精品无码一区二区三区 | 无码国产激情在线观看 | 国产人妻久久精品二区三区老狼 | 国产精品免费大片 | 亚洲国产精品久久久久久 | 精品亚洲成av人在线观看 | 亚洲中文字幕在线无码一区二区 | 日本饥渴人妻欲求不满 | 中文字幕日韩精品一区二区三区 | 荡女精品导航 | 两性色午夜免费视频 | 丰满岳乱妇在线观看中字无码 | 十八禁真人啪啪免费网站 | 国产一区二区不卡老阿姨 | 少妇人妻偷人精品无码视频 | 亚洲人成人无码网www国产 | 男女超爽视频免费播放 | 亚洲国产成人av在线观看 | 狠狠色色综合网站 | 亚洲成av人片在线观看无码不卡 | 午夜福利一区二区三区在线观看 | 丰满诱人的人妻3 | 伊人久久大香线焦av综合影院 | 日韩av无码一区二区三区 | 色一情一乱一伦 | 亚洲欧美国产精品久久 | 无码精品国产va在线观看dvd | 国产精品99爱免费视频 | 麻豆国产丝袜白领秘书在线观看 | 成在人线av无码免观看麻豆 | 国产精品久久久av久久久 | 1000部啪啪未满十八勿入下载 | a国产一区二区免费入口 | 日欧一片内射va在线影院 | 激情人妻另类人妻伦 | 麻豆国产97在线 | 欧洲 | 久久综合给久久狠狠97色 | 精品一区二区不卡无码av | 性欧美牲交xxxxx视频 | 少妇性荡欲午夜性开放视频剧场 | 一个人免费观看的www视频 | 日韩人妻系列无码专区 | 捆绑白丝粉色jk震动捧喷白浆 | 大地资源中文第3页 | 亚洲色www成人永久网址 | 97人妻精品一区二区三区 | 日韩亚洲欧美精品综合 | 久久午夜夜伦鲁鲁片无码免费 | 国产网红无码精品视频 | 国产精品永久免费视频 | 无遮挡国产高潮视频免费观看 | 天天拍夜夜添久久精品大 | 狠狠躁日日躁夜夜躁2020 | 无码吃奶揉捏奶头高潮视频 | 国产精品无码永久免费888 | 久久久久久国产精品无码下载 | 在线观看欧美一区二区三区 | 无套内谢的新婚少妇国语播放 | 狠狠噜狠狠狠狠丁香五月 | 内射欧美老妇wbb | 成人aaa片一区国产精品 | 久久久中文久久久无码 | 蜜桃无码一区二区三区 | 国产深夜福利视频在线 | 九九在线中文字幕无码 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产精品毛片一区二区 | 成人性做爰aaa片免费看不忠 | 国产97在线 | 亚洲 | 无码人妻丰满熟妇区五十路百度 | 亚洲一区二区三区四区 | 丰满少妇弄高潮了www | 精品国产一区二区三区av 性色 | 欧美熟妇另类久久久久久不卡 | 国产性生交xxxxx无码 | 日本成熟视频免费视频 | 国产黄在线观看免费观看不卡 | 亚洲熟女一区二区三区 | aa片在线观看视频在线播放 | 久9re热视频这里只有精品 | 夜夜躁日日躁狠狠久久av | 国产精品久久国产精品99 | 久久综合给合久久狠狠狠97色 | 少妇高潮喷潮久久久影院 | 波多野结衣高清一区二区三区 | 帮老师解开蕾丝奶罩吸乳网站 | 国产情侣作爱视频免费观看 | 性欧美熟妇videofreesex | 中文精品久久久久人妻不卡 | 国产av无码专区亚洲awww | 欧美黑人乱大交 | 女人被男人躁得好爽免费视频 | 无码成人精品区在线观看 | 日本大乳高潮视频在线观看 | 久久久久成人精品免费播放动漫 | 永久黄网站色视频免费直播 | 欧美熟妇另类久久久久久不卡 | 久久精品国产精品国产精品污 | 国产人妻精品午夜福利免费 | 狂野欧美激情性xxxx | 东北女人啪啪对白 | 午夜精品一区二区三区在线观看 | 久久精品女人的天堂av | 亚洲成av人影院在线观看 | 99久久精品无码一区二区毛片 | 国产激情艳情在线看视频 | 精品国产aⅴ无码一区二区 | 国产av人人夜夜澡人人爽麻豆 | 人妻有码中文字幕在线 | 国产亚洲日韩欧美另类第八页 | 国产午夜亚洲精品不卡 | 麻豆精品国产精华精华液好用吗 | 日日摸夜夜摸狠狠摸婷婷 | 国产欧美亚洲精品a | 日本熟妇人妻xxxxx人hd | 任你躁国产自任一区二区三区 | 成人性做爰aaa片免费看不忠 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲精品国产第一综合99久久 | 人妻少妇精品无码专区动漫 | 无码一区二区三区在线 | 国产熟女一区二区三区四区五区 | 国产精品怡红院永久免费 | 蜜桃av抽搐高潮一区二区 | 免费男性肉肉影院 | 亚洲日韩精品欧美一区二区 | 亚洲国产精品久久久久久 | 久久国产精品_国产精品 | 欧美黑人巨大xxxxx | 精品人妻av区 | 在线成人www免费观看视频 | 久久久www成人免费毛片 | 国产艳妇av在线观看果冻传媒 | 亚洲人成人无码网www国产 | 亚洲の无码国产の无码步美 | 欧美日韩视频无码一区二区三 | 久久久精品欧美一区二区免费 | 日本一区二区三区免费高清 | 国语自产偷拍精品视频偷 | 日韩少妇内射免费播放 | 日日干夜夜干 | 少妇太爽了在线观看 | 成人欧美一区二区三区 | 99久久久无码国产aaa精品 | 玩弄人妻少妇500系列视频 | 露脸叫床粗话东北少妇 | 中文字幕乱妇无码av在线 | 一本久久伊人热热精品中文字幕 | 麻豆果冻传媒2021精品传媒一区下载 | 久久国产精品精品国产色婷婷 | 亚洲午夜福利在线观看 | 少妇高潮一区二区三区99 | 欧美日韩综合一区二区三区 | 欧美性生交xxxxx久久久 | 精品欧洲av无码一区二区三区 | 中文字幕无码人妻少妇免费 | 少女韩国电视剧在线观看完整 | 精品久久久无码人妻字幂 | 天天躁夜夜躁狠狠是什么心态 | 日韩av激情在线观看 | 日韩视频 中文字幕 视频一区 | v一区无码内射国产 | 亚洲日韩av一区二区三区四区 | 久久国产自偷自偷免费一区调 | 午夜福利试看120秒体验区 | 亚洲国产精品无码一区二区三区 | 无遮挡国产高潮视频免费观看 | 99久久久国产精品无码免费 | 国内精品久久久久久中文字幕 | 77777熟女视频在线观看 а天堂中文在线官网 | √天堂中文官网8在线 | 欧美zoozzooz性欧美 | 波多野结衣一区二区三区av免费 | 国产疯狂伦交大片 | 久久久久成人精品免费播放动漫 | 亚洲国产精品一区二区美利坚 | 女人被男人爽到呻吟的视频 | 亚洲呦女专区 | 日韩人妻无码一区二区三区久久99 | av无码不卡在线观看免费 | 欧美老妇与禽交 | 丝袜足控一区二区三区 | 亚洲а∨天堂久久精品2021 | 无套内谢的新婚少妇国语播放 | 国产国产精品人在线视 | 18无码粉嫩小泬无套在线观看 | 国产亚洲人成在线播放 | 秋霞特色aa大片 | 色综合天天综合狠狠爱 | 久久人人97超碰a片精品 | 日本精品久久久久中文字幕 | 人人妻人人澡人人爽人人精品 | 国产麻豆精品一区二区三区v视界 | 久久久国产一区二区三区 | 午夜无码区在线观看 | 西西人体www44rt大胆高清 | 日本精品少妇一区二区三区 | √天堂中文官网8在线 | 免费乱码人妻系列无码专区 | 美女极度色诱视频国产 | √8天堂资源地址中文在线 | 免费乱码人妻系列无码专区 | 伊人色综合久久天天小片 | 国产一区二区三区影院 | 国产成人精品无码播放 | 九月婷婷人人澡人人添人人爽 | 国产农村妇女高潮大叫 | 成人av无码一区二区三区 | 色婷婷欧美在线播放内射 | 无码人妻av免费一区二区三区 | 欧美人与动性行为视频 | 国产欧美亚洲精品a | 少妇邻居内射在线 | 国产精品资源一区二区 | 2020久久香蕉国产线看观看 | av无码久久久久不卡免费网站 | 又大又硬又黄的免费视频 | 狂野欧美性猛交免费视频 | 久久久无码中文字幕久... | 国产成人无码区免费内射一片色欲 | 国产人妻精品午夜福利免费 | 亚洲人交乣女bbw | 亚洲天堂2017无码 | 久久亚洲中文字幕无码 | 2020久久香蕉国产线看观看 | 国产亚洲视频中文字幕97精品 | 国产又爽又猛又粗的视频a片 | 亚洲一区二区三区国产精华液 | 亚洲熟熟妇xxxx | 麻豆国产丝袜白领秘书在线观看 | 97精品国产97久久久久久免费 | 精品aⅴ一区二区三区 | 99精品视频在线观看免费 | 天天摸天天透天天添 | 亚洲精品成a人在线观看 | 国产成人无码av片在线观看不卡 | 国产精品人人爽人人做我的可爱 | 色偷偷人人澡人人爽人人模 | 最近的中文字幕在线看视频 | 国产精品丝袜黑色高跟鞋 | 免费无码的av片在线观看 | 国产热a欧美热a在线视频 | 全球成人中文在线 | av无码久久久久不卡免费网站 | 青青青手机频在线观看 | 久久97精品久久久久久久不卡 | 亚洲 日韩 欧美 成人 在线观看 | 一本精品99久久精品77 | 人妻少妇精品无码专区二区 | 疯狂三人交性欧美 | 亚洲欧洲无卡二区视頻 | 久久综合久久自在自线精品自 | 亚洲精品一区三区三区在线观看 | 国产亚洲精品精品国产亚洲综合 | 久久精品国产精品国产精品污 | 麻豆国产丝袜白领秘书在线观看 | 乌克兰少妇性做爰 | 国产精品国产自线拍免费软件 | 欧美人与禽zoz0性伦交 | 日韩 欧美 动漫 国产 制服 | 国产乱子伦视频在线播放 | aa片在线观看视频在线播放 | 图片小说视频一区二区 | 亚洲天堂2017无码 | 国产情侣作爱视频免费观看 | 日韩精品无码免费一区二区三区 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 国产精品99爱免费视频 | 亚洲色在线无码国产精品不卡 | 一二三四社区在线中文视频 | 欧美自拍另类欧美综合图片区 | 麻豆成人精品国产免费 | 色综合久久88色综合天天 | 人妻aⅴ无码一区二区三区 | 国产九九九九九九九a片 | 成熟女人特级毛片www免费 | 最新国产麻豆aⅴ精品无码 | 成 人 免费观看网站 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久热国产vs视频在线观看 | 欧美性生交活xxxxxdddd | 又粗又大又硬又长又爽 | 国产在线一区二区三区四区五区 | 啦啦啦www在线观看免费视频 | 日本免费一区二区三区最新 | 国产一区二区三区精品视频 | 真人与拘做受免费视频 | 成人亚洲精品久久久久 | 少妇人妻偷人精品无码视频 | 亚洲国产午夜精品理论片 | 国产精品久久久午夜夜伦鲁鲁 | 国产真实乱对白精彩久久 | 国产绳艺sm调教室论坛 | 国产精品igao视频网 | 久久无码中文字幕免费影院蜜桃 | 精品久久久久香蕉网 | 夫妻免费无码v看片 | 老熟女乱子伦 | 小泽玛莉亚一区二区视频在线 | 2019午夜福利不卡片在线 | 亚洲自偷精品视频自拍 | 国产精品99爱免费视频 | 国内少妇偷人精品视频免费 | 久久精品国产日本波多野结衣 | 荫蒂被男人添的好舒服爽免费视频 | 国产精品99爱免费视频 | 牲欲强的熟妇农村老妇女 | 成年美女黄网站色大免费全看 | 熟女俱乐部五十路六十路av | 国产精品久久久久久无码 | 国产一区二区三区四区五区加勒比 | 国产成人无码午夜视频在线观看 | 成人精品一区二区三区中文字幕 | 亚洲欧美中文字幕5发布 | 老太婆性杂交欧美肥老太 | 377p欧洲日本亚洲大胆 | 亚洲综合无码久久精品综合 | 国产精品无套呻吟在线 | 日韩精品无码免费一区二区三区 | 国产特级毛片aaaaaaa高清 | 欧美色就是色 | 黑人大群体交免费视频 | 国产精品久久久午夜夜伦鲁鲁 | 丰满少妇弄高潮了www | 日韩亚洲欧美中文高清在线 | 成人欧美一区二区三区黑人免费 | av人摸人人人澡人人超碰下载 | 四虎国产精品免费久久 | 精品国产av色一区二区深夜久久 | 亚洲国产精华液网站w | 婷婷六月久久综合丁香 | 久久综合久久自在自线精品自 | 成人一在线视频日韩国产 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲欧美日韩成人高清在线一区 | 永久黄网站色视频免费直播 | 在线天堂新版最新版在线8 | 日本免费一区二区三区最新 | 亚洲人成人无码网www国产 | 国产精品人妻一区二区三区四 | 国产精品国产三级国产专播 | 日韩av无码中文无码电影 | 蜜桃视频插满18在线观看 | 日韩av激情在线观看 | 亚洲国产欧美日韩精品一区二区三区 | 人人妻人人藻人人爽欧美一区 | 国产精品亚洲综合色区韩国 | 午夜不卡av免费 一本久久a久久精品vr综合 | 又大又硬又爽免费视频 | 波多野结衣乳巨码无在线观看 | 精品 日韩 国产 欧美 视频 | 久久久久亚洲精品中文字幕 | 国产精品无码一区二区桃花视频 | 人人妻人人澡人人爽精品欧美 | 欧美丰满少妇xxxx性 | 在线视频网站www色 | 中文字幕人妻丝袜二区 | 亚洲色大成网站www国产 | 人妻aⅴ无码一区二区三区 | 国产 浪潮av性色四虎 | 国产在线一区二区三区四区五区 | 欧美性色19p | 国产欧美亚洲精品a | 欧美怡红院免费全部视频 | 国产亚洲欧美日韩亚洲中文色 | 黑人巨大精品欧美一区二区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 日本欧美一区二区三区乱码 | 综合激情五月综合激情五月激情1 | 性欧美疯狂xxxxbbbb | 成人性做爰aaa片免费看 | 天堂亚洲2017在线观看 | 野外少妇愉情中文字幕 | 人人澡人人透人人爽 | 小鲜肉自慰网站xnxx | 亚洲成av人影院在线观看 | 人妻插b视频一区二区三区 | 国内少妇偷人精品视频 | 国产真人无遮挡作爱免费视频 | 国产av无码专区亚洲awww | 永久黄网站色视频免费直播 | 国产内射爽爽大片视频社区在线 | 中文精品久久久久人妻不卡 | 久久亚洲中文字幕无码 | 中文字幕中文有码在线 | 无码人妻av免费一区二区三区 | 亚洲国产av美女网站 | 一本大道伊人av久久综合 | 激情亚洲一区国产精品 | 日本护士毛茸茸高潮 | 久久综合激激的五月天 | 欧美国产亚洲日韩在线二区 | 国产无套内射久久久国产 | 亚洲 a v无 码免 费 成 人 a v | 亚洲欧美日韩成人高清在线一区 | 久久国产劲爆∧v内射 | 国产高清不卡无码视频 | 在线观看欧美一区二区三区 | 欧美freesex黑人又粗又大 | 丰满岳乱妇在线观看中字无码 | 又湿又紧又大又爽a视频国产 | 色婷婷香蕉在线一区二区 | 1000部夫妻午夜免费 | 日产精品99久久久久久 | 久久99精品国产.久久久久 | 亚洲色成人中文字幕网站 | 在线天堂新版最新版在线8 | 国产99久久精品一区二区 | 樱花草在线播放免费中文 | 人妻无码αv中文字幕久久琪琪布 | 亚洲 日韩 欧美 成人 在线观看 | 欧美刺激性大交 | 色五月五月丁香亚洲综合网 | 无码任你躁久久久久久久 | 国产成人精品无码播放 | 天堂无码人妻精品一区二区三区 | 亚洲高清偷拍一区二区三区 | 偷窥村妇洗澡毛毛多 | 日本乱人伦片中文三区 | 东京一本一道一二三区 | 欧美 丝袜 自拍 制服 另类 | a国产一区二区免费入口 | 精品久久久无码人妻字幂 | 久久久无码中文字幕久... | 久久亚洲日韩精品一区二区三区 | 人妻aⅴ无码一区二区三区 | 久久人人97超碰a片精品 | 久久综合九色综合欧美狠狠 | 国内精品人妻无码久久久影院 | 亚洲国产精品久久久天堂 | 精品久久综合1区2区3区激情 | 男女作爱免费网站 | 一个人免费观看的www视频 | 99久久精品国产一区二区蜜芽 | 国产激情无码一区二区app | 午夜男女很黄的视频 | 国产乱人伦av在线无码 | 18无码粉嫩小泬无套在线观看 | 18禁黄网站男男禁片免费观看 | 久久精品国产亚洲精品 | 强伦人妻一区二区三区视频18 | 亚洲欧美精品aaaaaa片 | 少妇高潮一区二区三区99 | 日本一本二本三区免费 | 大胆欧美熟妇xx | 成人无码精品一区二区三区 | 欧美日韩一区二区综合 | 国产亚洲精品精品国产亚洲综合 | 欧美日本免费一区二区三区 | 麻豆国产丝袜白领秘书在线观看 | а天堂中文在线官网 | 亚洲精品久久久久久一区二区 | 97精品国产97久久久久久免费 | 在线精品国产一区二区三区 | 最近免费中文字幕中文高清百度 | 久热国产vs视频在线观看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 人人爽人人澡人人高潮 | 亚洲欧洲日本无在线码 | 免费乱码人妻系列无码专区 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久久精品人人做人人综合试看 | 久久国内精品自在自线 | 亚洲成av人综合在线观看 | 国产激情无码一区二区app | 日韩欧美成人免费观看 | 久久久精品人妻久久影视 | 蜜桃臀无码内射一区二区三区 | 午夜理论片yy44880影院 | 久久亚洲a片com人成 | 俺去俺来也www色官网 | 国产精品无码成人午夜电影 | 日本欧美一区二区三区乱码 | 精品夜夜澡人妻无码av蜜桃 | 日产精品高潮呻吟av久久 | 丰满诱人的人妻3 | 精品无人区无码乱码毛片国产 | 成在人线av无码免观看麻豆 | 欧洲vodafone精品性 | 色婷婷香蕉在线一区二区 | 日韩少妇白浆无码系列 | 日韩av无码一区二区三区不卡 | 波多野结衣乳巨码无在线观看 | 一区二区三区乱码在线 | 欧洲 | 亚拍精品一区二区三区探花 | 人妻少妇被猛烈进入中文字幕 | 国产肉丝袜在线观看 | 国产超碰人人爽人人做人人添 | 5858s亚洲色大成网站www | 无码人妻av免费一区二区三区 | 亚洲欧美综合区丁香五月小说 | 精品无码av一区二区三区 | 成人三级无码视频在线观看 | 亚洲国产欧美在线成人 | 无码精品人妻一区二区三区av | 欧美三级不卡在线观看 | 日韩精品成人一区二区三区 | 国产免费久久久久久无码 | 亚洲 高清 成人 动漫 | 无码纯肉视频在线观看 | 99久久精品国产一区二区蜜芽 | 97se亚洲精品一区 | 欧美阿v高清资源不卡在线播放 | 精品日本一区二区三区在线观看 | 奇米影视888欧美在线观看 | 日本饥渴人妻欲求不满 | 国产亚洲视频中文字幕97精品 | 国产sm调教视频在线观看 | 妺妺窝人体色www婷婷 | 亚洲熟妇色xxxxx欧美老妇y | 丝袜足控一区二区三区 | 精品成在人线av无码免费看 | 日本熟妇人妻xxxxx人hd | 亚洲精品鲁一鲁一区二区三区 | 成人性做爰aaa片免费看 | 亚洲 a v无 码免 费 成 人 a v | 漂亮人妻洗澡被公强 日日躁 | 帮老师解开蕾丝奶罩吸乳网站 | 成 人影片 免费观看 | 蜜桃av抽搐高潮一区二区 | 蜜臀av无码人妻精品 | 久久综合狠狠综合久久综合88 | 成人欧美一区二区三区 | 中国女人内谢69xxxxxa片 | 亚洲天堂2017无码中文 | 一区二区传媒有限公司 | 久久精品丝袜高跟鞋 | 国产sm调教视频在线观看 | 国产精品美女久久久网av | 国产精品久久久久无码av色戒 | 国模大胆一区二区三区 | 丁香花在线影院观看在线播放 | aa片在线观看视频在线播放 | 亚洲欧洲日本无在线码 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产色在线 | 国产 | 人人爽人人澡人人人妻 | 精品人妻中文字幕有码在线 | 天堂一区人妻无码 | ass日本丰满熟妇pics | 国产性生交xxxxx无码 | 亚洲精品成人av在线 | 狠狠色丁香久久婷婷综合五月 | 国产莉萝无码av在线播放 | 无码帝国www无码专区色综合 | 亚洲中文字幕无码中文字在线 | 无码免费一区二区三区 | 少妇人妻大乳在线视频 | 国产电影无码午夜在线播放 | 国产99久久精品一区二区 | 亚洲国产欧美国产综合一区 | 亚洲色在线无码国产精品不卡 | 中文字幕无码人妻少妇免费 | 亚洲男女内射在线播放 | 国产成人午夜福利在线播放 | 色综合久久久久综合一本到桃花网 | av在线亚洲欧洲日产一区二区 | 人妻少妇精品视频专区 | 欧美日韩人成综合在线播放 | 欧美 丝袜 自拍 制服 另类 | 色偷偷人人澡人人爽人人模 | 久久久久久a亚洲欧洲av冫 | 图片小说视频一区二区 | 高清无码午夜福利视频 | 免费观看黄网站 | 97久久国产亚洲精品超碰热 | 国产片av国语在线观看 | 国产精品理论片在线观看 | a片免费视频在线观看 | 国产香蕉97碰碰久久人人 | 丰满少妇人妻久久久久久 | 亚洲 a v无 码免 费 成 人 a v | a在线观看免费网站大全 | 成人无码视频免费播放 | 激情综合激情五月俺也去 | 国产精品丝袜黑色高跟鞋 | 乱人伦中文视频在线观看 | 夜精品a片一区二区三区无码白浆 | 亚洲 日韩 欧美 成人 在线观看 | 亚洲人成网站免费播放 | 国产精品手机免费 | 久久久久免费精品国产 | 三级4级全黄60分钟 | 国产精品沙发午睡系列 | 扒开双腿吃奶呻吟做受视频 | 亚洲国产av精品一区二区蜜芽 | 精品午夜福利在线观看 | 免费观看黄网站 | 亚洲 激情 小说 另类 欧美 | 在线欧美精品一区二区三区 | 青草视频在线播放 | 国产内射爽爽大片视频社区在线 | 中文字幕无码免费久久99 | 国产成人无码av在线影院 | 国产av无码专区亚洲a∨毛片 | 99麻豆久久久国产精品免费 | 中国大陆精品视频xxxx | 丰满诱人的人妻3 | 成年美女黄网站色大免费全看 | 精品aⅴ一区二区三区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 午夜男女很黄的视频 | 国产激情无码一区二区 | 最近免费中文字幕中文高清百度 | 强伦人妻一区二区三区视频18 | 天堂а√在线中文在线 | 久久久久99精品国产片 | av人摸人人人澡人人超碰下载 | 国产成人精品久久亚洲高清不卡 | 女人和拘做爰正片视频 | 国产一精品一av一免费 | 亚洲va欧美va天堂v国产综合 | av无码电影一区二区三区 | 亚洲精品无码国产 | 亚洲第一网站男人都懂 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲国产欧美在线成人 | 亚洲午夜久久久影院 | 两性色午夜免费视频 | 疯狂三人交性欧美 | 无码国产乱人伦偷精品视频 | 久久久久人妻一区精品色欧美 | 99久久99久久免费精品蜜桃 | 亚洲成色www久久网站 | 无码吃奶揉捏奶头高潮视频 | 亚洲色偷偷男人的天堂 | 妺妺窝人体色www在线小说 | 动漫av一区二区在线观看 | 欧美人与物videos另类 | 婷婷五月综合激情中文字幕 | 亚洲色欲久久久综合网东京热 | 99久久久无码国产aaa精品 | 免费无码的av片在线观看 | 免费中文字幕日韩欧美 | 蜜臀av无码人妻精品 | v一区无码内射国产 | 国产成人精品无码播放 | 高中生自慰www网站 | 国产人妻久久精品二区三区老狼 | 亚洲中文字幕无码中文字在线 | 水蜜桃色314在线观看 | 国产精品理论片在线观看 | av无码久久久久不卡免费网站 | 成人性做爰aaa片免费看不忠 | 天海翼激烈高潮到腰振不止 | 亚洲国产精品久久人人爱 | 久久99精品久久久久婷婷 | 中文精品久久久久人妻不卡 | 亚洲一区二区观看播放 | 亚洲精品国偷拍自产在线观看蜜桃 | 黑人玩弄人妻中文在线 | 国产激情无码一区二区 | 水蜜桃亚洲一二三四在线 | 国产亚洲精品久久久久久国模美 | 四十如虎的丰满熟妇啪啪 | 亚洲欧美国产精品久久 | 日日天干夜夜狠狠爱 | 欧美日韩亚洲国产精品 | 一本色道久久综合亚洲精品不卡 | 99久久久无码国产精品免费 | 啦啦啦www在线观看免费视频 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 老头边吃奶边弄进去呻吟 | 欧美老妇交乱视频在线观看 | 无码一区二区三区在线 | 无码国产激情在线观看 | 久久久精品国产sm最大网站 | 国产女主播喷水视频在线观看 | 东北女人啪啪对白 | 色综合久久久无码网中文 | 久久亚洲日韩精品一区二区三区 | 99er热精品视频 | 国产成人无码av片在线观看不卡 | 精品少妇爆乳无码av无码专区 | 无码乱肉视频免费大全合集 | 婷婷五月综合缴情在线视频 | 国产精品怡红院永久免费 | 乱人伦人妻中文字幕无码久久网 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 青青久在线视频免费观看 | 久久国内精品自在自线 | 国产在线无码精品电影网 | 日本大乳高潮视频在线观看 | 国产精品无码成人午夜电影 | 亚洲熟妇自偷自拍另类 | 精品一区二区三区波多野结衣 | 国产高清不卡无码视频 | 免费无码av一区二区 | 欧美第一黄网免费网站 | 婷婷五月综合激情中文字幕 | 秋霞特色aa大片 | 久久亚洲精品成人无码 | 精品久久综合1区2区3区激情 | 5858s亚洲色大成网站www | 亚洲熟妇色xxxxx欧美老妇 | 久久久久av无码免费网 | aa片在线观看视频在线播放 | 久久精品丝袜高跟鞋 | 久久午夜夜伦鲁鲁片无码免费 | 乱人伦人妻中文字幕无码久久网 | 全黄性性激高免费视频 | 亚洲精品无码国产 | 国产精品内射视频免费 | 熟女俱乐部五十路六十路av | 国产成人无码a区在线观看视频app | 麻豆果冻传媒2021精品传媒一区下载 | 荫蒂添的好舒服视频囗交 | 婷婷五月综合缴情在线视频 | 任你躁国产自任一区二区三区 | 精品aⅴ一区二区三区 | 色偷偷人人澡人人爽人人模 | 荫蒂添的好舒服视频囗交 | 亚洲一区二区三区在线观看网站 | 午夜无码区在线观看 | 亚洲色成人中文字幕网站 | 国产精品美女久久久久av爽李琼 | 国产精品亚洲а∨无码播放麻豆 | 欧美黑人性暴力猛交喷水 | 国产va免费精品观看 | 天天摸天天碰天天添 | 亚洲精品美女久久久久久久 | 欧美日韩视频无码一区二区三 | 久9re热视频这里只有精品 | 久久精品人人做人人综合试看 | 在线精品亚洲一区二区 | 荫蒂被男人添的好舒服爽免费视频 | 日本熟妇人妻xxxxx人hd | 亚洲中文字幕在线无码一区二区 | аⅴ资源天堂资源库在线 | 色 综合 欧美 亚洲 国产 | 国产av一区二区三区最新精品 | 色老头在线一区二区三区 | 久久精品国产一区二区三区 | 亚洲日韩av片在线观看 | 免费无码av一区二区 | 夜先锋av资源网站 | 日日碰狠狠丁香久燥 | 久久久www成人免费毛片 | 天天摸天天透天天添 | 国产成人无码av在线影院 | 亚洲成av人影院在线观看 | 亚洲综合在线一区二区三区 | 欧美午夜特黄aaaaaa片 | 精品一区二区三区波多野结衣 | 97无码免费人妻超级碰碰夜夜 | 久久久成人毛片无码 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 午夜时刻免费入口 | 狠狠色噜噜狠狠狠狠7777米奇 | 色诱久久久久综合网ywww | 亚洲综合无码一区二区三区 | 少妇性l交大片欧洲热妇乱xxx | 牲欲强的熟妇农村老妇女视频 | 国产成人精品久久亚洲高清不卡 | 欧美亚洲国产一区二区三区 | 东京热一精品无码av | 大色综合色综合网站 | 国产真实伦对白全集 | 日韩少妇内射免费播放 | 国产乡下妇女做爰 | 日日干夜夜干 | 亚洲无人区一区二区三区 | 免费无码的av片在线观看 | 国产精品人人爽人人做我的可爱 | 国产福利视频一区二区 | 撕开奶罩揉吮奶头视频 | 色婷婷av一区二区三区之红樱桃 | 亚洲精品中文字幕 | 麻豆蜜桃av蜜臀av色欲av | 亚洲熟妇色xxxxx亚洲 | 中文字幕中文有码在线 | 亚洲精品久久久久avwww潮水 | 国产真实伦对白全集 | 国产人妻人伦精品1国产丝袜 | 超碰97人人射妻 | 国产精品亚洲专区无码不卡 | а天堂中文在线官网 | 亚洲gv猛男gv无码男同 | 天堂а√在线地址中文在线 | 久久久久se色偷偷亚洲精品av | 国产97在线 | 亚洲 | 水蜜桃色314在线观看 | 无码帝国www无码专区色综合 | 黑人大群体交免费视频 | 精品国产乱码久久久久乱码 | 一本大道伊人av久久综合 | 人妻中文无码久热丝袜 | 天堂亚洲2017在线观看 | 色综合久久88色综合天天 | 亚洲高清偷拍一区二区三区 | 九一九色国产 | 熟妇女人妻丰满少妇中文字幕 | 国产在线精品一区二区高清不卡 | 久久99热只有频精品8 | 精品久久久无码中文字幕 | 久久午夜夜伦鲁鲁片无码免费 | 人妻无码久久精品人妻 | 久久精品国产一区二区三区 | 久久久www成人免费毛片 | 俄罗斯老熟妇色xxxx | 啦啦啦www在线观看免费视频 | 国产97色在线 | 免 | 无码人妻出轨黑人中文字幕 | 永久免费观看国产裸体美女 | 狠狠综合久久久久综合网 | 性色欲网站人妻丰满中文久久不卡 | 欧美性色19p | 午夜精品一区二区三区的区别 | 国产精品亚洲综合色区韩国 | 成人亚洲精品久久久久 | 无遮挡啪啪摇乳动态图 | 欧美怡红院免费全部视频 | 亚洲欧美中文字幕5发布 | 男女下面进入的视频免费午夜 | 国产色xx群视频射精 | 欧美35页视频在线观看 | 5858s亚洲色大成网站www | 风流少妇按摩来高潮 | 亚洲码国产精品高潮在线 | 国产人妻人伦精品1国产丝袜 | 午夜男女很黄的视频 | 国产人妻精品午夜福利免费 | 成人无码视频在线观看网站 | 偷窥日本少妇撒尿chinese | 国产精品99爱免费视频 | 免费观看黄网站 | 亚洲 日韩 欧美 成人 在线观看 | 真人与拘做受免费视频一 | 人妻少妇精品久久 | 日本大香伊一区二区三区 | 精品人人妻人人澡人人爽人人 | 日本免费一区二区三区最新 | 亚洲gv猛男gv无码男同 | 真人与拘做受免费视频一 | 欧美自拍另类欧美综合图片区 | 午夜性刺激在线视频免费 | 亚洲精品久久久久久久久久久 | 男女爱爱好爽视频免费看 | 亚洲欧美日韩综合久久久 | 亚洲成av人在线观看网址 | 亚洲精品久久久久久久久久久 | 久久久精品国产sm最大网站 | 天堂а√在线中文在线 | 成人精品一区二区三区中文字幕 | 国产疯狂伦交大片 | 亚洲爆乳大丰满无码专区 | 久久久久亚洲精品男人的天堂 | 成在人线av无码免费 | 中文字幕乱码人妻无码久久 | 日本护士毛茸茸高潮 | 亚洲中文字幕在线无码一区二区 | 一本精品99久久精品77 | 国产成人无码av片在线观看不卡 | 免费播放一区二区三区 | 日韩人妻无码中文字幕视频 | 久久国产精品_国产精品 | 97久久精品无码一区二区 | 天天做天天爱天天爽综合网 | 亚洲の无码国产の无码步美 | 久久久久人妻一区精品色欧美 | 成人毛片一区二区 | 亚洲一区av无码专区在线观看 | 老司机亚洲精品影院 | 久久久久亚洲精品中文字幕 | 日韩精品无码一区二区中文字幕 | 国产精品福利视频导航 | 国产高潮视频在线观看 | 国产精品久久久久久亚洲毛片 | 无码av免费一区二区三区试看 | 亚洲乱码国产乱码精品精 | 一本久道久久综合狠狠爱 | 成人精品视频一区二区三区尤物 | 久久精品人人做人人综合 | 丰满妇女强制高潮18xxxx | 99久久久国产精品无码免费 | 久久精品国产大片免费观看 | 免费网站看v片在线18禁无码 | 波多野结衣乳巨码无在线观看 | 国产精品久久精品三级 | 任你躁国产自任一区二区三区 | 欧美大屁股xxxxhd黑色 | 国产午夜福利100集发布 | 亚洲熟悉妇女xxx妇女av | 久久无码中文字幕免费影院蜜桃 | 黄网在线观看免费网站 | 亚洲人成网站在线播放942 | 丰满少妇人妻久久久久久 | 亚洲精品国产品国语在线观看 | 日韩 欧美 动漫 国产 制服 | 三上悠亚人妻中文字幕在线 | 99久久精品日本一区二区免费 | 动漫av一区二区在线观看 | 97久久超碰中文字幕 | 99精品国产综合久久久久五月天 | 88国产精品欧美一区二区三区 | 搡女人真爽免费视频大全 | 丰满护士巨好爽好大乳 | 少妇性荡欲午夜性开放视频剧场 | 九九热爱视频精品 | 人妻少妇精品无码专区动漫 | 中文字幕日产无线码一区 | 无码国模国产在线观看 | 亚洲综合无码久久精品综合 | 波多野结衣一区二区三区av免费 | 欧美性生交xxxxx久久久 | 欧美zoozzooz性欧美 | 久久国产精品精品国产色婷婷 | 夜夜高潮次次欢爽av女 | www国产亚洲精品久久久日本 | 国产精品久久久久久无码 | 亚洲自偷精品视频自拍 | 丰满少妇熟乱xxxxx视频 | 无码乱肉视频免费大全合集 | 久久久久亚洲精品男人的天堂 | 久久zyz资源站无码中文动漫 | 国内少妇偷人精品视频 | 极品尤物被啪到呻吟喷水 | 亚洲成色在线综合网站 | 天堂在线观看www | 亚洲国产午夜精品理论片 | 性色欲情网站iwww九文堂 | 无码中文字幕色专区 | 久久人妻内射无码一区三区 | 在线a亚洲视频播放在线观看 | 国产精品亚洲专区无码不卡 | 人人妻人人澡人人爽人人精品浪潮 | 免费无码的av片在线观看 | 精品国产麻豆免费人成网站 | 亚洲欧洲日本综合aⅴ在线 | 又大又硬又黄的免费视频 | 人妻天天爽夜夜爽一区二区 | 人妻体内射精一区二区三四 | 成人毛片一区二区 | 亚洲熟妇色xxxxx欧美老妇 | 成人毛片一区二区 | 成人精品天堂一区二区三区 | 又湿又紧又大又爽a视频国产 | 亚洲爆乳精品无码一区二区三区 | 国内精品人妻无码久久久影院 | 乱人伦人妻中文字幕无码久久网 | 中文字幕无码人妻少妇免费 | 久久久国产一区二区三区 | a国产一区二区免费入口 | 亚洲成a人片在线观看日本 | 沈阳熟女露脸对白视频 | 人妻插b视频一区二区三区 | 成熟女人特级毛片www免费 | 精品无人国产偷自产在线 | 精品国产一区av天美传媒 | 亚洲精品国产精品乱码视色 | 亚洲自偷自偷在线制服 | 5858s亚洲色大成网站www | 丰满少妇熟乱xxxxx视频 | 久久精品丝袜高跟鞋 | 国产精品嫩草久久久久 | 蜜桃av抽搐高潮一区二区 | 久久久婷婷五月亚洲97号色 | 99国产欧美久久久精品 | 久久无码中文字幕免费影院蜜桃 | √天堂中文官网8在线 | 久久国产精品偷任你爽任你 | 欧美激情内射喷水高潮 | 一本久久伊人热热精品中文字幕 | 久久久久免费精品国产 | 国产精品嫩草久久久久 | aⅴ亚洲 日韩 色 图网站 播放 | 久久亚洲精品成人无码 | 最近免费中文字幕中文高清百度 | 国产欧美精品一区二区三区 | 色欲久久久天天天综合网精品 | 欧美丰满熟妇xxxx性ppx人交 | 免费无码肉片在线观看 | 国产手机在线αⅴ片无码观看 | av小次郎收藏 | 国产av一区二区精品久久凹凸 | 四虎4hu永久免费 | 国产真人无遮挡作爱免费视频 | 荫蒂被男人添的好舒服爽免费视频 | 97无码免费人妻超级碰碰夜夜 | 中文字幕色婷婷在线视频 | 国产极品美女高潮无套在线观看 | аⅴ资源天堂资源库在线 | 无码人妻av免费一区二区三区 | 天天做天天爱天天爽综合网 | 男人和女人高潮免费网站 | 亚洲精品午夜国产va久久成人 | 日韩视频 中文字幕 视频一区 | 国内丰满熟女出轨videos | 中文字幕无码人妻少妇免费 | 女人被男人爽到呻吟的视频 | 中文字幕 亚洲精品 第1页 | 亚洲欧洲日本综合aⅴ在线 | 少女韩国电视剧在线观看完整 | 午夜福利一区二区三区在线观看 | 亚洲成a人片在线观看无码3d | 欧洲精品码一区二区三区免费看 | 亚洲中文字幕成人无码 | 一本精品99久久精品77 | 国产精品毛片一区二区 | 5858s亚洲色大成网站www | 国产精品欧美成人 | 国产在线精品一区二区三区直播 | 亚洲色在线无码国产精品不卡 | 内射巨臀欧美在线视频 | 亚洲中文字幕在线观看 | 国产精品久久国产三级国 | 国内丰满熟女出轨videos | 午夜熟女插插xx免费视频 | 国产三级久久久精品麻豆三级 | 午夜福利电影 | 日本熟妇人妻xxxxx人hd | 国产亚洲精品久久久闺蜜 | 亚洲乱码国产乱码精品精 | 精品国产一区二区三区av 性色 | 久久久亚洲欧洲日产国码αv | 欧洲vodafone精品性 | 丰满护士巨好爽好大乳 | 国产成人无码av在线影院 | 国精产品一品二品国精品69xx | 又黄又爽又色的视频 | 国产无av码在线观看 | 任你躁在线精品免费 | 国产 精品 自在自线 | 久激情内射婷内射蜜桃人妖 | 国产极品美女高潮无套在线观看 | 色综合久久久无码中文字幕 | 久久久精品456亚洲影院 | 亚洲狠狠婷婷综合久久 | 国产极品美女高潮无套在线观看 | 人人澡人人妻人人爽人人蜜桃 | 粉嫩少妇内射浓精videos | 免费无码的av片在线观看 | 无套内谢老熟女 | 日韩精品久久久肉伦网站 | 久久精品人人做人人综合 | 熟妇激情内射com | 图片区 小说区 区 亚洲五月 | 国产亚洲人成a在线v网站 | 日日天干夜夜狠狠爱 | 欧美乱妇无乱码大黄a片 | 亚洲国产综合无码一区 | 牛和人交xxxx欧美 | 国产激情一区二区三区 | 国产香蕉97碰碰久久人人 | 在教室伦流澡到高潮hnp视频 | 欧洲vodafone精品性 | 成人精品一区二区三区中文字幕 | 亚洲精品欧美二区三区中文字幕 | 国产免费久久精品国产传媒 | 国产精品99爱免费视频 | 免费无码的av片在线观看 | 午夜精品久久久久久久久 | 成人性做爰aaa片免费看不忠 | 亚洲人成影院在线无码按摩店 | 88国产精品欧美一区二区三区 | 久久午夜无码鲁丝片 | 欧美激情综合亚洲一二区 | 又黄又爽又色的视频 | 俺去俺来也在线www色官网 | 强辱丰满人妻hd中文字幕 | 色窝窝无码一区二区三区色欲 | 亚洲自偷自拍另类第1页 | 领导边摸边吃奶边做爽在线观看 | 天海翼激烈高潮到腰振不止 | 久久久久亚洲精品男人的天堂 | 国产美女极度色诱视频www | 日韩精品a片一区二区三区妖精 | 国产精品久久久一区二区三区 | 日韩亚洲欧美中文高清在线 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产人妻久久精品二区三区老狼 | 国产精品igao视频网 | 嫩b人妻精品一区二区三区 | 在线a亚洲视频播放在线观看 | 亚洲の无码国产の无码步美 | 欧美日本免费一区二区三区 | 一本色道婷婷久久欧美 | 自拍偷自拍亚洲精品10p | 欧美xxxx黑人又粗又长 | 国产av人人夜夜澡人人爽麻豆 | 亚洲国产精品久久人人爱 | 中文字幕乱妇无码av在线 | 久久aⅴ免费观看 | 欧美 亚洲 国产 另类 | 久久久亚洲欧洲日产国码αv | 狂野欧美激情性xxxx | 亚洲va欧美va天堂v国产综合 | 国产真人无遮挡作爱免费视频 | 曰韩少妇内射免费播放 | 亚洲国产精品一区二区第一页 | 国产午夜无码视频在线观看 | 水蜜桃亚洲一二三四在线 | 国产欧美精品一区二区三区 | 99精品久久毛片a片 | 国产精品资源一区二区 | 国产乱子伦视频在线播放 | 无人区乱码一区二区三区 | 国产精品久久久久久亚洲影视内衣 | 国产精品国产三级国产专播 | 内射老妇bbwx0c0ck | 国产亚洲精品久久久闺蜜 | 一本久久a久久精品vr综合 | 亚洲熟妇色xxxxx亚洲 | 久久国内精品自在自线 | 亚洲欧洲日本无在线码 | 一区二区三区乱码在线 | 欧洲 | 美女毛片一区二区三区四区 | 乌克兰少妇xxxx做受 | 久久午夜夜伦鲁鲁片无码免费 | 国产女主播喷水视频在线观看 | 亚洲国产精品无码久久久久高潮 | 亚洲国产欧美国产综合一区 | 任你躁国产自任一区二区三区 | 国产乱人伦偷精品视频 | 少妇愉情理伦片bd | 欧美亚洲国产一区二区三区 | 色婷婷久久一区二区三区麻豆 | 无码人妻黑人中文字幕 | 欧美野外疯狂做受xxxx高潮 | 国产精品内射视频免费 | 亚洲精品久久久久中文第一幕 | 国产无套内射久久久国产 | 日日橹狠狠爱欧美视频 | 国产在线精品一区二区高清不卡 | 精品无码av一区二区三区 | 亚洲精品成a人在线观看 | 中文字幕 亚洲精品 第1页 | 老熟妇仑乱视频一区二区 | 亚洲午夜无码久久 | 成人aaa片一区国产精品 | 国产人妻大战黑人第1集 | 国产精品丝袜黑色高跟鞋 | 内射爽无广熟女亚洲 | 动漫av网站免费观看 | 玩弄中年熟妇正在播放 | 18禁黄网站男男禁片免费观看 | 人人爽人人爽人人片av亚洲 | 国产av无码专区亚洲a∨毛片 | 久久久国产一区二区三区 | 中文亚洲成a人片在线观看 | 国产精品第一国产精品 | 亚洲精品www久久久 | 99精品国产综合久久久久五月天 | 桃花色综合影院 | 欧美老妇与禽交 | 国产精品久久久久影院嫩草 | 亚洲色偷偷偷综合网 | 中文字幕无码日韩欧毛 | 精品久久久久久人妻无码中文字幕 | 正在播放老肥熟妇露脸 | 国产亚洲视频中文字幕97精品 | 久久久久久国产精品无码下载 | 欧美放荡的少妇 | 久久无码人妻影院 | 亚洲成a人片在线观看无码3d | 国产精品a成v人在线播放 | 亚洲伊人久久精品影院 | 少妇被黑人到高潮喷出白浆 | 国产97在线 | 亚洲 | 爆乳一区二区三区无码 | 欧美日韩一区二区免费视频 | 国产精品爱久久久久久久 | 国内老熟妇对白xxxxhd | 日本成熟视频免费视频 | 天堂久久天堂av色综合 | 天天摸天天透天天添 | 亚洲第一网站男人都懂 | 欧洲极品少妇 | 久久精品视频在线看15 | 国产精品人人爽人人做我的可爱 | 人妻熟女一区 | 精品人人妻人人澡人人爽人人 | 国产明星裸体无码xxxx视频 | 国产真实乱对白精彩久久 | 欧美国产日韩亚洲中文 | 午夜性刺激在线视频免费 | 亚洲一区二区观看播放 | 伊人久久大香线蕉av一区二区 | 少妇被粗大的猛进出69影院 | 国产在线无码精品电影网 | 精品欧洲av无码一区二区三区 | 丰满少妇人妻久久久久久 | 国产精品无码一区二区桃花视频 | 欧美老人巨大xxxx做受 | 亚洲国产成人av在线观看 | 少妇性荡欲午夜性开放视频剧场 | 又大又紧又粉嫩18p少妇 | 成人av无码一区二区三区 | 在线а√天堂中文官网 | 又大又硬又黄的免费视频 | 在教室伦流澡到高潮hnp视频 | 国产精品无码久久av | 欧美日韩久久久精品a片 | 精品人人妻人人澡人人爽人人 | 久久久亚洲欧洲日产国码αv | 亚洲毛片av日韩av无码 | 99久久婷婷国产综合精品青草免费 | 99久久久国产精品无码免费 | 女人被男人躁得好爽免费视频 | 国产精品理论片在线观看 | 精品久久久中文字幕人妻 | 97夜夜澡人人爽人人喊中国片 | 久久无码中文字幕免费影院蜜桃 | 日韩精品久久久肉伦网站 | 男女爱爱好爽视频免费看 | 亚洲精品鲁一鲁一区二区三区 | 国产特级毛片aaaaaa高潮流水 | 亚洲欧美日韩成人高清在线一区 | 亚洲经典千人经典日产 | 国产亚洲精品久久久久久久 | 日本高清一区免费中文视频 | 日日躁夜夜躁狠狠躁 | 蜜臀aⅴ国产精品久久久国产老师 | 精品久久久久久人妻无码中文字幕 | 牲欲强的熟妇农村老妇女 | 日本爽爽爽爽爽爽在线观看免 | 国产精品多人p群无码 | 国产成人久久精品流白浆 | 日本乱偷人妻中文字幕 | 巨爆乳无码视频在线观看 | 最新版天堂资源中文官网 | 国产色在线 | 国产 | 国产熟妇高潮叫床视频播放 | 亚洲一区二区三区偷拍女厕 | 黑人粗大猛烈进出高潮视频 | 亚洲男人av天堂午夜在 | 久久国产自偷自偷免费一区调 | 性生交大片免费看l | 国产成人无码a区在线观看视频app | 亚洲自偷自拍另类第1页 | 人妻插b视频一区二区三区 | 日本va欧美va欧美va精品 | 亚洲熟悉妇女xxx妇女av | 国产成人精品无码播放 | 日韩 欧美 动漫 国产 制服 | 日本乱偷人妻中文字幕 | 高潮毛片无遮挡高清免费视频 | 久久99精品国产麻豆蜜芽 | 精品久久久中文字幕人妻 | 国精品人妻无码一区二区三区蜜柚 | 狠狠噜狠狠狠狠丁香五月 | 午夜丰满少妇性开放视频 | 精品无码国产自产拍在线观看蜜 | 一本久道久久综合狠狠爱 | 久在线观看福利视频 | 欧美日韩综合一区二区三区 | 99久久精品日本一区二区免费 | 一本久道久久综合狠狠爱 | 亚洲人成人无码网www国产 | 亚洲a无码综合a国产av中文 | 国产特级毛片aaaaaaa高清 | 无套内谢的新婚少妇国语播放 | 六十路熟妇乱子伦 | 久久久久久国产精品无码下载 | 国产激情无码一区二区app | 天天综合网天天综合色 | 久久久av男人的天堂 | 动漫av一区二区在线观看 | 亚洲一区二区三区含羞草 | 无码人妻丰满熟妇区毛片18 | 激情五月综合色婷婷一区二区 | 男女猛烈xx00免费视频试看 | 青青青手机频在线观看 | 国产无套内射久久久国产 | 最近的中文字幕在线看视频 | 国产精品美女久久久久av爽李琼 | 亚洲色偷偷偷综合网 | 国产在线精品一区二区高清不卡 | 男女超爽视频免费播放 | 久久国语露脸国产精品电影 | 欧美老人巨大xxxx做受 | 动漫av网站免费观看 | 亚洲色在线无码国产精品不卡 | 成人性做爰aaa片免费看 | 国精品人妻无码一区二区三区蜜柚 | av人摸人人人澡人人超碰下载 | 亚洲 日韩 欧美 成人 在线观看 | 国产激情无码一区二区app | 国产精品自产拍在线观看 | 波多野结衣高清一区二区三区 | 亚洲综合无码久久精品综合 | 黑人巨大精品欧美一区二区 | 美女张开腿让人桶 | 成人三级无码视频在线观看 | 午夜熟女插插xx免费视频 | 国产suv精品一区二区五 | 奇米影视7777久久精品人人爽 | 风流少妇按摩来高潮 | 欧美喷潮久久久xxxxx | 国产精品内射视频免费 | 免费观看黄网站 | 成人毛片一区二区 | 亚洲国产精品无码久久久久高潮 | 激情五月综合色婷婷一区二区 | www国产亚洲精品久久久日本 | 亚洲综合无码久久精品综合 | 国产香蕉尹人综合在线观看 | 久久精品国产日本波多野结衣 | 亚洲欧美色中文字幕在线 | 国产精品99爱免费视频 | 色综合视频一区二区三区 | 精品无人国产偷自产在线 | 欧美黑人性暴力猛交喷水 | 国产亚洲人成a在线v网站 | 国产精品久久精品三级 | 疯狂三人交性欧美 | 亚洲 欧美 激情 小说 另类 | 最近的中文字幕在线看视频 | 亚洲国产欧美日韩精品一区二区三区 | 久久久久se色偷偷亚洲精品av | 中文字幕乱妇无码av在线 | 丰满护士巨好爽好大乳 | 国产成人无码av片在线观看不卡 | av无码不卡在线观看免费 | 亚洲欧美日韩成人高清在线一区 | 欧美老熟妇乱xxxxx | 性欧美疯狂xxxxbbbb | 日本www一道久久久免费榴莲 | 丰满人妻精品国产99aⅴ | 4hu四虎永久在线观看 | 伊人久久大香线蕉亚洲 | 国产精品国产自线拍免费软件 | 曰本女人与公拘交酡免费视频 | 国产在线无码精品电影网 | а天堂中文在线官网 | 丝袜足控一区二区三区 | 国产乡下妇女做爰 | 久久天天躁夜夜躁狠狠 | 男人的天堂2018无码 | 亚洲性无码av中文字幕 | 成人毛片一区二区 | 精品成在人线av无码免费看 | 国产女主播喷水视频在线观看 | 久久国内精品自在自线 | 国产明星裸体无码xxxx视频 | 国産精品久久久久久久 | 99re在线播放 | 国产特级毛片aaaaaa高潮流水 | 久久综合狠狠综合久久综合88 | 日韩 欧美 动漫 国产 制服 | 国产sm调教视频在线观看 | 熟女少妇在线视频播放 | 性欧美videos高清精品 | 国内精品一区二区三区不卡 | 老熟女重囗味hdxx69 | 性生交大片免费看l | 青春草在线视频免费观看 | 天海翼激烈高潮到腰振不止 | 亚洲综合在线一区二区三区 | 无码国产乱人伦偷精品视频 | 国产精品亚洲lv粉色 | 麻豆国产人妻欲求不满 | 精品国产一区二区三区av 性色 | 成人一区二区免费视频 | 澳门永久av免费网站 | 亚洲欧美国产精品久久 | 性色av无码免费一区二区三区 | 国产精品视频免费播放 | 人人爽人人爽人人片av亚洲 | 亚洲国产av精品一区二区蜜芽 | 少妇高潮一区二区三区99 | 亚洲男人av香蕉爽爽爽爽 | 国产精品无码一区二区桃花视频 | a在线观看免费网站大全 | 国产精品第一区揄拍无码 | 日韩精品无码一本二本三本色 | 人妻人人添人妻人人爱 | 初尝人妻少妇中文字幕 | 精品成人av一区二区三区 | 国产一区二区三区影院 | v一区无码内射国产 | 99久久久国产精品无码免费 | 亚洲欧美综合区丁香五月小说 | 久久久久久av无码免费看大片 | 国产精品亚洲综合色区韩国 | 亚洲日本一区二区三区在线 | 久久午夜夜伦鲁鲁片无码免费 | 水蜜桃av无码 | 激情亚洲一区国产精品 | 国产97在线 | 亚洲 | 国产美女精品一区二区三区 | 激情人妻另类人妻伦 | 大肉大捧一进一出好爽视频 | 国产又爽又猛又粗的视频a片 | 国产精品久久国产精品99 | 亚洲精品一区二区三区在线 | 夜夜高潮次次欢爽av女 | 红桃av一区二区三区在线无码av | 亚洲熟妇色xxxxx欧美老妇y | 亚洲精品一区二区三区四区五区 | 人妻有码中文字幕在线 | 亚洲爆乳大丰满无码专区 | 少妇被黑人到高潮喷出白浆 | 亚洲国产精品久久久天堂 | 欧美xxxxx精品 | 骚片av蜜桃精品一区 | 樱花草在线播放免费中文 | 18无码粉嫩小泬无套在线观看 | 日本一区二区三区免费高清 | 国产色在线 | 国产 | 久久久av男人的天堂 | 国产精华av午夜在线观看 | 男女爱爱好爽视频免费看 | 亚洲欧美日韩成人高清在线一区 | 精品熟女少妇av免费观看 | 天天躁夜夜躁狠狠是什么心态 | 国产精品沙发午睡系列 | 双乳奶水饱满少妇呻吟 | 国产真人无遮挡作爱免费视频 | 亚洲精品久久久久久久久久久 | 精品国产麻豆免费人成网站 | 人人妻人人澡人人爽人人精品 | 成人一区二区免费视频 | 亚洲国产av精品一区二区蜜芽 | 国产人妻人伦精品1国产丝袜 | 亚洲精品成人福利网站 | 国产va免费精品观看 | 丝袜美腿亚洲一区二区 | 无码乱肉视频免费大全合集 | 久久午夜夜伦鲁鲁片无码免费 | 欧美精品免费观看二区 | 在教室伦流澡到高潮hnp视频 | 精品无码一区二区三区的天堂 | 久久天天躁狠狠躁夜夜免费观看 | 青青草原综合久久大伊人精品 | 亲嘴扒胸摸屁股激烈网站 | 一本久久a久久精品亚洲 | 国产av人人夜夜澡人人爽麻豆 | 国产绳艺sm调教室论坛 | 久久99热只有频精品8 | 中文字幕乱码中文乱码51精品 | 四虎影视成人永久免费观看视频 | 国产精品va在线观看无码 | 蜜桃视频插满18在线观看 | 国产成人精品一区二区在线小狼 | 玩弄人妻少妇500系列视频 | 日韩av无码一区二区三区 | 内射后入在线观看一区 | 色爱情人网站 | 漂亮人妻洗澡被公强 日日躁 | 成年美女黄网站色大免费视频 | 国产成人无码区免费内射一片色欲 | 中文字幕人妻无码一区二区三区 | 99久久无码一区人妻 | 中文亚洲成a人片在线观看 | 欧美三级不卡在线观看 | 色婷婷香蕉在线一区二区 | 亚洲无人区午夜福利码高清完整版 | 88国产精品欧美一区二区三区 | 狂野欧美性猛交免费视频 | 久激情内射婷内射蜜桃人妖 | 麻豆精品国产精华精华液好用吗 | 亚洲の无码国产の无码步美 | 日本爽爽爽爽爽爽在线观看免 | 午夜福利一区二区三区在线观看 | 成人女人看片免费视频放人 | 欧美 亚洲 国产 另类 | 亚洲国产精品一区二区美利坚 | 久9re热视频这里只有精品 | 免费播放一区二区三区 | 国产凸凹视频一区二区 | 亚洲欧美精品伊人久久 | 亚洲人交乣女bbw | 国产精品无码久久av | 免费看男女做好爽好硬视频 | 免费无码一区二区三区蜜桃大 | 亚洲国产精品成人久久蜜臀 | 免费视频欧美无人区码 | 亚洲国产精品一区二区第一页 | 久久亚洲国产成人精品性色 | 国产av久久久久精东av | 一区二区三区乱码在线 | 欧洲 | 亚洲午夜久久久影院 | 大屁股大乳丰满人妻 | 国产精品va在线观看无码 | 亚洲日韩精品欧美一区二区 | 欧美成人免费全部网站 | 欧美黑人巨大xxxxx | 国产成人无码av在线影院 | 98国产精品综合一区二区三区 | 亚洲精品一区二区三区大桥未久 | 国产精品无码永久免费888 | 欧美精品一区二区精品久久 | 少妇高潮喷潮久久久影院 | 一本大道久久东京热无码av | 综合网日日天干夜夜久久 | 国产内射爽爽大片视频社区在线 | 亚洲欧美色中文字幕在线 | 国产精品毛片一区二区 | 高清无码午夜福利视频 | 成熟妇人a片免费看网站 | 亚洲国产精品一区二区第一页 | 精品久久综合1区2区3区激情 | 乱中年女人伦av三区 | 亚洲色大成网站www | 国产麻豆精品精东影业av网站 | 又大又黄又粗又爽的免费视频 | 久久97精品久久久久久久不卡 | 亚洲精品午夜无码电影网 | 亚洲国产成人a精品不卡在线 | 色欲综合久久中文字幕网 | a片在线免费观看 | 黑人大群体交免费视频 | 国产精品资源一区二区 | 欧美日本精品一区二区三区 | 九九热爱视频精品 | 久久久中文字幕日本无吗 | 婷婷色婷婷开心五月四房播播 | 精品国产麻豆免费人成网站 | 国产真人无遮挡作爱免费视频 | 久久久久久国产精品无码下载 | 少妇的肉体aa片免费 | 欧美日韩一区二区三区自拍 | 精品乱子伦一区二区三区 | 日本熟妇乱子伦xxxx | 国产精品久久国产精品99 | 久久无码中文字幕免费影院蜜桃 | 亚洲一区二区三区国产精华液 | 欧美日本免费一区二区三区 | av小次郎收藏 | 亚洲一区二区三区含羞草 | 玩弄中年熟妇正在播放 | 97se亚洲精品一区 | 少妇久久久久久人妻无码 | 精品成在人线av无码免费看 | 超碰97人人做人人爱少妇 | 综合激情五月综合激情五月激情1 | 又大又黄又粗又爽的免费视频 | 波多野结衣乳巨码无在线观看 | 一本久久伊人热热精品中文字幕 | 小泽玛莉亚一区二区视频在线 | www一区二区www免费 | 人人爽人人澡人人高潮 | a片在线免费观看 | 九月婷婷人人澡人人添人人爽 | 精品国产福利一区二区 | 97精品人妻一区二区三区香蕉 | 亚洲日韩av一区二区三区四区 | 国产亚洲精品久久久ai换 | 狠狠躁日日躁夜夜躁2020 |