久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

hadoop 入门实例【转】

發布時間:2023/11/29 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop 入门实例【转】 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

原文鏈接:http://www.cnblogs.com/xia520pi/archive/2012/06/04/2534533.html

1、數據去重

  ?"數據去重"主要是為了掌握和利用并行化思想來對數據進行有意義篩選統計大數據集上的數據種類個數從網站日志中計算訪問地等這些看似龐雜的任務都會涉及數據去重。下面就進入這個實例的MapReduce程序設計。

1.1 實例描述

  對數據文件中的數據進行去重。數據文件中的每行都是一個數據。

  樣例輸入如下所示:

?????1)file1:

?

2012-3-1 a

2012-3-2 b

2012-3-3 c

2012-3-4 d

2012-3-5 a

2012-3-6 b

2012-3-7 c

2012-3-3 c

?

?????2)file2:

?

2012-3-1 b

2012-3-2 a

2012-3-3 b

2012-3-4 d

2012-3-5 a

2012-3-6 c

2012-3-7 d

2012-3-3 c

?

???? 樣例輸出如下所示:

?

2012-3-1 a

2012-3-1 b

2012-3-2 a

2012-3-2 b

2012-3-3 b

2012-3-3 c

2012-3-4 d

2012-3-5 a

2012-3-6 b

2012-3-6 c

2012-3-7 c

2012-3-7 d

?

1.2 設計思路

  數據去重最終目標是讓原始數據出現次數超過一次數據輸出文件只出現一次。我們自然而然會想到將同一個數據的所有記錄都交給一臺reduce機器,無論這個數據出現多少次,只要在最終結果中輸出一次就可以了。具體就是reduce的輸入應該以數據作為key,而對value-list則沒有要求。當reduce接收到一個<key,value-list>時就直接將key復制到輸出的key中,并將value設置成空值

  在MapReduce流程中,map的輸出<key,value>經過shuffle過程聚集成<key,value-list>后會交給reduce。所以從設計好的reduce輸入可以反推出map的輸出key應為數據,value任意。繼續反推,map輸出數據的key為數據,而在這個實例中每個數據代表輸入文件中的一行內容,所以map階段要完成的任務就是在采用Hadoop默認的作業輸入方式之后,將value設置為key,并直接輸出(輸出中的value任意)。map中的結果經過shuffle過程之后交給reduce。reduce階段不會管每個key有多少個value,它直接將輸入的key復制為輸出的key,并輸出就可以了(輸出中的value被設置成空了)。

1.3 程序代碼

???? 程序代碼如下所示:

?

package?com.hebut.mr;

?

import?java.io.IOException;

?

import?org.apache.hadoop.conf.Configuration;

import?org.apache.hadoop.fs.Path;

import?org.apache.hadoop.io.IntWritable;

import?org.apache.hadoop.io.Text;

import?org.apache.hadoop.mapreduce.Job;

import?org.apache.hadoop.mapreduce.Mapper;

import?org.apache.hadoop.mapreduce.Reducer;

import?org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import?org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import?org.apache.hadoop.util.GenericOptionsParser;

?

public?class?Dedup {

?

????//map將輸入中的value復制到輸出數據的key上,并直接輸出

????public?static?class?Map?extends?Mapper<Object,Text,Text,Text>{

????????private?static?Text?line=new?Text();//每行數據

???????

????????//實現map函數

????????public?void?map(Object key,Text value,Context context)

????????????????throws?IOException,InterruptedException{

????????????line=value;

??????????? context.write(line,?new?Text(""));

??????? }

???????

??? }

???

????//reduce將輸入中的key復制到輸出數據的key上,并直接輸出

????public?static?class?Reduce?extends?Reducer<Text,Text,Text,Text>{

????????//實現reduce函數

????????public?void?reduce(Text key,Iterable<Text> values,Context context)

????????????????throws?IOException,InterruptedException{

??????????? context.write(key,?new?Text(""));

??????? }

???????

??? }

???

????public?static?void?main(String[] args)?throws?Exception{

??????? Configuration conf =?new?Configuration();

????????//這句話很關鍵

??????? conf.set("mapred.job.tracker",?"192.168.1.2:9001");

???????

??????? String[] ioArgs=new?String[]{"dedup_in","dedup_out"};

???? String[] otherArgs =?new?GenericOptionsParser(conf, ioArgs).getRemainingArgs();

?????if?(otherArgs.length?!= 2) {

???? System.err.println("Usage: Data Deduplication <in> <out>");

???? System.exit(2);

???? }

?????

???? Job job =?new?Job(conf,?"Data Deduplication");

???? job.setJarByClass(Dedup.class);

?????

?????//設置Map、Combine和Reduce處理類

???? job.setMapperClass(Map.class);

???? job.setCombinerClass(Reduce.class);

???? job.setReducerClass(Reduce.class);

?????

?????//設置輸出類型

???? job.setOutputKeyClass(Text.class);

???? job.setOutputValueClass(Text.class);

?????

?????//設置輸入和輸出目錄

???? FileInputFormat.addInputPath(job,?new?Path(otherArgs[0]));

???? FileOutputFormat.setOutputPath(job,?new?Path(otherArgs[1]));

???? System.exit(job.waitForCompletion(true) ? 0 : 1);

???? }

}

?

1.4 代碼結果

?????1)準備測試數據

???? 通過Eclipse下面的"DFS Locations"在"/user/hadoop"目錄下創建輸入文件"dedup_in"文件夾(備注:"dedup_out"不需要創建。)如圖1.4-1所示,已經成功創建。

???? ????

圖1.4-1 創建"dedup_in"?????????????? ??????????????????? 圖1.4.2 上傳"file*.txt"

?

??? ?然后在本地建立兩個txt文件,通過Eclipse上傳到"/user/hadoop/dedup_in"文件夾中,兩個txt文件的內容如"實例描述"那兩個文件一樣。如圖1.4-2所示,成功上傳之后。

???? 從SecureCRT遠處查看"Master.Hadoop"的也能證實我們上傳的兩個文件。

?

?

??? 查看兩個文件的內容如圖1.4-3所示:

?

圖1.4-3 文件"file*.txt"內容

2)查看運行結果

???? 這時我們右擊Eclipse的"DFS Locations"中"/user/hadoop"文件夾進行刷新,這時會發現多出一個"dedup_out"文件夾,且里面有3個文件,然后打開雙其"part-r-00000"文件,會在Eclipse中間把內容顯示出來。如圖1.4-4所示。

?

圖1.4-4 運行結果

?

??? 此時,你可以對比一下和我們之前預期的結果是否一致。

2、數據排序

  "數據排序"是許多實際任務執行時要完成的第一項工作,比如學生成績評比數據建立索引等。這個實例和數據去重類似,都是原始數據進行初步處理,為進一步的數據操作打好基礎。下面進入這個示例。

2.1 實例描述

??? 對輸入文件中數據進行排序。輸入文件中的每行內容均為一個數字即一個數據。要求在輸出中每行有兩個間隔的數字,其中,第一個代表原始數據在原始數據集中的位次第二個代表原始數據

??? 樣例輸入

????1)file1:

?

2

32

654

32

15

756

65223

?

????2)file2:

?

5956

22

650

92

?

????3)file3:

?

26

54

6

?

??? 樣例輸出

?

1??? 2

2??? 6

3??? 15

4??? 22

5??? 26

6??? 32

7??? 32

8??? 54

9??? 92

10??? 650

11??? 654

12??? 756

13??? 5956

14??? 65223

?

2.2 設計思路

  這個實例僅僅要求對輸入數據進行排序,熟悉MapReduce過程的讀者會很快想到在MapReduce過程中就有排序,是否可以利用這個默認的排序,而不需要自己再實現具體的排序呢?答案是肯定的。

  但是在使用之前首先需要了解它的默認排序規則。它是按照key值進行排序的,如果key為封裝int的IntWritable類型,那么MapReduce按照數字大小對key排序,如果key為封裝為String的Text類型,那么MapReduce按照字典順序對字符串排序。

  了解了這個細節,我們就知道應該使用封裝int的IntWritable型數據結構了。也就是在map中將讀入的數據轉化成IntWritable型,然后作為key值輸出(value任意)。reduce拿到<key,value-list>之后,將輸入的key作為value輸出,并根據value-list元素個數決定輸出的次數。輸出的key(即代碼中的linenum)是一個全局變量,它統計當前key的位次。需要注意的是這個程序中沒有配置Combiner,也就是在MapReduce過程中不使用Combiner。這主要是因為使用map和reduce就已經能夠完成任務了。

2.3 程序代碼

??? 程序代碼如下所示:

?

package?com.hebut.mr;

?

import?java.io.IOException;

?

import?org.apache.hadoop.conf.Configuration;

import?org.apache.hadoop.fs.Path;

import?org.apache.hadoop.io.IntWritable;

import?org.apache.hadoop.io.Text;

import?org.apache.hadoop.mapreduce.Job;

import?org.apache.hadoop.mapreduce.Mapper;

import?org.apache.hadoop.mapreduce.Reducer;

import?org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import?org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import?org.apache.hadoop.util.GenericOptionsParser;

?

public?class?Sort {

?

????//map將輸入中的value化成IntWritable類型,作為輸出的key

????public?static?class?Map?extends

        Mapper<Object,Text,IntWritable,IntWritable>{

????????private?static?IntWritable?data=new?IntWritable();

???????

????????//實現map函數

????????public?void?map(Object key,Text value,Context context)

????????????????throws?IOException,InterruptedException{

??????????? String line=value.toString();

????????????data.set(Integer.parseInt(line));

??????????? context.write(data,?new?IntWritable(1));

??????? }

???????

??? }

???

????//reduce將輸入中的key復制到輸出數據的key上,

????//然后根據輸入的value-list中元素的個數決定key的輸出次數

????//用全局linenum來代表key的位次

????public?static?class?Reduce?extends

??????????? Reducer<IntWritable,IntWritable,IntWritable,IntWritable>{

???????

????????private?static?IntWritable?linenum?=?new?IntWritable(1);

???????

????????//實現reduce函數

????????public?void?reduce(IntWritable key,Iterable<IntWritable> values,Context context)

????????????????throws?IOException,InterruptedException{

????????????for(IntWritable?val:values){

??????????????? context.write(linenum, key);

????????????????linenum?=?new?IntWritable(linenum.get()+1);

??????????? }

???????????

??????? }

?

??? }

???

????public?static?void?main(String[] args)?throws?Exception{

??????? Configuration conf =?new?Configuration();

????????//這句話很關鍵

??????? conf.set("mapred.job.tracker",?"192.168.1.2:9001");

???????

??????? String[] ioArgs=new?String[]{"sort_in","sort_out"};

???? String[] otherArgs =?new?GenericOptionsParser(conf, ioArgs).getRemainingArgs();

?????if?(otherArgs.length?!= 2) {

???? System.err.println("Usage: Data Sort <in> <out>");

???????? System.exit(2);

???? }

?????

???? Job job =?new?Job(conf,?"Data Sort");

???? job.setJarByClass(Sort.class);

?????

?????//設置Map和Reduce處理類

???? job.setMapperClass(Map.class);

???? job.setReducerClass(Reduce.class);

?????

?????//設置輸出類型

???? job.setOutputKeyClass(IntWritable.class);

???? job.setOutputValueClass(IntWritable.class);

?????

?????//設置輸入和輸出目錄

???? FileInputFormat.addInputPath(job,?new?Path(otherArgs[0]));

???? FileOutputFormat.setOutputPath(job,?new?Path(otherArgs[1]));

???? System.exit(job.waitForCompletion(true) ? 0 : 1);

???? }

}

?

2.4 代碼結果

1)準備測試數據

??? 通過Eclipse下面的"DFS Locations"在"/user/hadoop"目錄下創建輸入文件"sort_in"文件夾(備注:"sort_out"不需要創建。)如圖2.4-1所示,已經成功創建。

??????????????

圖2.4-1 創建"sort_in"????????????????????????????????????????????????? 圖2.4.2 上傳"file*.txt"

?

??? 然后在本地建立三個txt文件,通過Eclipse上傳到"/user/hadoop/sort_in"文件夾中,三個txt文件的內容如"實例描述"那三個文件一樣。如圖2.4-2所示,成功上傳之后。

??? 從SecureCRT遠處查看"Master.Hadoop"的也能證實我們上傳的三個文件。

?

?

查看兩個文件的內容如圖2.4-3所示:

?

圖2.4-3 文件"file*.txt"內容

2)查看運行結果

??? 這時我們右擊Eclipse的"DFS Locations"中"/user/hadoop"文件夾進行刷新,這時會發現多出一個"sort_out"文件夾,且里面有3個文件,然后打開雙其"part-r-00000"文件,會在Eclipse中間把內容顯示出來。如圖2.4-4所示。

?

圖2.4-4 運行結果

3、平均成績

??? "平均成績"主要目的還是在重溫經典"WordCount"例子,可以說是在基礎上的微變化版,該實例主要就是實現一個計算學生平均成績的例子。

3.1 實例描述

  對輸入文件中數據進行就算學生平均成績。輸入文件中的每行內容均為一個學生姓名和他相應的成績,如果有多門學科,則每門學科為一個文件。要求在輸出中每行有兩個間隔的數據,其中,第一個代表學生的姓名第二個代表其平均成績

??? 樣本輸入

????1)math:

?

張三??? 88

李四??? 99

王五??? 66

趙六??? 77

?

????2)china:

?

張三??? 78

李四??? 89

王五??? 96

趙六??? 67

?

????3)english:

?

張三??? 80

李四??? 82

王五??? 84

趙六??? 86

?

??? 樣本輸出

?

張三??? 82

李四??? 90

王五??? 82

趙六??? 76

?

3.2 設計思路

??? 計算學生平均成績是一個仿"WordCount"例子,用來重溫一下開發MapReduce程序的流程。程序包括兩部分的內容:Map部分和Reduce部分,分別實現了map和reduce的功能。

????Map處理的是一個純文本文件,文件中存放的數據時每一行表示一個學生的姓名和他相應一科成績。Mapper處理的數據是由InputFormat分解過的數據集,其中InputFormat的作用是將數據集切割成小數據集InputSplit,每一個InputSlit將由一個Mapper負責處理。此外,InputFormat中還提供了一個RecordReader的實現,并將一個InputSplit解析成<key,value>對提供給了map函數。InputFormat的默認值是TextInputFormat,它針對文本文件,按行將文本切割成InputSlit,并用LineRecordReader將InputSplit解析成<key,value>對,key是行在文本中的位置,value是文件中的一行。

??? Map的結果會通過partion分發到Reducer,Reducer做完Reduce操作后,將通過以格式OutputFormat輸出。

??? Mapper最終處理的結果對<key,value>,會送到Reducer中進行合并,合并的時候,有相同key的鍵/值對則送到同一個Reducer上。Reducer是所有用戶定制Reducer類地基礎,它的輸入是key和這個key對應的所有value的一個迭代器,同時還有Reducer的上下文。Reduce的結果由Reducer.Context的write方法輸出到文件中。

3.3 程序代碼

??? 程序代碼如下所示:

?

package?com.hebut.mr;

?

import?java.io.IOException;

import?java.util.Iterator;

import?java.util.StringTokenizer;

?

import?org.apache.hadoop.conf.Configuration;

import?org.apache.hadoop.fs.Path;

import?org.apache.hadoop.io.IntWritable;

import?org.apache.hadoop.io.LongWritable;

import?org.apache.hadoop.io.Text;

import?org.apache.hadoop.mapreduce.Job;

import?org.apache.hadoop.mapreduce.Mapper;

import?org.apache.hadoop.mapreduce.Reducer;

import?org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import?org.apache.hadoop.mapreduce.lib.input.TextInputFormat;

import?org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import?org.apache.hadoop.mapreduce.lib.output.TextOutputFormat;

import?org.apache.hadoop.util.GenericOptionsParser;

?

public?class?Score {

?

????public?static?class?Map?extends

??????????? Mapper<LongWritable, Text, Text, IntWritable> {

?

????????//?實現map函數

????????public?void?map(LongWritable?key, Text value, Context context)

????????????????throws?IOException, InterruptedException {

????????????//?將輸入的純文本文件的數據轉化成String

??????????? String line = value.toString();

?

????????????//?將輸入的數據首先按行進行分割

????????????StringTokenizer tokenizerArticle =?new?StringTokenizer(line,?"\n");

?

????????????//?分別對每一行進行處理

????????????while?(tokenizerArticle.hasMoreElements()) {

????????????????//?每行按空格劃分

??????????????? StringTokenizer tokenizerLine =?new?StringTokenizer(tokenizerArticle.nextToken());

?

??????????????? String strName = tokenizerLine.nextToken();//?學生姓名部分

??????????????? String strScore = tokenizerLine.nextToken();//?成績部分

?

??????????????? Text name =?new?Text(strName);

????????????????int?scoreInt = Integer.parseInt(strScore);

????????????????//?輸出姓名和成績

??????????????? context.write(name,?new?IntWritable(scoreInt));

??????????? }

??????? }

?

??? }

?

????public?static?class?Reduce?extends

??????????? Reducer<Text, IntWritable, Text, IntWritable> {

????????//?實現reduce函數

????????public?void?reduce(Text key, Iterable<IntWritable> values,

??????????????? Context context)?throws?IOException, InterruptedException {

?

????????????int?sum = 0;

????????????int?count = 0;

?

??????????? Iterator<IntWritable> iterator = values.iterator();

????????????while?(iterator.hasNext()) {

??????????????? sum += iterator.next().get();//?計算總分

??????????????? count++;//?統計總的科目數

??????????? }

?

????????????int?average = (int) sum / count;//?計算平均成績

??????????? context.write(key,?new?IntWritable(average));

??????? }

?

??? }

?

????public?static?void?main(String[] args)?throws?Exception {

??????? Configuration conf =?new?Configuration();

????????//?這句話很關鍵

??????? conf.set("mapred.job.tracker",?"192.168.1.2:9001");

?

??????? String[] ioArgs =?new?String[] {?"score_in",?"score_out"?};

??????? String[] otherArgs =?new?GenericOptionsParser(conf, ioArgs).getRemainingArgs();

????????if?(otherArgs.length?!= 2) {

??????????? System.err.println("Usage: Score Average <in> <out>");

??????????? System.exit(2);

??????? }

?

??????? Job job =?new?Job(conf,?"Score Average");

??????? job.setJarByClass(Score.class);

?

????????//?設置Map、Combine和Reduce處理類

??????? job.setMapperClass(Map.class);

??????? job.setCombinerClass(Reduce.class);

??????? job.setReducerClass(Reduce.class);

?

????????//?設置輸出類型

??????? job.setOutputKeyClass(Text.class);

??????? job.setOutputValueClass(IntWritable.class);

?

????????//?將輸入的數據集分割成小數據塊splites,提供一個RecordReder的實現

??????? job.setInputFormatClass(TextInputFormat.class);

????????//?提供一個RecordWriter的實現,負責數據輸出

??????? job.setOutputFormatClass(TextOutputFormat.class);

?

????????//?設置輸入和輸出目錄

??????? FileInputFormat.addInputPath(job,?new?Path(otherArgs[0]));

??????? FileOutputFormat.setOutputPath(job,?new?Path(otherArgs[1]));

??????? System.exit(job.waitForCompletion(true) ? 0 : 1);

??? }

}

?

3.4 代碼結果

1)準備測試數據

??? 通過Eclipse下面的"DFS Locations"在"/user/hadoop"目錄下創建輸入文件"score_in"文件夾(備注:"score_out"不需要創建。)如圖3.4-1所示,已經成功創建。

?

????? ???? ?

圖3.4-1 創建"score_in"????????????????????????????????????????????????????? ?圖3.4.2 上傳三門分數

?

??? 然后在本地建立三個txt文件,通過Eclipse上傳到"/user/hadoop/score_in"文件夾中,三個txt文件的內容如"實例描述"那三個文件一樣。如圖3.4-2所示,成功上傳之后。

????備注:文本文件的編碼為"UTF-8",默認為"ANSI",可以另存為時選擇,不然中文會出現亂碼

??? 從SecureCRT遠處查看"Master.Hadoop"的也能證實我們上傳的三個文件。

?

?

查看三個文件的內容如圖3.4-3所示:

?

圖3.4.3 三門成績的內容

2)查看運行結果

??? 這時我們右擊Eclipse的"DFS Locations"中"/user/hadoop"文件夾進行刷新,這時會發現多出一個"score_out"文件夾,且里面有3個文件,然后打開雙其"part-r-00000"文件,會在Eclipse中間把內容顯示出來。如圖3.4-4所示。

?

圖3.4-4 運行結果

4、單表關聯

??? 前面的實例都是在數據上進行一些簡單的處理,為進一步的操作打基礎。"單表關聯"這個實例要求給出的數據尋找關心的數據,它是對原始數據所包含信息的挖掘。下面進入這個實例。

4.1 實例描述

??? 實例中給出child-parent(孩子——父母)表,要求輸出grandchild-grandparent(孫子——爺奶)表。

??? 樣例輸入如下所示。

????file:

?

child??????? parent

Tom??????? Lucy

Tom??????? Jack

Jone??????? Lucy

Jone??????? Jack

Lucy??????? Mary

Lucy??????? Ben

Jack??????? Alice

Jack??????? Jesse

Terry??????? Alice

Terry??????? Jesse

Philip??????? Terry

Philip??????? Alma

Mark??????? Terry

Mark??????? Alma

?

??? 家族樹狀關系譜:

?

?

圖4.2-1 家族譜

??? 樣例輸出如下所示。

????file:

?

grandchild??????? grandparent

Tom???????????   Alice

Tom???????????   Jesse

Jone???????????   Alice

Jone???????????   Jesse

Tom???????????   Mary

Tom???????????   Ben

Jone???????????   Mary

Jone???????????   Ben

Philip??????????  ? Alice

Philip???????????   Jesse

Mark???????????   Alice

Mark???????????   Jesse

?

4.2 設計思路

?????? 分析這個實例,顯然需要進行單表連接,連接的是左表parent列和右表child列,且左表右表同一個表

  連接結果除去連接的兩列就是所需要的結果——"grandchild--grandparent"表。要用MapReduce解決這個實例,首先應該考慮如何實現自連接其次就是連接列設置最后結果整理

????? 考慮到MapReduce的shuffle過程會將相同的key會連接在一起,所以可以將map結果的key設置成待連接,然后列中相同的值就自然會連接在一起了。再與最開始的分析聯系起來:

  要連接的是左表的parent列和右表的child列,且左表和右表是同一個表,所以在map階段讀入數據分割childparent之后,會將parent設置成keychild設置成value進行輸出,并作為左表;再將同一對childparent中的child設置成keyparent設置成value進行輸出,作為右表。為了區分輸出中的左右表,需要在輸出的value加上左右表信息,比如在value的String最開始處加上字符1表示左表,加上字符2表示右表。這樣在map的結果中就形成了左表和右表,然后在shuffle過程中完成連接。reduce接收到連接的結果,其中每個key的value-list就包含了"grandchild--grandparent"關系。取出每個key的value-list進行解析,將左表中的child放入一個數組右表中的parent放入一個數組,然后對兩個數組求笛卡爾積就是最后的結果了。

4.3 程序代碼

??? 程序代碼如下所示。

?

package?com.hebut.mr;

?

import?java.io.IOException;

import?java.util.*;

?

import?org.apache.hadoop.conf.Configuration;

import?org.apache.hadoop.fs.Path;

import?org.apache.hadoop.io.IntWritable;

import?org.apache.hadoop.io.Text;

import?org.apache.hadoop.mapreduce.Job;

import?org.apache.hadoop.mapreduce.Mapper;

import?org.apache.hadoop.mapreduce.Reducer;

import?org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import?org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import?org.apache.hadoop.util.GenericOptionsParser;

?

public?class?STjoin {

?

????public?static?int?time?= 0;

?

????/*

???? * map將輸出分割child和parent,然后正序輸出一次作為右表,

???? *?反序輸出一次作為左表,需要注意的是在輸出的value中必須

???? *?加上左右表的區別標識。

???? */

????public?static?class?Map?extends?Mapper<Object, Text, Text, Text> {

?

????????//?實現map函數

????????public?void?map(Object key, Text value, Context context)

????????????????throws?IOException, InterruptedException {

??????????? String childname =?new?String();//?孩子名稱

??????????? String parentname =?new?String();//?父母名稱

??????????? String relationtype =?new?String();//?左右表標識

?

????????????//?輸入的一行預處理文本

??????????? StringTokenizer itr=new?StringTokenizer(value.toString());

??????????? String[] values=new?String[2];

????????????int?i=0;

????????????while(itr.hasMoreTokens()){

??????????????? values[i]=itr.nextToken();

??????????????? i++;

??????????? }

???????????

????????????if?(values[0].compareTo("child") != 0) {

??????????????? childname = values[0];

??????????????? parentname = values[1];

?

????????????????//?輸出左表

??????????????? relationtype =?"1";

??????????????? context.write(new?Text(values[1]),?new?Text(relationtype +

????????????????????????"+"+ childname +?"+"?+ parentname));

?

????????????????//?輸出右表

??????????????? relationtype =?"2";

??????????????? context.write(new?Text(values[0]),?new?Text(relationtype +

????????????????????????"+"+ childname +?"+"?+ parentname));

??????????? }

??????? }

?

??? }

?

????public?static?class?Reduce?extends?Reducer<Text, Text, Text, Text> {

?

????????//?實現reduce函數

????????public?void?reduce(Text key, Iterable<Text> values, Context context)

????????????????throws?IOException, InterruptedException {

?

????????????//?輸出表頭

????????????if?(0 ==?time) {

????????????????context.write(new?Text("grandchild"),?new?Text("grandparent"));

????????????????time++;

??????????? }

?

????????????int?grandchildnum = 0;

??????????? String[] grandchild =?new?String[10];

????????????int?grandparentnum = 0;

??????????? String[] grandparent =?new?String[10];

?

????????????Iterator?ite = values.iterator();

????????????while?(ite.hasNext()) {

??????????????? String record = ite.next().toString();

????????????????int?len = record.length();

????????????????int?i = 2;

????????????????if?(0 == len) {

????????????????????continue;

??????????????? }

?

????????????????//?取得左右表標識

????????????????char?relationtype = record.charAt(0);

????????????????//?定義孩子和父母變量

??????????????? String childname =?new?String();

??????????????? String parentname =?new?String();

?

????????????????//?獲取value-list中value的child

????????????????while?(record.charAt(i) !=?'+') {

??????????????????? childname += record.charAt(i);

??????????????????? i++;

??????????????? }

?

??????????????? i = i + 1;

?

????????????????//?獲取value-list中value的parent

????????????????while?(i < len) {

??????????????????? parentname += record.charAt(i);

??????????????????? i++;

??????????????? }

?

????????????????//?左表,取出child放入grandchildren

????????????????if?('1'?== relationtype) {

??????????????????? grandchild[grandchildnum] = childname;

??????????????????? grandchildnum++;

??????????????? }

?

????????????????//?右表,取出parent放入grandparent

????????????????if?('2'?== relationtype) {

??????????????????? grandparent[grandparentnum] = parentname;

??????????????????? grandparentnum++;

??????????????? }

??????????? }

?

????????????//?grandchild和grandparent數組求笛卡爾兒積

????????????if?(0 != grandchildnum && 0 != grandparentnum) {

????????????????for?(int?m = 0; m < grandchildnum; m++) {

????????????????????for?(int?n = 0; n < grandparentnum; n++) {

????????????????????????//?輸出結果

??????????????????????? context.write(new?Text(grandchild[m]),?new?Text(grandparent[n]));

??????????????????? }

??????????????? }

??????????? }

??????? }

??? }

?

????public?static?void?main(String[] args)?throws?Exception {

??????? Configuration conf =?new?Configuration();

????????//?這句話很關鍵

??????? conf.set("mapred.job.tracker",?"192.168.1.2:9001");

?

??????? String[] ioArgs =?new?String[] {?"STjoin_in",?"STjoin_out"?};

??????? String[] otherArgs =?new?GenericOptionsParser(conf, ioArgs).getRemainingArgs();

????????if?(otherArgs.length?!= 2) {

??????????? System.err.println("Usage: Single Table Join <in> <out>");

??????????? System.exit(2);

??????? }

?

??????? Job job =?new?Job(conf,?"Single Table Join");

??????? job.setJarByClass(STjoin.class);

?

????????//?設置Map和Reduce處理類

??????? job.setMapperClass(Map.class);

??????? job.setReducerClass(Reduce.class);

?

????????//?設置輸出類型

??????? job.setOutputKeyClass(Text.class);

??????? job.setOutputValueClass(Text.class);

?

????????//?設置輸入和輸出目錄

??????? FileInputFormat.addInputPath(job,?new?Path(otherArgs[0]));

??????? FileOutputFormat.setOutputPath(job,?new?Path(otherArgs[1]));

??????? System.exit(job.waitForCompletion(true) ? 0 : 1);

??? }

}

?

4.4 代碼結果

1)準備測試數據

??? 通過Eclipse下面的"DFS Locations"在"/user/hadoop"目錄下創建輸入文件"STjoin_in"文件夾(備注:"STjoin_out"不需要創建。)如圖4.4-1所示,已經成功創建。

?

???????????????? ?

圖4.4-1 創建"STjoin_in"?????????????????????????????????????? 圖4.4.2 上傳"child-parent"表

?

??? 然后在本地建立一個txt文件,通過Eclipse上傳到"/user/hadoop/STjoin_in"文件夾中,一個txt文件的內容如"實例描述"那個文件一樣。如圖4.4-2所示,成功上傳之后。

??? 從SecureCRT遠處查看"Master.Hadoop"的也能證實我們上傳的文件,顯示其內容如圖4.4-3所示:

?

圖4.4-3 表"child-parent"內容

????2)運行詳解

????(1)Map處理:

??? map函數輸出結果如下所示。

?

child??????? parent????????????????àà??????????????????? 忽略此行

Tom??????? Lucy???????????????????àà??????????????? <Lucy,1+Tom+Lucy>

???????????????????????????????????????????         <Tom,2+Tom+Lucy >

Tom??????? Jack????????????????????àà??????????????? <Jack,1+Tom+Jack>

???????????????????????????????????????????         <Tom,2+Tom+Jack>

Jone??????? Lucy???????????????  àà??????????????? <Lucy,1+Jone+Lucy>

???????????????????????????????????????????         <Jone,2+Jone+Lucy>

Jone??????? Jack????????????????????àà??????????????? <Jack,1+Jone+Jack>

???????????????????????????????????????????         <Jone,2+Jone+Jack>

Lucy??????? Mary???????????????????àà??????????????? <Mary,1+Lucy+Mary>

???????????????????????????????????????????         <Lucy,2+Lucy+Mary>

Lucy??????? Ben????????????????????àà??????????????? <Ben,1+Lucy+Ben>

???????????????????????????????????????????          <Lucy,2+Lucy+Ben>

Jack??????? Alice????????????????????àà??????????????? <Alice,1+Jack+Alice>

???????????????????????????????????????????           <Jack,2+Jack+Alice>

Jack??????? Jesse???????????????????àà??????????????? <Jesse,1+Jack+Jesse>

???????????????????????????????????????????           <Jack,2+Jack+Jesse>

Terry??????? Alice???????????????????àà??????????????? <Alice,1+Terry+Alice>

???????????????????????????????????????????           <Terry,2+Terry+Alice>

Terry??????? Jesse??????????????????àà??????????????? <Jesse,1+Terry+Jesse>

???????????????????????????????????????????           <Terry,2+Terry+Jesse>

Philip??????? Terry??????????????????àà??????????????? <Terry,1+Philip+Terry>

???????????????????????????????????????????           <Philip,2+Philip+Terry>

Philip??????? Alma???????????????????àà??????????????? <Alma,1+Philip+Alma>

???????????????????????????????????????????           <Philip,2+Philip+Alma>

Mark??????? Terry???????????????????àà??????????????? <Terry,1+Mark+Terry>

???????????????????????????????????????????           <Mark,2+Mark+Terry>

Mark??????? Alma???????????????  àà??????????????? <Alma,1+Mark+Alma>

???????????????????????????????????????????           <Mark,2+Mark+Alma>

?

????(2)Shuffle處理

??? 在shuffle過程中完成連接。

?

map函數輸出

排序結果

shuffle連接

<Lucy,1+Tom+Lucy>

<Tom,2+Tom+Lucy>

<Jack,1+Tom+Jack>

<Tom,2+Tom+Jack>

<Lucy,1+Jone+Lucy>

<Jone,2+Jone+Lucy>

<Jack,1+Jone+Jack>

<Jone,2+Jone+Jack>

<Mary,1+Lucy+Mary>

<Lucy,2+Lucy+Mary>

<Ben,1+Lucy+Ben>

<Lucy,2+Lucy+Ben>

<Alice,1+Jack+Alice>

<Jack,2+Jack+Alice>

<Jesse,1+Jack+Jesse>

<Jack,2+Jack+Jesse>

<Alice,1+Terry+Alice>

<Terry,2+Terry+Alice>

<Jesse,1+Terry+Jesse>

<Terry,2+Terry+Jesse>

<Terry,1+Philip+Terry>

<Philip,2+Philip+Terry>

<Alma,1+Philip+Alma>

<Philip,2+Philip+Alma>

<Terry,1+Mark+Terry>

<Mark,2+Mark+Terry>

<Alma,1+Mark+Alma>

<Mark,2+Mark+Alma>

<Alice,1+Jack+Alice>

<Alice,1+Terry+Alice>

<Alma,1+Philip+Alma>

<Alma,1+Mark+Alma>

<Ben,1+Lucy+Ben>

<Jack,1+Tom+Jack>

<Jack,1+Jone+Jack>

<Jack,2+Jack+Alice>

<Jack,2+Jack+Jesse>

<Jesse,1+Jack+Jesse>

<Jesse,1+Terry+Jesse>

<Jone,2+Jone+Lucy>

<Jone,2+Jone+Jack>

<Lucy,1+Tom+Lucy>

<Lucy,1+Jone+Lucy>

<Lucy,2+Lucy+Mary>

<Lucy,2+Lucy+Ben>

<Mary,1+Lucy+Mary>

<Mark,2+Mark+Terry>

<Mark,2+Mark+Alma>

<Philip,2+Philip+Terry>

<Philip,2+Philip+Alma>

<Terry,2+Terry+Alice>

<Terry,2+Terry+Jesse>

<Terry,1+Philip+Terry>

<Terry,1+Mark+Terry>

<Tom,2+Tom+Lucy>

<Tom,2+Tom+Jack>

<Alice,1+Jack+Alice,

??????? 1+Terry+Alice?,

??????? 1+Philip+Alma,

??????? 1+Mark+Alma >

<Ben,1+Lucy+Ben>

<Jack,1+Tom+Jack,

??????? 1+Jone+Jack,

??????? 2+Jack+Alice,

??????? 2+Jack+Jesse >

<Jesse,1+Jack+Jesse,

??????? 1+Terry+Jesse >

<Jone,2+Jone+Lucy,

??????? 2+Jone+Jack>

<Lucy,1+Tom+Lucy,

??????? 1+Jone+Lucy,

??????? 2+Lucy+Mary,

??????? 2+Lucy+Ben>

<Mary,1+Lucy+Mary,

??????? 2+Mark+Terry,

??????? 2+Mark+Alma>

<Philip,2+Philip+Terry,

??????? 2+Philip+Alma>

<Terry,2+Terry+Alice,

??????? 2+Terry+Jesse,

??????? 1+Philip+Terry,

??????? 1+Mark+Terry>

<Tom,2+Tom+Lucy,

??????? 2+Tom+Jack>

?

????(3)Reduce處理

????首先由語句"0 != grandchildnum && 0 != grandparentnum"得知,只要在"value-list"中沒有左表或者右表,則不會做處理,可以根據這條規則去除無效shuffle連接

?

無效的shuffle連接

有效的shuffle連接

<Alice,1+Jack+Alice,

??????? 1+Terry+Alice?,

??????? 1+Philip+Alma,

??????? 1+Mark+Alma >

<Ben,1+Lucy+Ben>

<Jesse,1+Jack+Jesse,

??????? 1+Terry+Jesse >

<Jone,2+Jone+Lucy,

??????? 2+Jone+Jack>

<Mary,1+Lucy+Mary,

??????? 2+Mark+Terry,

??????? 2+Mark+Alma>

<Philip,2+Philip+Terry,

??????? 2+Philip+Alma>

<Tom,2+Tom+Lucy,

??????? 2+Tom+Jack>

<Jack,1+Tom+Jack,

??????? 1+Jone+Jack,

??????? 2+Jack+Alice,

??????? 2+Jack+Jesse >

<Lucy,1+Tom+Lucy,

??????? 1+Jone+Lucy,

??????? 2+Lucy+Mary,

??????? 2+Lucy+Ben>

<Terry,2+Terry+Alice,

??????? 2+Terry+Jesse,

??????? 1+Philip+Terry,

??????? 1+Mark+Terry>

??? 然后根據下面語句進一步對有效的shuffle連接做處理。

?

// 左表,取出child放入grandchildren

if ('1' == relationtype) {

??? grandchild[grandchildnum] = childname;

??? grandchildnum++;

}

?

// 右表,取出parent放入grandparent

if ('2' == relationtype) {

??? grandparent[grandparentnum] = parentname;

??? grandparentnum++;

}

?

??? 針對一條數據進行分析:

?

<Jack,1+Tom+Jack,

??????? 1+Jone+Jack,

??????? 2+Jack+Alice,

??????? 2+Jack+Jesse >

?

????分析結果左表用"字符1"表示,右表用"字符2"表示,上面的<key,value-list>中的"key"表示左表與右表連接鍵。而"value-list"表示以"key"連接左表與右表相關數據

??? 根據上面針對左表與右表不同的處理規則,取得兩個數組的數據如下所示:

?

grandchild

Tom、Jone(grandchild[grandchildnum] = childname;)

grandparent

Alice、Jesse(grandparent[grandparentnum] = parentname;)

????

??? 然后根據下面語句進行處理。

?

for (int m = 0; m < grandchildnum; m++) {

??? for (int n = 0; n < grandparentnum; n++) {

??????? context.write(new Text(grandchild[m]), new Text(grandparent[n]));

??? }

}

?

??

?

處理結果如下面所示:

?

Tom??????? Jesse

Tom??????? Alice

Jone??????? Jesse

Jone??????? Alice?

??? 其他的有效shuffle連接處理都是如此

3)查看運行結果

??? 這時我們右擊Eclipse的"DFS Locations"中"/user/hadoop"文件夾進行刷新,這時會發現多出一個"STjoin_out"文件夾,且里面有3個文件,然后打開雙其"part-r-00000"文件,會在Eclipse中間把內容顯示出來。如圖4.4-4所示。

?

圖4.4-4 運行結果

5、多表關聯

????多表關聯和單表關聯類似,它也是通過對原始數據進行一定的處理,從其中挖掘出關心的信息。下面進入這個實例。

5.1 實例描述

??? 輸入是兩個文件,一個代表工廠表,包含工廠名列和地址編號列;另一個代表地址表,包含地址名列和地址編號列。要求從輸入數據中找出工廠名地址名對應關系,輸出"工廠名——地址名"表。

??? 樣例輸入如下所示。

????1)factory:

?

factoryname???????????????     addressed

Beijing Red Star???????????????     1

Shenzhen Thunder???????????     3

Guangzhou Honda???????????     2

Beijing Rising??????????????????     1

Guangzhou Development Bank??????2

Tencent???????????????         3

Back of Beijing???????????????      1

?

????2)address:

?

addressID??? addressname

1???????     Beijing

2???????     Guangzhou

3???????     Shenzhen

4???????     Xian

?

??? 樣例輸出如下所示。

?

factoryname???????????????????     addressname

Back of Beijing???????????????????     ? Beijing

Beijing Red Star???????????????????     Beijing

Beijing Rising???????????????????       Beijing

Guangzhou Development Bank??????????Guangzhou

Guangzhou Honda???????????????     Guangzhou

Shenzhen Thunder???????????????     Shenzhen

Tencent???????????????????         Shenzhen

?

5.2 設計思路

??? 多表關聯和單表關聯相似,都類似于數據庫中的自然連接。相比單表關聯,多表關聯的左右表和連接列更加清楚。所以可以采用和單表關聯的相同處理方式,map識別出輸入的行屬于哪個表之后,對其進行分割,將連接的列值保存在key中,另一列和左右表標識保存在value中,然后輸出。reduce拿到連接結果之后,解析value內容,根據標志將左右表內容分開存放,然后求笛卡爾積,最后直接輸出。

??? 這個實例的具體分析參考單表關聯實例。下面給出代碼。

5.3 程序代碼

??? 程序代碼如下所示:

?

package?com.hebut.mr;

?

import?java.io.IOException;

import?java.util.*;

?

import?org.apache.hadoop.conf.Configuration;

import?org.apache.hadoop.fs.Path;

import?org.apache.hadoop.io.IntWritable;

import?org.apache.hadoop.io.Text;

import?org.apache.hadoop.mapreduce.Job;

import?org.apache.hadoop.mapreduce.Mapper;

import?org.apache.hadoop.mapreduce.Reducer;

import?org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import?org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import?org.apache.hadoop.util.GenericOptionsParser;

?

public?class?MTjoin {

?

????public?static?int?time?= 0;

?

????/*

???? *?在map中先區分輸入行屬于左表還是右表,然后對兩列值進行分割,

???? *?保存連接列在key值,剩余列和左右表標志在value中,最后輸出

???? */

????public?static?class?Map?extends?Mapper<Object, Text, Text, Text> {

?

????????//?實現map函數

????????public?void?map(Object key, Text value, Context context)

????????????????throws?IOException, InterruptedException {

??????????? String line = value.toString();//?每行文件

??????????? String relationtype =?new?String();//?左右表標識

?

????????????//?輸入文件首行,不處理

????????????if?(line.contains("factoryname") ==?true

??????????????????? || line.contains("addressed") ==?true) {

????????????????return;

??????????? }

?

????????????//?輸入的一行預處理文本

??????????? StringTokenizer itr =?new?StringTokenizer(line);

??????????? String mapkey =?new?String();

??????????? String mapvalue =?new?String();

????????????int?i = 0;

????????????while?(itr.hasMoreTokens()) {

????????????????//?先讀取一個單詞

??????????????? String token = itr.nextToken();

????????????????//?判斷該地址ID就把存到"values[0]"

????????????????if?(token.charAt(0) >=?'0'?&& token.charAt(0) <=?'9') {

??????????????????? mapkey = token;

????????????????????if?(i > 0) {

??????????????????????? relationtype =?"1";

??????????????????? }?else?{

??????????????????????? relationtype =?"2";

??????????????????? }

????????????????????continue;

??????????????? }

?

????????????????//?存工廠名

??????????????? mapvalue += token +?" ";

??????????????? i++;

??????????? }

?

????????????//?輸出左右表

??????????? context.write(new?Text(mapkey),?new?Text(relationtype +?"+"+ mapvalue));

??????? }

??? }

?

????/*

???? * reduce解析map輸出,將value中數據按照左右表分別保存,

  *?然后求出笛卡爾積,并輸出。

???? */

????public?static?class?Reduce?extends?Reducer<Text, Text, Text, Text> {

?

????????//?實現reduce函數

????????public?void?reduce(Text key, Iterable<Text> values, Context context)

????????????????throws?IOException, InterruptedException {

?

????????????//?輸出表頭

????????????if?(0 ==?time) {

????????????????context.write(new?Text("factoryname"),?new?Text("addressname"));

????????????????time++;

??????????? }

?

????????????int?factorynum = 0;

??????????? String[] factory =?new?String[10];

????????????int?addressnum = 0;

??????????? String[]?address?=?new?String[10];

?

????????????Iterator?ite = values.iterator();

????????????while?(ite.hasNext()) {

??????????????? String record = ite.next().toString();

????????????????int?len = record.length();

????????????????int?i = 2;

????????????????if?(0 == len) {

????????????????????continue;

??????????????? }

?

????????????????//?取得左右表標識

????????????????char?relationtype = record.charAt(0);

?

????????????????//?左表

????????????????if?('1'?== relationtype) {

??????????????????? factory[factorynum] = record.substring(i);

??????????????????? factorynum++;

??????????????? }

?

????????????????//?右表

????????????????if?('2'?== relationtype) {

????????????????????address[addressnum] = record.substring(i);

??????????????????? addressnum++;

??????????????? }

??????????? }

?

????????????//?求笛卡爾積

????????????if?(0 != factorynum && 0 != addressnum) {

????????????????for?(int?m = 0; m < factorynum; m++) {

????????????????????for?(int?n = 0; n < addressnum; n++) {

????????????????????????//?輸出結果

??????????????????????? context.write(new?Text(factory[m]),

????????????????????????????????new?Text(address[n]));

??????????????????? }

??????????????? }

??????????? }

?

??????? }

??? }

?

????public?static?void?main(String[] args)?throws?Exception {

??????? Configuration conf =?new?Configuration();

????????//?這句話很關鍵

??????? conf.set("mapred.job.tracker",?"192.168.1.2:9001");

?

??????? String[] ioArgs =?new?String[] {?"MTjoin_in",?"MTjoin_out"?};

??????? String[] otherArgs =?new?GenericOptionsParser(conf, ioArgs).getRemainingArgs();

????????if?(otherArgs.length?!= 2) {

??????????? System.err.println("Usage: Multiple Table Join <in> <out>");

??????????? System.exit(2);

??????? }

?

??????? Job job =?new?Job(conf,?"Multiple Table Join");

??????? job.setJarByClass(MTjoin.class);

?

????????//?設置Map和Reduce處理類

??????? job.setMapperClass(Map.class);

??????? job.setReducerClass(Reduce.class);

?

????????//?設置輸出類型

??????? job.setOutputKeyClass(Text.class);

??????? job.setOutputValueClass(Text.class);

?

????????//?設置輸入和輸出目錄

??????? FileInputFormat.addInputPath(job,?new?Path(otherArgs[0]));

??????? FileOutputFormat.setOutputPath(job,?new?Path(otherArgs[1]));

??????? System.exit(job.waitForCompletion(true) ? 0 : 1);

??? }

}

?

5.4 代碼結果

1)準備測試數據

??? 通過Eclipse下面的"DFS Locations"在"/user/hadoop"目錄下創建輸入文件"MTjoin_in"文件夾(備注:"MTjoin_out"不需要創建。)如圖5.4-1所示,已經成功創建。

?

???????? ?????? ?

圖5.4-1 創建"MTjoin_in"??????????????????????????????????????????????????????????? ?圖5.4.2 上傳兩個數據表

?

??? 然后在本地建立兩個txt文件,通過Eclipse上傳到"/user/hadoop/MTjoin_in"文件夾中,兩個txt文件的內容如"實例描述"那兩個文件一樣。如圖5.4-2所示,成功上傳之后。

??? 從SecureCRT遠處查看"Master.Hadoop"的也能證實我們上傳的兩個文件。

?

圖5.4.3 兩個數據表的內容

2)查看運行結果

??? 這時我們右擊Eclipse的"DFS Locations"中"/user/hadoop"文件夾進行刷新,這時會發現多出一個"MTjoin_out"文件夾,且里面有3個文件,然后打開雙其"part-r-00000"文件,會在Eclipse中間把內容顯示出來。如圖5.4-4所示。

?

圖5.4-4 運行結果

6、倒排索引

??? "倒排索引"是文檔檢索系統最常用數據結構,被廣泛地應用于全文搜索引擎。它主要是用來存儲某個單詞(或詞組)在一個文檔或一組文檔中的存儲位置映射,即提供了一種根據內容來查找文檔方式。由于不是根據文檔來確定文檔所包含的內容,而是進行相反的操作,因而稱為倒排索引(Inverted Index)。

6.1 實例描述

??? 通常情況下,倒排索引由一個單詞(或詞組)以及相關的文檔列表組成,文檔列表中的文檔或者是標識文檔的ID號,或者是指文檔所在位置的URL,如圖6.1-1所示。

?

圖6.1-1 倒排索引結構

??? 從圖6.1-1可以看出,單詞1出現在{文檔1,文檔4,文檔13,……}中,單詞2出現在{文檔3,文檔5,文檔15,……}中,而單詞3出現在{文檔1,文檔8,文檔20,……}中。在實際應用中,還需要每個文檔添加一個權值,用來指出每個文檔與搜索內容的相關度,如圖6.1-2所示。

?

?

圖6.1-2 添加權重的倒排索引

??? 最常用的是使用詞頻作為權重,即記錄單詞在文檔中出現的次數。以英文為例,如圖6.1-3所示,索引文件中的"MapReduce"一行表示:"MapReduce"這個單詞在文本T0中出現過1次,T1中出現過1次,T2中出現過2次。當搜索條件為"MapReduce"、"is"、"Simple"時,對應的集合為:{T0,T1,T2}∩{T0,T1}∩{T0,T1}={T0,T1},即文檔T0和T1包含了所要索引的單詞,而且只有T0是連續的。

?

?

圖6.1-3 倒排索引示例

??? 更復雜的權重還可能要記錄單詞在多少個文檔中出現過,以實現TF-IDF(Term Frequency-Inverse Document Frequency)算法,或者考慮單詞在文檔中的位置信息(單詞是否出現在標題中,反映了單詞在文檔中的重要性)等。

??? 樣例輸入如下所示。

????1)file1:

?

MapReduce is simple

?

????2)file2:

?

MapReduce is powerful is simple

?

????3)file3:

?

Hello MapReduce bye MapReduce

?

??? 樣例輸出如下所示。

?

MapReduce????? file1.txt:1;file2.txt:1;file3.txt:2;

is???????     file1.txt:1;file2.txt:2;

simple???????  ? file1.txt:1;file2.txt:1;

powerful???   file2.txt:1;

Hello???????   file3.txt:1;

bye???????  ?? file3.txt:1;

?

6.2 設計思路

??? 實現"倒排索引"只要關注的信息為:單詞文檔URL詞頻,如圖3-11所示。但是在實現過程中,索引文件的格式與圖6.1-3會略有所不同,以避免重寫OutPutFormat類。下面根據MapReduce的處理過程給出倒排索引設計思路

????1)Map過程

??? 首先使用默認的TextInputFormat類對輸入文件進行處理,得到文本中每行偏移量及其內容。顯然,Map過程首先必須分析輸入的<key,value>對,得到倒排索引中需要的三個信息:單詞、文檔URL和詞頻,如圖6.2-1所示。

?

圖6.2-1 Map過程輸入/輸出

?

  這里存在兩個問題第一,<key,value>對只能有兩個值,在不使用Hadoop自定義數據類型的情況下,需要根據情況將其中兩個值合并成一個值,作為key或value值;第二,通過一個Reduce過程無法同時完成詞頻統計生成文檔列表,所以必須增加一個Combine過程完成詞頻統計

??? 這里講單詞和URL組成key值(如"MapReduce:file1.txt"),將詞頻作為value,這樣做的好處是可以利用MapReduce框架自帶的Map端排序,將同一文檔相同單詞詞頻組成列表,傳遞給Combine過程,實現類似于WordCount的功能。

????2)Combine過程

??? 經過map方法處理后,Combine過程將key值相同的value值累加,得到一個單詞在文檔在文檔中的詞頻,如圖6.2-2所示。如果直接將圖6.2-2所示的輸出作為Reduce過程的輸入,在Shuffle過程時將面臨一個問題:所有具有相同單詞的記錄(由單詞、URL和詞頻組成)應該交由同一個Reducer處理,但當前的key值無法保證這一點,所以必須修改key值和value值。這次將單詞作為key值,URL和詞頻組value值(如"file1.txt:1")。這樣做的好處是可以利用MapReduce框架默認的HashPartitioner類完成Shuffle過程,將相同單詞所有記錄發送給同一個Reducer進行處理

?

?

圖6.2-2 Combine過程輸入/輸出

????3)Reduce過程

??? 經過上述兩個過程后,Reduce過程只需將相同key值的value值組合成倒排索引文件所需的格式即可,剩下的事情就可以直接交給MapReduce框架進行處理了。如圖6.2-3所示。索引文件的內容除分隔符外與圖6.1-3解釋相同。

????4)需要解決的問題

??? 本實例設計的倒排索引在文件數目沒有限制,但是單詞文件不宜過大(具體值與默認HDFS塊大小及相關配置有關),要保證每個文件對應一個split。否則,由于Reduce過程沒有進一步統計詞頻,最終結果可能出現詞頻未統計完全單詞。可以通過重寫InputFormat類將每個文件為一個split,避免上述情況。或者執行兩次MapReduce第一次MapReduce用于統計詞頻第二次MapReduce用于生成倒排索引。除此之外,還可以利用復合鍵值對等實現包含更多信息的倒排索引。

?

?

圖6.2-3 Reduce過程輸入/輸出

6.3 程序代碼

  程序代碼如下所示:

?

package?com.hebut.mr;

?

import?java.io.IOException;

import?java.util.StringTokenizer;

?

import?org.apache.hadoop.conf.Configuration;

import?org.apache.hadoop.fs.Path;

import?org.apache.hadoop.io.IntWritable;

import?org.apache.hadoop.io.Text;

import?org.apache.hadoop.mapreduce.Job;

import?org.apache.hadoop.mapreduce.Mapper;

import?org.apache.hadoop.mapreduce.Reducer;

import?org.apache.hadoop.mapreduce.lib.input.FileInputFormat;

import?org.apache.hadoop.mapreduce.lib.input.FileSplit;

import?org.apache.hadoop.mapreduce.lib.output.FileOutputFormat;

import?org.apache.hadoop.util.GenericOptionsParser;

?

public?class?InvertedIndex {

?

????public?static?class?Map?extends?Mapper<Object, Text, Text, Text> {

?

????????private?Text?keyInfo?=?new?Text();?//?存儲單詞和URL組合

????????private?Text?valueInfo?=?new?Text();?//?存儲詞頻

????????private?FileSplit?split;?//?存儲Split對象

?

????????//?實現map函數

????????public?void?map(Object key, Text value, Context context)

????????????????throws?IOException, InterruptedException {

?

????????????//?獲得<key,value>對所屬的FileSplit對象

????????????split?= (FileSplit) context.getInputSplit();

?

??????????? StringTokenizer itr =?new?StringTokenizer(value.toString());

?

????????????while?(itr.hasMoreTokens()) {

????????????????// key值由單詞和URL組成,如"MapReduce:file1.txt"

????????????????//?獲取文件的完整路徑

????????????????//?keyInfo.set(itr.nextToken()+":"+split.getPath().toString());

????????????????//?這里為了好看,只獲取文件的名稱。

????????????????int?splitIndex =?split.getPath().toString().indexOf("file");

????????????????keyInfo.set(itr.nextToken() +?":"

??????????????????? +?split.getPath().toString().substring(splitIndex));

????????????????//?詞頻初始化為1

????????????????valueInfo.set("1");

?

??????????????? context.write(keyInfo,?valueInfo);

??????????? }

??????? }

??? }

?

????public?static?class?Combine?extends?Reducer<Text, Text, Text, Text> {

?

????????private?Text?info?=?new?Text();

?

????????//?實現reduce函數

????????public?void?reduce(Text key, Iterable<Text> values, Context context)

????????????????throws?IOException, InterruptedException {

?

????????????//?統計詞頻

????????????int?sum = 0;

????????????for?(Text value : values) {

??????????????? sum += Integer.parseInt(value.toString());

??????????? }

?

????????????int?splitIndex = key.toString().indexOf(":");

????????????//?重新設置value值由URL和詞頻組成

????????????info.set(key.toString().substring(splitIndex + 1) +?":"?+ sum);

????????????//?重新設置key值為單詞

??????????? key.set(key.toString().substring(0, splitIndex));

?

??????????? context.write(key,?info);

??????? }

??? }

?

????public?static?class?Reduce?extends?Reducer<Text, Text, Text, Text> {

?

????????private?Text?result?=?new?Text();

?

????????//?實現reduce函數

????????public?void?reduce(Text key, Iterable<Text> values, Context context)

????????????????throws?IOException, InterruptedException {

?

????????????//?生成文檔列表

??????????? String fileList =?new?String();

????????????for?(Text value : values) {

??????????????? fileList += value.toString() +?";";

??????????? }

?

????????????result.set(fileList);

?

??????????? context.write(key,?result);

??????? }

??? }

?

????public?static?void?main(String[] args)?throws?Exception {

??????? Configuration conf =?new?Configuration();

????????//?這句話很關鍵

??????? conf.set("mapred.job.tracker",?"192.168.1.2:9001");

?

??????? String[] ioArgs =?new?String[] {?"index_in",?"index_out"?};

??????? String[] otherArgs =?new?GenericOptionsParser(conf, ioArgs)

??????????????? .getRemainingArgs();

????????if?(otherArgs.length?!= 2) {

??????????? System.err.println("Usage: Inverted Index <in> <out>");

??????????? System.exit(2);

??????? }

?

??????? Job job =?new?Job(conf,?"Inverted Index");

??????? job.setJarByClass(InvertedIndex.class);

?

????????//?設置Map、Combine和Reduce處理類

??????? job.setMapperClass(Map.class);

??????? job.setCombinerClass(Combine.class);

??????? job.setReducerClass(Reduce.class);

?

????????//?設置Map輸出類型

??????? job.setMapOutputKeyClass(Text.class);

??????? job.setMapOutputValueClass(Text.class);

?

????????//?設置Reduce輸出類型

??????? job.setOutputKeyClass(Text.class);

??????? job.setOutputValueClass(Text.class);

?

????????//?設置輸入和輸出目錄

??????? FileInputFormat.addInputPath(job,?new?Path(otherArgs[0]));

??????? FileOutputFormat.setOutputPath(job,?new?Path(otherArgs[1]));

??????? System.exit(job.waitForCompletion(true) ? 0 : 1);

??? }

}

?

6.4 代碼結果

1)準備測試數據

??? 通過Eclipse下面的"DFS Locations"在"/user/hadoop"目錄下創建輸入文件"index_in"文件夾(備注:"index_out"不需要創建。)如圖6.4-1所示,已經成功創建。

?

????????????????

圖6.4-1 創建"index_in"???????????????????????????????????????????? 圖6.4.2 上傳"file*.txt"

?

??? 然后在本地建立三個txt文件,通過Eclipse上傳到"/user/hadoop/index_in"文件夾中,三個txt文件的內容如"實例描述"那三個文件一樣。如圖6.4-2所示,成功上傳之后。

??? 從SecureCRT遠處查看"Master.Hadoop"的也能證實我們上傳的三個文件。

?

圖6.4.3 三個"file*.txt"的內容

2)查看運行結果

??? 這時我們右擊Eclipse的"DFS Locations"中"/user/hadoop"文件夾進行刷新,這時會發現多出一個"index_out"文件夾,且里面有3個文件,然后打開雙其"part-r-00000"文件,會在Eclipse中間把內容顯示出來。如圖6.4-4所示。

?

圖6.4-4 運行結果

?

?

  文章下載地址:http://files.cnblogs.com/xia520pi/HadoopCluster_Vol.9.rar

總結

以上是生活随笔為你收集整理的hadoop 入门实例【转】的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

少女韩国电视剧在线观看完整 | 国产香蕉97碰碰久久人人 | 国产无套粉嫩白浆在线 | 亚洲理论电影在线观看 | 成人无码视频免费播放 | 老熟妇乱子伦牲交视频 | 在线精品亚洲一区二区 | 色综合久久网 | 国产成人无码av片在线观看不卡 | 最新国产乱人伦偷精品免费网站 | 又色又爽又黄的美女裸体网站 | 亚洲gv猛男gv无码男同 | 国产乱人无码伦av在线a | 秋霞特色aa大片 | 国产亚洲精品久久久ai换 | 亚洲精品综合五月久久小说 | 粉嫩少妇内射浓精videos | 小泽玛莉亚一区二区视频在线 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲va欧美va天堂v国产综合 | 欧美国产日产一区二区 | 色欲av亚洲一区无码少妇 | 中文字幕 亚洲精品 第1页 | 国产精品久久久 | 无套内谢的新婚少妇国语播放 | 亚洲男人av天堂午夜在 | 捆绑白丝粉色jk震动捧喷白浆 | 狠狠cao日日穞夜夜穞av | 久久亚洲中文字幕无码 | 内射白嫩少妇超碰 | 亚洲精品国产品国语在线观看 | 超碰97人人射妻 | 久久久久成人片免费观看蜜芽 | 色婷婷香蕉在线一区二区 | 人妻无码αv中文字幕久久琪琪布 | 日日躁夜夜躁狠狠躁 | 亚洲精品久久久久久久久久久 | 久精品国产欧美亚洲色aⅴ大片 | 少妇人妻大乳在线视频 | 国产一区二区三区四区五区加勒比 | 国产精品久久精品三级 | 国产精品久久久久久亚洲影视内衣 | 强奷人妻日本中文字幕 | 女人被爽到呻吟gif动态图视看 | 7777奇米四色成人眼影 | 成人欧美一区二区三区黑人免费 | 无码人妻久久一区二区三区不卡 | 丰满人妻精品国产99aⅴ | 亚洲 日韩 欧美 成人 在线观看 | 少妇高潮一区二区三区99 | 久久精品一区二区三区四区 | 日韩人妻系列无码专区 | 欧美xxxx黑人又粗又长 | 一本大道伊人av久久综合 | 国产精品久久久久无码av色戒 | 国产精品资源一区二区 | 亚洲中文字幕av在天堂 | 亚洲日韩av一区二区三区四区 | 大地资源中文第3页 | 澳门永久av免费网站 | 成年女人永久免费看片 | 日本乱人伦片中文三区 | 久久久久99精品国产片 | 少妇厨房愉情理9仑片视频 | 蜜桃臀无码内射一区二区三区 | 2020久久香蕉国产线看观看 | 国产人成高清在线视频99最全资源 | 精品午夜福利在线观看 | 麻豆精品国产精华精华液好用吗 | 欧美日本精品一区二区三区 | 3d动漫精品啪啪一区二区中 | 亚洲欧美国产精品专区久久 | 亚洲精品一区二区三区在线观看 | 国产无遮挡吃胸膜奶免费看 | 久久久久久国产精品无码下载 | 综合激情五月综合激情五月激情1 | 国产内射爽爽大片视频社区在线 | 国产精品久久久午夜夜伦鲁鲁 | 婷婷丁香六月激情综合啪 | 国内精品久久毛片一区二区 | 少妇被黑人到高潮喷出白浆 | 国产乱子伦视频在线播放 | 天天av天天av天天透 | 亚洲精品欧美二区三区中文字幕 | 久久99久久99精品中文字幕 | 水蜜桃亚洲一二三四在线 | 老头边吃奶边弄进去呻吟 | 熟妇女人妻丰满少妇中文字幕 | 久久久国产一区二区三区 | 亚洲精品午夜国产va久久成人 | 装睡被陌生人摸出水好爽 | 网友自拍区视频精品 | 青草视频在线播放 | 亚洲日韩av一区二区三区四区 | 色婷婷欧美在线播放内射 | 高清不卡一区二区三区 | www成人国产高清内射 | 久久久www成人免费毛片 | 在线欧美精品一区二区三区 | 巨爆乳无码视频在线观看 | 中文无码成人免费视频在线观看 | 亚洲人成网站在线播放942 | 玩弄少妇高潮ⅹxxxyw | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 久久精品人人做人人综合试看 | 中文字幕av日韩精品一区二区 | 无遮挡国产高潮视频免费观看 | 精品少妇爆乳无码av无码专区 | 天天燥日日燥 | 天天摸天天碰天天添 | 我要看www免费看插插视频 | 中文字幕无码视频专区 | 精品成在人线av无码免费看 | 日本精品久久久久中文字幕 | 日日夜夜撸啊撸 | 免费观看的无遮挡av | 亚洲区欧美区综合区自拍区 | 国产精品久久久久无码av色戒 | 国产av无码专区亚洲awww | 亚洲欧美综合区丁香五月小说 | 草草网站影院白丝内射 | www国产亚洲精品久久网站 | 亚洲熟熟妇xxxx | 亚洲一区二区三区 | 亚洲人成影院在线无码按摩店 | 日韩人妻少妇一区二区三区 | 国产成人亚洲综合无码 | 国产午夜精品一区二区三区嫩草 | 国产亲子乱弄免费视频 | 国产人妖乱国产精品人妖 | 亚洲成av人影院在线观看 | 狠狠综合久久久久综合网 | 精品乱码久久久久久久 | 青青青爽视频在线观看 | 成人影院yy111111在线观看 | 久久精品国产99精品亚洲 | 荫蒂被男人添的好舒服爽免费视频 | 99精品国产综合久久久久五月天 | 国产一区二区不卡老阿姨 | 帮老师解开蕾丝奶罩吸乳网站 | 色噜噜亚洲男人的天堂 | 波多野结衣av在线观看 | 国内揄拍国内精品人妻 | 天天躁日日躁狠狠躁免费麻豆 | 亚洲国产精品久久人人爱 | 婷婷综合久久中文字幕蜜桃三电影 | 人妻少妇精品无码专区动漫 | 欧美丰满老熟妇xxxxx性 | 欧美成人高清在线播放 | 98国产精品综合一区二区三区 | 日本大乳高潮视频在线观看 | 成人毛片一区二区 | 国产精品亚洲专区无码不卡 | 国产无遮挡又黄又爽又色 | 国产精品国产三级国产专播 | 欧美老妇交乱视频在线观看 | 国产无套内射久久久国产 | 国内精品久久久久久中文字幕 | 国产手机在线αⅴ片无码观看 | 人妻天天爽夜夜爽一区二区 | 亚洲精品国产a久久久久久 | 波多野结衣高清一区二区三区 | 丰满岳乱妇在线观看中字无码 | 无码av最新清无码专区吞精 | 久久午夜无码鲁丝片午夜精品 | 自拍偷自拍亚洲精品被多人伦好爽 | 日日摸天天摸爽爽狠狠97 | 久久人人爽人人爽人人片av高清 | 中文字幕乱码亚洲无线三区 | 人人妻人人澡人人爽人人精品浪潮 | 久久久成人毛片无码 | 国产一精品一av一免费 | 曰本女人与公拘交酡免费视频 | 免费看少妇作爱视频 | 成人免费视频在线观看 | 中文精品无码中文字幕无码专区 | 亚洲成a人片在线观看无码3d | 国产乡下妇女做爰 | 久久99精品久久久久久动态图 | 国产人妻精品一区二区三区不卡 | 国产极品视觉盛宴 | 曰韩无码二三区中文字幕 | 久久久精品人妻久久影视 | 免费观看的无遮挡av | 男女性色大片免费网站 | 久久精品国产一区二区三区肥胖 | 18禁黄网站男男禁片免费观看 | 亚洲狠狠色丁香婷婷综合 | 欧美日本免费一区二区三区 | 国内丰满熟女出轨videos | 精品国产一区二区三区av 性色 | 四十如虎的丰满熟妇啪啪 | 欧美大屁股xxxxhd黑色 | 久久99热只有频精品8 | 熟女俱乐部五十路六十路av | √天堂中文官网8在线 | 亚洲爆乳无码专区 | 纯爱无遮挡h肉动漫在线播放 | 中文字幕精品av一区二区五区 | 成熟人妻av无码专区 | 久久久久99精品成人片 | 亚洲国产精品久久人人爱 | 日本www一道久久久免费榴莲 | 久久国产自偷自偷免费一区调 | 国产色视频一区二区三区 | 99riav国产精品视频 | 成人无码视频免费播放 | 67194成是人免费无码 | 久久久精品456亚洲影院 | 性欧美熟妇videofreesex | 最近免费中文字幕中文高清百度 | 国产精品亚洲一区二区三区喷水 | 秋霞特色aa大片 | 久久久久久久久蜜桃 | 精品无人国产偷自产在线 | 国色天香社区在线视频 | 九九久久精品国产免费看小说 | 人人澡人人妻人人爽人人蜜桃 | 国产精品亚洲lv粉色 | 久久久久久九九精品久 | 少妇愉情理伦片bd | 色狠狠av一区二区三区 | 性开放的女人aaa片 | 国产卡一卡二卡三 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 亚洲人成人无码网www国产 | 久久国产精品偷任你爽任你 | 日日麻批免费40分钟无码 | 中文字幕无码日韩欧毛 | 激情综合激情五月俺也去 | 熟女少妇人妻中文字幕 | 国产女主播喷水视频在线观看 | 一个人看的www免费视频在线观看 | 久久精品国产亚洲精品 | 亚洲区欧美区综合区自拍区 | 久久99精品国产麻豆 | 免费国产成人高清在线观看网站 | 丰满少妇熟乱xxxxx视频 | 亚洲gv猛男gv无码男同 | 人妻插b视频一区二区三区 | 双乳奶水饱满少妇呻吟 | 中文字幕乱妇无码av在线 | 九月婷婷人人澡人人添人人爽 | 亚洲欧美精品aaaaaa片 | 欧美freesex黑人又粗又大 | 一本久久伊人热热精品中文字幕 | 国产精品丝袜黑色高跟鞋 | 色老头在线一区二区三区 | 久久久久久久久蜜桃 | 无码精品国产va在线观看dvd | 国产av剧情md精品麻豆 | 曰韩少妇内射免费播放 | 亚洲爆乳无码专区 | 乌克兰少妇xxxx做受 | 高清不卡一区二区三区 | 日日夜夜撸啊撸 | 自拍偷自拍亚洲精品10p | 亚洲国产精品久久久久久 | 国产又爽又黄又刺激的视频 | 国产精品久久精品三级 | 久久久精品欧美一区二区免费 | 国产成人综合在线女婷五月99播放 | 日韩av无码一区二区三区 | 亚洲高清偷拍一区二区三区 | 3d动漫精品啪啪一区二区中 | 一本色道久久综合狠狠躁 | 国产激情综合五月久久 | 国产成人无码av一区二区 | 亚洲色偷偷偷综合网 | 日日躁夜夜躁狠狠躁 | 国产亚洲欧美在线专区 | 亚洲综合伊人久久大杳蕉 | 风流少妇按摩来高潮 | 天干天干啦夜天干天2017 | 天堂а√在线地址中文在线 | 亚洲国产欧美日韩精品一区二区三区 | 奇米影视888欧美在线观看 | 未满小14洗澡无码视频网站 | 扒开双腿吃奶呻吟做受视频 | 国产人妖乱国产精品人妖 | 国产黄在线观看免费观看不卡 | 日韩av激情在线观看 | ass日本丰满熟妇pics | 国产成人一区二区三区在线观看 | 色五月丁香五月综合五月 | 欧洲熟妇色 欧美 | 日韩精品a片一区二区三区妖精 | 夜先锋av资源网站 | 欧美 丝袜 自拍 制服 另类 | 性色欲网站人妻丰满中文久久不卡 | 久久人妻内射无码一区三区 | 亚洲国产欧美在线成人 | 国产一精品一av一免费 | 亚洲成熟女人毛毛耸耸多 | 免费人成在线视频无码 | 成熟人妻av无码专区 | 亚洲天堂2017无码中文 | 宝宝好涨水快流出来免费视频 | 亚洲国产精品毛片av不卡在线 | 性生交大片免费看女人按摩摩 | 狠狠色丁香久久婷婷综合五月 | 中文字幕无码日韩欧毛 | 又大又紧又粉嫩18p少妇 | 亚洲国产日韩a在线播放 | 亚洲一区二区三区偷拍女厕 | 日本一卡二卡不卡视频查询 | 人人妻人人澡人人爽欧美一区九九 | 玩弄人妻少妇500系列视频 | 又紧又大又爽精品一区二区 | 最新版天堂资源中文官网 | 四虎永久在线精品免费网址 | 欧美日韩人成综合在线播放 | 午夜精品一区二区三区在线观看 | 亚洲中文字幕成人无码 | 欧美人妻一区二区三区 | 亚洲成a人片在线观看无码3d | 欧美亚洲日韩国产人成在线播放 | 亚洲精品久久久久中文第一幕 | 国产舌乚八伦偷品w中 | 国产亚洲日韩欧美另类第八页 | 又大又紧又粉嫩18p少妇 | 午夜嘿嘿嘿影院 | 欧美 亚洲 国产 另类 | 无人区乱码一区二区三区 | 久久久亚洲欧洲日产国码αv | 国产精品久久国产精品99 | 亚洲色成人中文字幕网站 | 婷婷综合久久中文字幕蜜桃三电影 | 精品无人国产偷自产在线 | 性生交片免费无码看人 | 无码人妻少妇伦在线电影 | 少妇被黑人到高潮喷出白浆 | 久久精品中文闷骚内射 | 久久国产自偷自偷免费一区调 | 精品久久久久久人妻无码中文字幕 | 丰满护士巨好爽好大乳 | 国产肉丝袜在线观看 | 夜夜高潮次次欢爽av女 | 婷婷六月久久综合丁香 | 成人无码视频免费播放 | 国产特级毛片aaaaaa高潮流水 | 国产亚洲精品久久久久久久久动漫 | 亚洲精品中文字幕 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 亚洲精品午夜国产va久久成人 | 少妇性俱乐部纵欲狂欢电影 | 九九热爱视频精品 | 国产激情无码一区二区app | 亚无码乱人伦一区二区 | 中文字幕无线码 | 3d动漫精品啪啪一区二区中 | 日产国产精品亚洲系列 | 97资源共享在线视频 | 欧美喷潮久久久xxxxx | 99riav国产精品视频 | 女高中生第一次破苞av | 久久伊人色av天堂九九小黄鸭 | 无码国产色欲xxxxx视频 | 欧美日韩一区二区综合 | 亚洲精品成人av在线 | 国产成人久久精品流白浆 | 高清国产亚洲精品自在久久 | 自拍偷自拍亚洲精品被多人伦好爽 | 狠狠色丁香久久婷婷综合五月 | 男人扒开女人内裤强吻桶进去 | 国产精品二区一区二区aⅴ污介绍 | 欧美日本精品一区二区三区 | 亚洲精品综合一区二区三区在线 | 亚洲国产精品成人久久蜜臀 | 国产免费久久精品国产传媒 | 无码国模国产在线观看 | 日韩欧美中文字幕在线三区 | 国产激情无码一区二区 | 久久久久99精品成人片 | 国产精品久久久久7777 | 日韩人妻无码中文字幕视频 | 欧美人与动性行为视频 | 在线播放无码字幕亚洲 | 国产精品人人妻人人爽 | 图片区 小说区 区 亚洲五月 | 中文字幕中文有码在线 | 白嫩日本少妇做爰 | 亚洲精品一区三区三区在线观看 | 成人片黄网站色大片免费观看 | 久久精品成人欧美大片 | 少妇太爽了在线观看 | 日本精品久久久久中文字幕 | 无遮挡国产高潮视频免费观看 | 欧美日本日韩 | 一区二区传媒有限公司 | 中文字幕日产无线码一区 | 未满小14洗澡无码视频网站 | 欧美性生交xxxxx久久久 | 全球成人中文在线 | 日产精品99久久久久久 | 午夜福利试看120秒体验区 | 超碰97人人做人人爱少妇 | 久久精品中文字幕一区 | 最近免费中文字幕中文高清百度 | 久久精品中文字幕一区 | 香蕉久久久久久av成人 | 天堂亚洲免费视频 | 亚洲自偷自拍另类第1页 | 最新版天堂资源中文官网 | 无码毛片视频一区二区本码 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲欧洲中文日韩av乱码 | 久久综合色之久久综合 | 国产精品久久久久久亚洲影视内衣 | 东京无码熟妇人妻av在线网址 | 国产绳艺sm调教室论坛 | 国产精品久久久久9999小说 | 图片区 小说区 区 亚洲五月 | 无人区乱码一区二区三区 | 伊人久久大香线蕉av一区二区 | 国产亚洲精品久久久久久 | 亚洲国产av精品一区二区蜜芽 | 久久国产精品精品国产色婷婷 | 亚洲啪av永久无码精品放毛片 | 欧美刺激性大交 | 少妇邻居内射在线 | 婷婷五月综合激情中文字幕 | 成人免费视频一区二区 | 亚洲色欲色欲天天天www | 精品国产青草久久久久福利 | 东京热无码av男人的天堂 | 精品久久久久香蕉网 | 国产av一区二区精品久久凹凸 | 欧美三级a做爰在线观看 | 久久久久亚洲精品男人的天堂 | 在线观看免费人成视频 | 无码人妻精品一区二区三区不卡 | 精品无人区无码乱码毛片国产 | 久久精品国产日本波多野结衣 | 欧美国产亚洲日韩在线二区 | 丝袜足控一区二区三区 | 18禁止看的免费污网站 | 日本一本二本三区免费 | 日韩精品成人一区二区三区 | 人妻少妇被猛烈进入中文字幕 | 成 人 免费观看网站 | 亚洲成a人片在线观看日本 | 国产精品久久久久久久影院 | 99视频精品全部免费免费观看 | 麻豆人妻少妇精品无码专区 | 午夜精品一区二区三区的区别 | 无码av中文字幕免费放 | 国产精品va在线观看无码 | 欧美精品国产综合久久 | 特级做a爰片毛片免费69 | 又紧又大又爽精品一区二区 | 亚洲综合无码一区二区三区 | 亚洲日本一区二区三区在线 | 性欧美牲交xxxxx视频 | 亚洲国产av精品一区二区蜜芽 | 西西人体www44rt大胆高清 | 天天爽夜夜爽夜夜爽 | 精品一区二区三区波多野结衣 | 又大又紧又粉嫩18p少妇 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲中文字幕va福利 | 久久久久久av无码免费看大片 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产亚洲tv在线观看 | 99久久精品国产一区二区蜜芽 | 樱花草在线播放免费中文 | 日韩精品久久久肉伦网站 | 国产 浪潮av性色四虎 | 性欧美大战久久久久久久 | 精品成在人线av无码免费看 | 久久亚洲a片com人成 | 骚片av蜜桃精品一区 | 亚洲熟熟妇xxxx | 一二三四社区在线中文视频 | 无码国产乱人伦偷精品视频 | 精品aⅴ一区二区三区 | 妺妺窝人体色www在线小说 | 九九久久精品国产免费看小说 | 樱花草在线社区www | 熟妇人妻无乱码中文字幕 | 精品国产成人一区二区三区 | 草草网站影院白丝内射 | 亚洲国产精品成人久久蜜臀 | 国产黄在线观看免费观看不卡 | 中文字幕无码免费久久9一区9 | 国产高潮视频在线观看 | 国产精品久久久久7777 | 日本一区二区更新不卡 | 亚洲精品中文字幕乱码 | 国产精品人妻一区二区三区四 | 中文字幕无码日韩欧毛 | 午夜精品久久久久久久 | 无码毛片视频一区二区本码 | 色情久久久av熟女人妻网站 | а天堂中文在线官网 | 99精品国产综合久久久久五月天 | 日韩亚洲欧美精品综合 | 国产精品第一国产精品 | 成年美女黄网站色大免费全看 | 日本在线高清不卡免费播放 | 美女毛片一区二区三区四区 | 免费观看激色视频网站 | 清纯唯美经典一区二区 | 无码人妻少妇伦在线电影 | 少妇性荡欲午夜性开放视频剧场 | 欧美丰满少妇xxxx性 | 无遮挡啪啪摇乳动态图 | 色五月丁香五月综合五月 | 色五月五月丁香亚洲综合网 | 成人综合网亚洲伊人 | 精品久久久无码人妻字幂 | 东京热无码av男人的天堂 | 1000部啪啪未满十八勿入下载 | 国产亚洲人成a在线v网站 | 性色av无码免费一区二区三区 | 国产极品视觉盛宴 | 亚洲熟女一区二区三区 | 漂亮人妻洗澡被公强 日日躁 | 强辱丰满人妻hd中文字幕 | 夜先锋av资源网站 | 久久精品一区二区三区四区 | 内射爽无广熟女亚洲 | 亚洲无人区午夜福利码高清完整版 | 成年女人永久免费看片 | 成 人 免费观看网站 | 亚洲中文无码av永久不收费 | 一个人看的www免费视频在线观看 | 红桃av一区二区三区在线无码av | 国产内射爽爽大片视频社区在线 | 精品国产乱码久久久久乱码 | 国产艳妇av在线观看果冻传媒 | 蜜桃视频韩日免费播放 | 18精品久久久无码午夜福利 | 免费国产成人高清在线观看网站 | 亚洲日本va中文字幕 | 扒开双腿吃奶呻吟做受视频 | 丰满人妻精品国产99aⅴ | 欧美人与禽猛交狂配 | 国产精品无套呻吟在线 | 国产两女互慰高潮视频在线观看 | 成人免费视频视频在线观看 免费 | av在线亚洲欧洲日产一区二区 | 香蕉久久久久久av成人 | 丰满人妻精品国产99aⅴ | 一区二区传媒有限公司 | 亚洲爆乳精品无码一区二区三区 | 国产午夜视频在线观看 | 欧美日韩在线亚洲综合国产人 | 亚洲欧洲日本无在线码 | 久久久www成人免费毛片 | 中文字幕无线码免费人妻 | 99久久久国产精品无码免费 | 一二三四社区在线中文视频 | 亚洲自偷自偷在线制服 | 永久黄网站色视频免费直播 | 国产熟妇高潮叫床视频播放 | 久久99热只有频精品8 | 亚洲精品美女久久久久久久 | 久久午夜无码鲁丝片秋霞 | 鲁一鲁av2019在线 | 中文字幕乱码亚洲无线三区 | 亚洲天堂2017无码 | 人妻无码αv中文字幕久久琪琪布 | 亚洲七七久久桃花影院 | 丰满少妇弄高潮了www | 成年女人永久免费看片 | 国产艳妇av在线观看果冻传媒 | 精品一区二区三区波多野结衣 | 精品成人av一区二区三区 | 人人妻人人澡人人爽欧美一区九九 | 久久精品中文字幕大胸 | 最新版天堂资源中文官网 | 国产乱子伦视频在线播放 | 亚洲国产精品久久久天堂 | 极品尤物被啪到呻吟喷水 | 香蕉久久久久久av成人 | 欧美一区二区三区视频在线观看 | 精品欧洲av无码一区二区三区 | 亚洲国产成人a精品不卡在线 | 激情国产av做激情国产爱 | 一本无码人妻在中文字幕免费 | 内射白嫩少妇超碰 | 国产成人一区二区三区在线观看 | 亚洲色偷偷男人的天堂 | 丰满少妇弄高潮了www | 老司机亚洲精品影院无码 | 日本高清一区免费中文视频 | 内射白嫩少妇超碰 | 蜜桃视频韩日免费播放 | 丁香花在线影院观看在线播放 | 国产精品美女久久久 | 色五月五月丁香亚洲综合网 | 国产成人精品无码播放 | 免费无码av一区二区 | 国产做国产爱免费视频 | 国产精品第一国产精品 | 牲欲强的熟妇农村老妇女视频 | 亚洲天堂2017无码中文 | 精品夜夜澡人妻无码av蜜桃 | 日本一区二区更新不卡 | 女人高潮内射99精品 | 亚洲男人av香蕉爽爽爽爽 | 久久久久av无码免费网 | 久久99精品国产麻豆 | 亚洲国产精品久久人人爱 | 麻豆精品国产精华精华液好用吗 | 精品久久综合1区2区3区激情 | 国产亚洲人成a在线v网站 | 内射老妇bbwx0c0ck | 天天摸天天透天天添 | 国产一区二区三区日韩精品 | 亚洲中文字幕成人无码 | 国产av一区二区三区最新精品 | 2019午夜福利不卡片在线 | 中文字幕 亚洲精品 第1页 | 台湾无码一区二区 | 成人欧美一区二区三区黑人 | 久久综合激激的五月天 | 国产精品va在线播放 | 国产又爽又黄又刺激的视频 | 又大又硬又黄的免费视频 | 国产一精品一av一免费 | 在线a亚洲视频播放在线观看 | 国产超级va在线观看视频 | 国产成人综合在线女婷五月99播放 | 性欧美疯狂xxxxbbbb | 色婷婷久久一区二区三区麻豆 | 国产两女互慰高潮视频在线观看 | 精品国产一区二区三区av 性色 | 天天av天天av天天透 | 对白脏话肉麻粗话av | 天干天干啦夜天干天2017 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 久久久中文久久久无码 | 亚洲国产精品久久人人爱 | 欧美黑人性暴力猛交喷水 | 欧美日韩久久久精品a片 | 老熟女重囗味hdxx69 | 久久综合给久久狠狠97色 | 一本色道久久综合狠狠躁 | 久久精品国产大片免费观看 | 国产va免费精品观看 | 麻豆成人精品国产免费 | 性欧美熟妇videofreesex | 动漫av一区二区在线观看 | a片免费视频在线观看 | av香港经典三级级 在线 | 国产精品无码永久免费888 | 超碰97人人射妻 | 中文字幕无码av波多野吉衣 | 大屁股大乳丰满人妻 | 亚洲精品www久久久 | 无码国产色欲xxxxx视频 | 日本一区二区三区免费高清 | 久久久精品人妻久久影视 | 女人被爽到呻吟gif动态图视看 | 成人精品一区二区三区中文字幕 | 无码播放一区二区三区 | 亚洲日本va中文字幕 | 少妇性荡欲午夜性开放视频剧场 | 亚洲色成人中文字幕网站 | 欧美午夜特黄aaaaaa片 | 波多野42部无码喷潮在线 | 精品久久久久久人妻无码中文字幕 | 成人欧美一区二区三区黑人 | 高清无码午夜福利视频 | 成年美女黄网站色大免费视频 | 精品久久综合1区2区3区激情 | 日日橹狠狠爱欧美视频 | 无码人妻久久一区二区三区不卡 | 久久视频在线观看精品 | 欧美黑人巨大xxxxx | 丝袜足控一区二区三区 | 国产手机在线αⅴ片无码观看 | 在线观看国产一区二区三区 | 熟妇人妻无乱码中文字幕 | 亚洲色偷偷偷综合网 | 国内综合精品午夜久久资源 | 人妻aⅴ无码一区二区三区 | 又黄又爽又色的视频 | 伊人色综合久久天天小片 | 一本精品99久久精品77 | 在线看片无码永久免费视频 | а√天堂www在线天堂小说 | 亚洲aⅴ无码成人网站国产app | 装睡被陌生人摸出水好爽 | 亚洲精品www久久久 | 国产精品免费大片 | 久久99精品久久久久久动态图 | 国产精品毛片一区二区 | 伊人久久婷婷五月综合97色 | 国产精品对白交换视频 | 欧美丰满老熟妇xxxxx性 | 香港三级日本三级妇三级 | 黑人玩弄人妻中文在线 | 日日干夜夜干 | 老熟妇仑乱视频一区二区 | 98国产精品综合一区二区三区 | 国产午夜无码视频在线观看 | 国产成人精品视频ⅴa片软件竹菊 | 国产农村妇女高潮大叫 | 一本久道久久综合婷婷五月 | 欧美性生交活xxxxxdddd | 玩弄少妇高潮ⅹxxxyw | 偷窥日本少妇撒尿chinese | 亚洲成a人片在线观看日本 | 久久99精品久久久久久 | 午夜性刺激在线视频免费 | 精品水蜜桃久久久久久久 | 日本精品人妻无码77777 天堂一区人妻无码 | 日本高清一区免费中文视频 | www一区二区www免费 | 亚洲色欲久久久综合网东京热 | 99国产欧美久久久精品 | 亚洲人成影院在线无码按摩店 | 又大又硬又黄的免费视频 | 久久精品无码一区二区三区 | 亚洲欧美国产精品专区久久 | 人人妻人人澡人人爽人人精品 | 国产在热线精品视频 | 欧美国产日韩久久mv | 精品人人妻人人澡人人爽人人 | 人人澡人摸人人添 | 东京热一精品无码av | 国产真实乱对白精彩久久 | 2020久久超碰国产精品最新 | 人人妻人人藻人人爽欧美一区 | 国内精品九九久久久精品 | 精品国产aⅴ无码一区二区 | 国产精品对白交换视频 | 日日摸夜夜摸狠狠摸婷婷 | 久久精品人人做人人综合试看 | 亚洲熟妇色xxxxx欧美老妇y | 老熟妇乱子伦牲交视频 | 久久久久久久人妻无码中文字幕爆 | 1000部啪啪未满十八勿入下载 | 久久天天躁狠狠躁夜夜免费观看 | 中文毛片无遮挡高清免费 | 久久熟妇人妻午夜寂寞影院 | 97精品国产97久久久久久免费 | 亚洲中文字幕在线无码一区二区 | 图片小说视频一区二区 | 无码av免费一区二区三区试看 | 国产精品无码成人午夜电影 | 亚洲男女内射在线播放 | 亚洲 高清 成人 动漫 | 国产亚洲欧美在线专区 | 红桃av一区二区三区在线无码av | 国产在线aaa片一区二区99 | 九九热爱视频精品 | 黑人巨大精品欧美黑寡妇 | 国产精品久久久久9999小说 | 午夜无码人妻av大片色欲 | 婷婷丁香五月天综合东京热 | 夜精品a片一区二区三区无码白浆 | 牲欲强的熟妇农村老妇女视频 | 18黄暴禁片在线观看 | 久久人人爽人人爽人人片ⅴ | 亚洲欧美日韩综合久久久 | 老子影院午夜伦不卡 | 玩弄少妇高潮ⅹxxxyw | 97久久超碰中文字幕 | 国产成人一区二区三区在线观看 | 午夜福利不卡在线视频 | 黑人粗大猛烈进出高潮视频 | 中文字幕无码人妻少妇免费 | 精品国偷自产在线视频 | 骚片av蜜桃精品一区 | 国精产品一品二品国精品69xx | 久久久无码中文字幕久... | 中文字幕无码免费久久9一区9 | 牲欲强的熟妇农村老妇女视频 | 欧美人与动性行为视频 | 女高中生第一次破苞av | av在线亚洲欧洲日产一区二区 | 无码免费一区二区三区 | 亚洲精品国产a久久久久久 | 天堂а√在线地址中文在线 | 人妻中文无码久热丝袜 | 中文字幕日产无线码一区 | 亚洲国产av美女网站 | 亚洲国产成人av在线观看 | 人人超人人超碰超国产 | 亚洲中文字幕在线观看 | 日本熟妇大屁股人妻 | 丰满岳乱妇在线观看中字无码 | 久久精品国产99久久6动漫 | 99精品国产综合久久久久五月天 | 激情内射亚州一区二区三区爱妻 | 亚洲精品无码人妻无码 | 国产av剧情md精品麻豆 | 国产无套粉嫩白浆在线 | 成熟女人特级毛片www免费 | 欧美自拍另类欧美综合图片区 | 婷婷五月综合激情中文字幕 | а天堂中文在线官网 | 久久精品国产精品国产精品污 | 国产精品理论片在线观看 | 蜜桃臀无码内射一区二区三区 | 四虎国产精品免费久久 | 国产成人一区二区三区在线观看 | 国产精品久免费的黄网站 | 草草网站影院白丝内射 | 国产精品久久久久久亚洲毛片 | 男人扒开女人内裤强吻桶进去 | 日本www一道久久久免费榴莲 | 国产一区二区三区四区五区加勒比 | 久久99精品国产麻豆蜜芽 | 国产在线精品一区二区三区直播 | 兔费看少妇性l交大片免费 | а√资源新版在线天堂 | 99久久人妻精品免费一区 | 狠狠cao日日穞夜夜穞av | 国产精品99久久精品爆乳 | 香港三级日本三级妇三级 | 亚洲人成网站色7799 | 中文字幕 亚洲精品 第1页 | 国产亚洲欧美日韩亚洲中文色 | 久久精品国产日本波多野结衣 | 久久久精品欧美一区二区免费 | 一本无码人妻在中文字幕免费 | 欧美精品在线观看 | 国产欧美亚洲精品a | 久久综合网欧美色妞网 | 丰满少妇熟乱xxxxx视频 | 无码av中文字幕免费放 | 免费无码肉片在线观看 | 国产超级va在线观看视频 | 99精品视频在线观看免费 | 色情久久久av熟女人妻网站 | 国产精品第一国产精品 | 影音先锋中文字幕无码 | 又大又黄又粗又爽的免费视频 | 97无码免费人妻超级碰碰夜夜 | 精品国产av色一区二区深夜久久 | 欧美成人家庭影院 | 久久综合九色综合97网 | 亚洲va欧美va天堂v国产综合 | 日韩精品无码一本二本三本色 | 欧美35页视频在线观看 | 欧美激情综合亚洲一二区 | 国产成人无码av一区二区 | 99在线 | 亚洲 | 老熟妇仑乱视频一区二区 | 丰满少妇人妻久久久久久 | 性欧美牲交xxxxx视频 | 香蕉久久久久久av成人 | 国产亚洲人成a在线v网站 | 精品人妻中文字幕有码在线 | 熟妇人妻中文av无码 | 精品久久8x国产免费观看 | 亚洲va欧美va天堂v国产综合 | 人人妻人人澡人人爽人人精品浪潮 | 国产精品久久久久久无码 | 极品尤物被啪到呻吟喷水 | 日韩欧美中文字幕公布 | 免费无码一区二区三区蜜桃大 | 国产国语老龄妇女a片 | 精品无人国产偷自产在线 | 亚洲国产成人a精品不卡在线 | 国产精品无码一区二区三区不卡 | 成人无码视频在线观看网站 | 国产欧美熟妇另类久久久 | 人人澡人人透人人爽 | 无码免费一区二区三区 | √天堂中文官网8在线 | 日日摸天天摸爽爽狠狠97 | 麻豆国产人妻欲求不满 | 日韩人妻无码一区二区三区久久99 | 999久久久国产精品消防器材 | 久久久久久亚洲精品a片成人 | 丰满少妇熟乱xxxxx视频 | 老熟女乱子伦 | 国产人妖乱国产精品人妖 | 国产网红无码精品视频 | 久久这里只有精品视频9 | 国产精品无套呻吟在线 | 国产真人无遮挡作爱免费视频 | 色狠狠av一区二区三区 | 欧美黑人巨大xxxxx | 亚洲中文字幕无码中字 | 久精品国产欧美亚洲色aⅴ大片 | 丰满岳乱妇在线观看中字无码 | 丰满人妻被黑人猛烈进入 | 中文字幕人妻丝袜二区 | 樱花草在线社区www | 丁香啪啪综合成人亚洲 | 欧美激情一区二区三区成人 | 欧美肥老太牲交大战 | 亚洲精品国产a久久久久久 | 99久久精品午夜一区二区 | 国产精品自产拍在线观看 | 国产无遮挡吃胸膜奶免费看 | 一本精品99久久精品77 | av人摸人人人澡人人超碰下载 | 亚洲一区二区三区国产精华液 | 欧美野外疯狂做受xxxx高潮 | 中文字幕无线码 | 99精品久久毛片a片 | 国产无套内射久久久国产 | 妺妺窝人体色www婷婷 | 中文字幕乱码人妻二区三区 | www国产精品内射老师 | 亚洲中文字幕无码中文字在线 | 国产精品美女久久久久av爽李琼 | 久久久中文字幕日本无吗 | 成人精品天堂一区二区三区 | 天天拍夜夜添久久精品 | 99久久精品午夜一区二区 | 国产真实伦对白全集 | 久久成人a毛片免费观看网站 | 一个人看的视频www在线 | 色 综合 欧美 亚洲 国产 | 欧美精品在线观看 | 国产亚洲精品久久久闺蜜 | 欧美性生交xxxxx久久久 | 中文字幕乱码人妻二区三区 | 国产va免费精品观看 | 久久久久久a亚洲欧洲av冫 | 国产sm调教视频在线观看 | 国产激情精品一区二区三区 | 少妇性l交大片欧洲热妇乱xxx | 日韩少妇内射免费播放 | 少妇高潮一区二区三区99 | 99久久久国产精品无码免费 | 97色伦图片97综合影院 | 好男人www社区 | 午夜理论片yy44880影院 | 欧美一区二区三区 | 成人精品视频一区二区三区尤物 | 中文字幕乱码亚洲无线三区 | 青青青手机频在线观看 | 亚洲中文字幕无码一久久区 | 超碰97人人射妻 | 色噜噜亚洲男人的天堂 | 国产人妻人伦精品1国产丝袜 | 伦伦影院午夜理论片 | 久久久久久av无码免费看大片 | 在线观看欧美一区二区三区 | 人妻aⅴ无码一区二区三区 | 天下第一社区视频www日本 | 日韩精品无码一区二区中文字幕 | 欧美日韩一区二区免费视频 | 亚洲精品一区二区三区大桥未久 | а天堂中文在线官网 | 亚洲精品一区二区三区在线观看 | 无码国模国产在线观看 | 亚洲成色在线综合网站 | 人人妻人人澡人人爽人人精品 | 中文字幕乱码中文乱码51精品 | 在线播放亚洲第一字幕 | 粗大的内捧猛烈进出视频 | 国产成人无码午夜视频在线观看 | 蜜桃视频插满18在线观看 | 成人av无码一区二区三区 | 精品久久久中文字幕人妻 | 国产区女主播在线观看 | 性色av无码免费一区二区三区 | 又黄又爽又色的视频 | 人妻人人添人妻人人爱 | 亚洲午夜福利在线观看 | 亚洲男女内射在线播放 | a片免费视频在线观看 | 久久www免费人成人片 | 亚洲国产精品一区二区美利坚 | 天堂一区人妻无码 | 亚洲毛片av日韩av无码 | 国产小呦泬泬99精品 | 久久精品国产大片免费观看 | 欧美第一黄网免费网站 | 国产深夜福利视频在线 | 两性色午夜视频免费播放 | aⅴ亚洲 日韩 色 图网站 播放 | 熟妇人妻激情偷爽文 | 欧洲熟妇精品视频 | 日本乱人伦片中文三区 | 奇米影视888欧美在线观看 | 国产明星裸体无码xxxx视频 | 亚洲精品一区二区三区在线 | 无码av免费一区二区三区试看 | 亚洲日韩av一区二区三区中文 | 人妻插b视频一区二区三区 | 亚洲精品www久久久 | 亚洲色成人中文字幕网站 | 亚拍精品一区二区三区探花 | 亚洲成av人综合在线观看 | 成熟妇人a片免费看网站 | а√资源新版在线天堂 | 午夜精品久久久久久久久 | 亚洲男女内射在线播放 | 中文字幕无码乱人伦 | 大地资源中文第3页 | 99久久亚洲精品无码毛片 | 男女下面进入的视频免费午夜 | 中文字幕色婷婷在线视频 | 国产偷国产偷精品高清尤物 | 国产成人综合色在线观看网站 | 国产亚洲精品久久久久久大师 | 日本一区二区三区免费高清 | 99精品国产综合久久久久五月天 | 色窝窝无码一区二区三区色欲 | 国产成人av免费观看 | 久久久精品国产sm最大网站 | 婷婷五月综合缴情在线视频 | www国产亚洲精品久久网站 | 55夜色66夜色国产精品视频 | 麻豆国产97在线 | 欧洲 | 欧美乱妇无乱码大黄a片 | 亚洲成av人综合在线观看 | 亚洲精品中文字幕乱码 | 精品国产一区二区三区四区在线看 | 精品久久久无码人妻字幂 | 人人妻人人藻人人爽欧美一区 | 久久久久成人片免费观看蜜芽 | 无码一区二区三区在线观看 | 欧美自拍另类欧美综合图片区 | 51国偷自产一区二区三区 | 亚洲欧美精品aaaaaa片 | 久久人人爽人人人人片 | 偷窥日本少妇撒尿chinese | 国产乱人伦av在线无码 | 欧美老人巨大xxxx做受 | 国产亚洲欧美在线专区 | 亚洲日韩中文字幕在线播放 | 亚洲色大成网站www国产 | 国产精品高潮呻吟av久久4虎 | 国产精品亚洲lv粉色 | 欧美性猛交内射兽交老熟妇 | 男人的天堂2018无码 | 色欲综合久久中文字幕网 | 亚洲一区二区三区偷拍女厕 | a在线亚洲男人的天堂 | 伦伦影院午夜理论片 | 久久午夜无码鲁丝片午夜精品 | 黄网在线观看免费网站 | 国产精品18久久久久久麻辣 | 亚洲国产av精品一区二区蜜芽 | 久久成人a毛片免费观看网站 | 2020久久超碰国产精品最新 | 精品久久久无码人妻字幂 | 国产情侣作爱视频免费观看 | 国产无套内射久久久国产 | 久久精品国产大片免费观看 | 亚洲欧洲日本无在线码 | 综合激情五月综合激情五月激情1 | 国产suv精品一区二区五 | 精品国产麻豆免费人成网站 | 伊人色综合久久天天小片 | 亚洲欧美日韩成人高清在线一区 | 内射老妇bbwx0c0ck | 亚洲小说图区综合在线 | 一本加勒比波多野结衣 | 成人女人看片免费视频放人 | 日本成熟视频免费视频 | 人人妻人人澡人人爽欧美一区九九 | 国产 浪潮av性色四虎 | 乱人伦人妻中文字幕无码 | 少妇一晚三次一区二区三区 | 欧美日韩综合一区二区三区 | 18禁止看的免费污网站 | 久久午夜无码鲁丝片 | av在线亚洲欧洲日产一区二区 | 97久久国产亚洲精品超碰热 | 国产一区二区三区影院 | 又粗又大又硬毛片免费看 | 妺妺窝人体色www在线小说 | 红桃av一区二区三区在线无码av | 久久久精品456亚洲影院 | 欧美丰满少妇xxxx性 | aⅴ亚洲 日韩 色 图网站 播放 | 九九久久精品国产免费看小说 | 日日碰狠狠躁久久躁蜜桃 | 一本久久伊人热热精品中文字幕 | 精品人人妻人人澡人人爽人人 | 牲欲强的熟妇农村老妇女视频 | 久久99精品久久久久婷婷 | 久久99精品国产.久久久久 | 99久久久无码国产精品免费 | 日本丰满护士爆乳xxxx | 国产肉丝袜在线观看 | 人人妻人人澡人人爽欧美一区 | 国产凸凹视频一区二区 | 成人试看120秒体验区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 精品国产成人一区二区三区 | 欧美刺激性大交 | 中文字幕无码免费久久99 | 亲嘴扒胸摸屁股激烈网站 | 欧美色就是色 | 国产尤物精品视频 | 久久亚洲中文字幕精品一区 | 国产乱码精品一品二品 | 又粗又大又硬又长又爽 | 狠狠cao日日穞夜夜穞av | 丝袜人妻一区二区三区 | 国产午夜无码精品免费看 | 99久久精品无码一区二区毛片 | 男人的天堂av网站 | 亚洲国产精品美女久久久久 | 内射爽无广熟女亚洲 | 欧美日本免费一区二区三区 | 人人澡人人妻人人爽人人蜜桃 | 中文字幕无码热在线视频 | 色婷婷av一区二区三区之红樱桃 | 久久久久久久人妻无码中文字幕爆 | 国产精品99久久精品爆乳 | 蜜臀av无码人妻精品 | 红桃av一区二区三区在线无码av | 日韩无码专区 | а√资源新版在线天堂 | 亚洲精品鲁一鲁一区二区三区 | 爽爽影院免费观看 | 欧美性猛交内射兽交老熟妇 | 无码人妻丰满熟妇区五十路百度 | 综合人妻久久一区二区精品 | 日本爽爽爽爽爽爽在线观看免 | 午夜不卡av免费 一本久久a久久精品vr综合 | 黑人大群体交免费视频 | 高中生自慰www网站 | 少妇被粗大的猛进出69影院 | 欧美性黑人极品hd | 午夜精品一区二区三区的区别 | 牲交欧美兽交欧美 | 亚洲一区二区三区含羞草 | 久久久久久久久888 | 国产精品无码一区二区三区不卡 | 国产av无码专区亚洲awww | 欧美成人家庭影院 | 亚洲熟女一区二区三区 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲人成影院在线无码按摩店 | 色婷婷香蕉在线一区二区 | 国产综合久久久久鬼色 | 国产内射爽爽大片视频社区在线 | 午夜成人1000部免费视频 | 精品国产福利一区二区 | 人人爽人人澡人人高潮 | 免费人成在线观看网站 | 中文字幕色婷婷在线视频 | 久久人人97超碰a片精品 | 亚洲精品一区二区三区在线观看 | 欧美丰满少妇xxxx性 | 亚洲七七久久桃花影院 | 成人影院yy111111在线观看 | 久久综合久久自在自线精品自 | 亚洲熟妇色xxxxx欧美老妇y | 国产麻豆精品精东影业av网站 | 午夜精品久久久久久久 | 国产成人精品优优av | 久久久精品人妻久久影视 | 99久久精品无码一区二区毛片 | 亚洲无人区一区二区三区 | 国产精品福利视频导航 | 欧美猛少妇色xxxxx | 一二三四在线观看免费视频 | 国产无套内射久久久国产 | 初尝人妻少妇中文字幕 | 国产高清不卡无码视频 | 亚洲午夜久久久影院 | 日本爽爽爽爽爽爽在线观看免 | 亚洲欧美国产精品久久 | 成人欧美一区二区三区黑人免费 | 国产超级va在线观看视频 | 99久久精品日本一区二区免费 | 娇妻被黑人粗大高潮白浆 | 爱做久久久久久 | 无码人妻久久一区二区三区不卡 | 亚洲 高清 成人 动漫 | 377p欧洲日本亚洲大胆 | 最新国产麻豆aⅴ精品无码 | 国产片av国语在线观看 | 在线观看国产一区二区三区 | 国内精品久久毛片一区二区 | 亚洲国产精品无码一区二区三区 | 久久aⅴ免费观看 | 一本色道久久综合狠狠躁 | 97久久国产亚洲精品超碰热 | 亚洲第一无码av无码专区 | 天天拍夜夜添久久精品大 | 中文字幕精品av一区二区五区 | 牲欲强的熟妇农村老妇女视频 | 亚拍精品一区二区三区探花 | 欧美日韩色另类综合 | 色综合久久久久综合一本到桃花网 | 国产在线精品一区二区高清不卡 | 精品夜夜澡人妻无码av蜜桃 | 久久久婷婷五月亚洲97号色 | 久久精品女人天堂av免费观看 | 中文字幕无码日韩欧毛 | 美女张开腿让人桶 | 人人妻人人澡人人爽欧美一区九九 | 精品国产一区二区三区av 性色 | 狂野欧美性猛交免费视频 | 中文字幕久久久久人妻 | 欧美日本精品一区二区三区 | 亚洲中文字幕无码中文字在线 | 奇米影视7777久久精品人人爽 | 一本无码人妻在中文字幕免费 | 久久精品国产99久久6动漫 | 精品一二三区久久aaa片 | 国产精品爱久久久久久久 | 麻豆人妻少妇精品无码专区 | 国产精品亚洲综合色区韩国 | 国产精品无码mv在线观看 | 亚洲色偷偷偷综合网 | 久久久成人毛片无码 | 国产偷抇久久精品a片69 | 精品国精品国产自在久国产87 | 丰满人妻一区二区三区免费视频 | 久久www免费人成人片 | 波多野结衣av在线观看 | 秋霞成人午夜鲁丝一区二区三区 | 欧美怡红院免费全部视频 | 沈阳熟女露脸对白视频 | 国产激情一区二区三区 | 国产av人人夜夜澡人人爽麻豆 | 国产成人午夜福利在线播放 | 国产亚洲欧美日韩亚洲中文色 | 国产又粗又硬又大爽黄老大爷视 | 欧洲极品少妇 | 女人被男人躁得好爽免费视频 | 亚洲第一无码av无码专区 | 内射欧美老妇wbb | 1000部夫妻午夜免费 | 四虎国产精品一区二区 | 97人妻精品一区二区三区 | 男女爱爱好爽视频免费看 | 九月婷婷人人澡人人添人人爽 | 熟妇人妻无码xxx视频 | 久久综合激激的五月天 | 亚洲欧美日韩国产精品一区二区 | 人妻少妇精品视频专区 | 东京无码熟妇人妻av在线网址 | 一本色道久久综合亚洲精品不卡 | а天堂中文在线官网 | 国产区女主播在线观看 | 国产亚洲精品久久久久久久久动漫 | а√资源新版在线天堂 | 成熟人妻av无码专区 | 国产成人无码一二三区视频 | 久久精品人妻少妇一区二区三区 | 亚洲国产欧美国产综合一区 | 国产精品亚洲专区无码不卡 | 国产成人无码av一区二区 | 亚洲码国产精品高潮在线 | 麻豆精品国产精华精华液好用吗 | 亚洲欧美国产精品专区久久 | 青草青草久热国产精品 | а√天堂www在线天堂小说 | 2020久久香蕉国产线看观看 | 国产精品亚洲lv粉色 | 国产真人无遮挡作爱免费视频 | 国产精品18久久久久久麻辣 | 欧美精品免费观看二区 | 亚洲日韩av一区二区三区中文 | 亚洲中文字幕在线无码一区二区 | 色爱情人网站 | 欧美zoozzooz性欧美 | 日本一区二区更新不卡 | 中文毛片无遮挡高清免费 | 小sao货水好多真紧h无码视频 | 性欧美疯狂xxxxbbbb | 国产色在线 | 国产 | 久9re热视频这里只有精品 | 男女超爽视频免费播放 | 成人一在线视频日韩国产 | 国产农村妇女高潮大叫 | 未满小14洗澡无码视频网站 | 欧洲熟妇色 欧美 | 久久精品99久久香蕉国产色戒 | 日韩精品无码免费一区二区三区 | 自拍偷自拍亚洲精品被多人伦好爽 | 午夜精品一区二区三区的区别 | 国产黄在线观看免费观看不卡 | 欧美兽交xxxx×视频 | 粗大的内捧猛烈进出视频 | 国产成人综合美国十次 | 国产精品-区区久久久狼 | 牲欲强的熟妇农村老妇女 | 国产精品高潮呻吟av久久 | аⅴ资源天堂资源库在线 | 人人澡人人妻人人爽人人蜜桃 | 内射欧美老妇wbb | 久久综合久久自在自线精品自 | 国产av无码专区亚洲a∨毛片 | 曰韩无码二三区中文字幕 | 丰满少妇弄高潮了www | 国产成人亚洲综合无码 | 初尝人妻少妇中文字幕 | 国产9 9在线 | 中文 | 国产精品无套呻吟在线 | 18无码粉嫩小泬无套在线观看 | 纯爱无遮挡h肉动漫在线播放 | 国产美女极度色诱视频www | 伊人久久大香线蕉av一区二区 | 性欧美熟妇videofreesex | 成人欧美一区二区三区黑人免费 | 撕开奶罩揉吮奶头视频 | 久久午夜无码鲁丝片午夜精品 | 初尝人妻少妇中文字幕 | 亚洲人成网站色7799 | 日本乱偷人妻中文字幕 | 亚洲精品www久久久 | 亚洲熟妇色xxxxx欧美老妇 | 久久久婷婷五月亚洲97号色 | 久久综合狠狠综合久久综合88 | 国产人妻人伦精品1国产丝袜 | 色婷婷av一区二区三区之红樱桃 | 中文字幕无码av激情不卡 | 一本无码人妻在中文字幕免费 | 一本色道久久综合狠狠躁 | 亚洲码国产精品高潮在线 | 精品日本一区二区三区在线观看 | 日本精品高清一区二区 | 人妻少妇精品无码专区二区 | 精品国产av色一区二区深夜久久 | 在线播放亚洲第一字幕 | 人妻少妇被猛烈进入中文字幕 | 5858s亚洲色大成网站www | 300部国产真实乱 | 人妻互换免费中文字幕 | 荫蒂添的好舒服视频囗交 | 成熟妇人a片免费看网站 | 亚洲日韩av片在线观看 | 亚洲精品中文字幕 | 成 人 免费观看网站 | 国产激情无码一区二区 | 鲁大师影院在线观看 | 内射欧美老妇wbb | 国产精品igao视频网 | 国产精品资源一区二区 | 亚洲综合伊人久久大杳蕉 | 日本乱偷人妻中文字幕 | 久久久久久九九精品久 | 国产精品美女久久久网av | 亚洲中文字幕乱码av波多ji | 亚洲 高清 成人 动漫 | 久久久久成人精品免费播放动漫 | 中文亚洲成a人片在线观看 | 日本高清一区免费中文视频 | 麻豆国产人妻欲求不满谁演的 | v一区无码内射国产 | 亚洲精品一区三区三区在线观看 | 国产成人综合色在线观看网站 | 性啪啪chinese东北女人 | 国产舌乚八伦偷品w中 | 国产小呦泬泬99精品 | 久久久亚洲欧洲日产国码αv | 国产在线一区二区三区四区五区 | 国产成人精品久久亚洲高清不卡 | 精品国产一区二区三区av 性色 | 亚洲熟妇色xxxxx欧美老妇y | 丰腴饱满的极品熟妇 | 亚洲无人区一区二区三区 | 国产亚洲欧美在线专区 | 性欧美牲交xxxxx视频 | 亚洲综合无码一区二区三区 | 久久99精品国产麻豆蜜芽 | 夜夜高潮次次欢爽av女 | 久久久久人妻一区精品色欧美 | a片免费视频在线观看 | 亚洲国产日韩a在线播放 | 亚洲精品国产第一综合99久久 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 在线观看国产一区二区三区 | 国内丰满熟女出轨videos | 久久99精品国产.久久久久 | 日本一卡2卡3卡四卡精品网站 | 中文字幕无码免费久久9一区9 | 国产一区二区三区四区五区加勒比 | 日本熟妇人妻xxxxx人hd | 日韩在线不卡免费视频一区 | 国产小呦泬泬99精品 | 男女超爽视频免费播放 | 性生交大片免费看女人按摩摩 | 色婷婷av一区二区三区之红樱桃 | 天堂无码人妻精品一区二区三区 | 欧美xxxx黑人又粗又长 | 美女黄网站人色视频免费国产 | 无码任你躁久久久久久久 | 无码人妻精品一区二区三区下载 | 成人三级无码视频在线观看 | 亚洲一区二区三区无码久久 | 日本一区二区更新不卡 | 四虎国产精品一区二区 | 亚洲国产高清在线观看视频 | 特黄特色大片免费播放器图片 | 图片区 小说区 区 亚洲五月 | 天堂无码人妻精品一区二区三区 | 免费看少妇作爱视频 | 内射老妇bbwx0c0ck | 国产xxx69麻豆国语对白 | 亚洲精品无码人妻无码 | 国产亚av手机在线观看 | 成人一区二区免费视频 | 性欧美牲交xxxxx视频 | 一本大道伊人av久久综合 | 国产在线精品一区二区高清不卡 | 女人高潮内射99精品 | 人妻少妇被猛烈进入中文字幕 | 精品国偷自产在线视频 | 国内精品久久毛片一区二区 | 国产精品亚洲综合色区韩国 | 波多野结衣高清一区二区三区 | 国产色视频一区二区三区 | 一个人看的www免费视频在线观看 | www成人国产高清内射 | 色偷偷人人澡人人爽人人模 | 熟女俱乐部五十路六十路av | 欧美 亚洲 国产 另类 | 亚洲熟妇色xxxxx亚洲 | 日本精品人妻无码77777 天堂一区人妻无码 | 久久国产精品偷任你爽任你 | 装睡被陌生人摸出水好爽 | 亚洲综合无码一区二区三区 | 疯狂三人交性欧美 | 综合激情五月综合激情五月激情1 | 国产艳妇av在线观看果冻传媒 | 四虎永久在线精品免费网址 | 国产激情精品一区二区三区 | 欧美怡红院免费全部视频 | 久久五月精品中文字幕 | 久久99精品国产麻豆蜜芽 | 国产乱子伦视频在线播放 | 正在播放东北夫妻内射 | 东京热无码av男人的天堂 | а√天堂www在线天堂小说 | 国产亚洲视频中文字幕97精品 | 国产精品久免费的黄网站 | 青草青草久热国产精品 | 日韩精品a片一区二区三区妖精 | 午夜精品一区二区三区在线观看 | 少妇性l交大片欧洲热妇乱xxx | 久久综合网欧美色妞网 | 国产凸凹视频一区二区 | 丁香花在线影院观看在线播放 | 久久熟妇人妻午夜寂寞影院 | 国产电影无码午夜在线播放 | 亚洲午夜福利在线观看 | 国产成人精品三级麻豆 | 草草网站影院白丝内射 | 国产精品久免费的黄网站 | 久久久成人毛片无码 | 国产精品免费大片 | 极品尤物被啪到呻吟喷水 | 日日摸日日碰夜夜爽av | 天堂在线观看www | 天天摸天天碰天天添 | 国产两女互慰高潮视频在线观看 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚洲 欧美 激情 小说 另类 | 乱码午夜-极国产极内射 | 午夜精品久久久久久久 | 欧美性黑人极品hd | 999久久久国产精品消防器材 | 300部国产真实乱 | 无码精品人妻一区二区三区av | 国产成人无码午夜视频在线观看 | 无码人妻精品一区二区三区不卡 | 国产精品亚洲综合色区韩国 | 久久久久成人精品免费播放动漫 | 一二三四在线观看免费视频 | 天天拍夜夜添久久精品大 | 亚洲成熟女人毛毛耸耸多 | 红桃av一区二区三区在线无码av | 成人女人看片免费视频放人 | 天堂在线观看www | 久久人人爽人人人人片 | 奇米影视7777久久精品 | 男女超爽视频免费播放 | 色欲av亚洲一区无码少妇 | 东北女人啪啪对白 | 亚洲精品综合五月久久小说 | 少妇性l交大片欧洲热妇乱xxx | 亚洲欧美色中文字幕在线 | 亚洲综合精品香蕉久久网 | 天天综合网天天综合色 | 无码av免费一区二区三区试看 | 久久久久久久人妻无码中文字幕爆 | 成人精品一区二区三区中文字幕 | 亚洲国产精品成人久久蜜臀 | 中文字幕+乱码+中文字幕一区 | 亚洲国产精品久久久天堂 | 免费人成在线视频无码 | 妺妺窝人体色www在线小说 | 亚洲熟悉妇女xxx妇女av | 三上悠亚人妻中文字幕在线 | 亚洲 另类 在线 欧美 制服 | 强伦人妻一区二区三区视频18 | 红桃av一区二区三区在线无码av | 人妻少妇精品无码专区二区 | 精品一区二区三区无码免费视频 | 国产精品久久久午夜夜伦鲁鲁 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产成人久久精品流白浆 | 小泽玛莉亚一区二区视频在线 | 无码福利日韩神码福利片 | 亚洲熟妇自偷自拍另类 | 亚洲国产精品无码一区二区三区 | 99久久人妻精品免费二区 | 精品国产av色一区二区深夜久久 | 日韩 欧美 动漫 国产 制服 | 无码国内精品人妻少妇 | 日日摸夜夜摸狠狠摸婷婷 | 欧美人与动性行为视频 | 国产明星裸体无码xxxx视频 | 国产精品第一区揄拍无码 | 亚洲а∨天堂久久精品2021 | 天干天干啦夜天干天2017 | 国色天香社区在线视频 | 国产麻豆精品一区二区三区v视界 | 国产精品久久久久影院嫩草 | 在线播放免费人成毛片乱码 | 国产亚洲精品久久久久久国模美 | 久久熟妇人妻午夜寂寞影院 | 少妇人妻大乳在线视频 | 亚洲精品成人av在线 | а√天堂www在线天堂小说 | 乱人伦人妻中文字幕无码久久网 | 成人无码视频免费播放 | 国产亚洲精品久久久久久国模美 | 性欧美大战久久久久久久 | 亚洲男女内射在线播放 | 亚洲国产精品美女久久久久 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 精品国产一区二区三区四区在线看 | 狂野欧美性猛交免费视频 | 一本大道伊人av久久综合 | аⅴ资源天堂资源库在线 | 成 人 免费观看网站 | 亚洲成av人综合在线观看 | 欧美亚洲日韩国产人成在线播放 | 亚洲精品鲁一鲁一区二区三区 | 亚洲精品一区二区三区婷婷月 | 久久精品人人做人人综合 | 亚洲国产一区二区三区在线观看 | 在教室伦流澡到高潮hnp视频 | 亚洲一区二区三区无码久久 | 欧美成人午夜精品久久久 | 76少妇精品导航 | 色窝窝无码一区二区三区色欲 | 国产精品美女久久久久av爽李琼 | 亚洲综合久久一区二区 | 高清不卡一区二区三区 | 久久人人爽人人人人片 | 国内少妇偷人精品视频 | 亚洲人成无码网www | 欧美日韩视频无码一区二区三 | 无码人妻丰满熟妇区五十路百度 | 精品久久8x国产免费观看 | 亚洲熟妇色xxxxx欧美老妇y | 国产国产精品人在线视 | 国精品人妻无码一区二区三区蜜柚 | 日本精品久久久久中文字幕 | 给我免费的视频在线观看 | 亚洲精品无码人妻无码 | 免费网站看v片在线18禁无码 | 99久久人妻精品免费一区 | 中国女人内谢69xxxxxa片 | 日韩精品无码免费一区二区三区 | 又大又硬又黄的免费视频 | 亚洲精品国偷拍自产在线观看蜜桃 | √天堂中文官网8在线 | 国精产品一品二品国精品69xx | 精品国产麻豆免费人成网站 | 婷婷综合久久中文字幕蜜桃三电影 | 国产精品亚洲lv粉色 | 九九综合va免费看 | 无码精品国产va在线观看dvd | 国产高清不卡无码视频 | 色诱久久久久综合网ywww | 国产性生交xxxxx无码 | 久激情内射婷内射蜜桃人妖 | 久久婷婷五月综合色国产香蕉 | 色老头在线一区二区三区 | 亚洲人亚洲人成电影网站色 | 久久97精品久久久久久久不卡 | 精品国产一区二区三区四区 | 99视频精品全部免费免费观看 | 亚洲爆乳大丰满无码专区 | 丝袜 中出 制服 人妻 美腿 | 一区二区三区高清视频一 | 国产午夜无码精品免费看 | 18精品久久久无码午夜福利 | 亚洲国产精品久久久天堂 | 亚洲娇小与黑人巨大交 | 影音先锋中文字幕无码 | 国产乱人伦偷精品视频 | 美女毛片一区二区三区四区 | 国产人妻精品午夜福利免费 | 亚洲国产精品毛片av不卡在线 | 十八禁真人啪啪免费网站 | 男女下面进入的视频免费午夜 | 成人免费无码大片a毛片 | 亚洲精品国偷拍自产在线观看蜜桃 | 欧美三级不卡在线观看 | 中国大陆精品视频xxxx | 久久久久免费看成人影片 | 国产精品无码mv在线观看 | 精品 日韩 国产 欧美 视频 | 亚洲无人区一区二区三区 | 亚洲成av人片在线观看无码不卡 | 亚洲欧美精品aaaaaa片 | 久久久久久久久888 | 中文精品无码中文字幕无码专区 | 精品国产aⅴ无码一区二区 | av在线亚洲欧洲日产一区二区 | 精品国产av色一区二区深夜久久 | 精品熟女少妇av免费观看 | 人妻夜夜爽天天爽三区 | 国产精品无码mv在线观看 | 国产午夜亚洲精品不卡下载 | 亚洲熟女一区二区三区 | 久久精品无码一区二区三区 | 日韩在线不卡免费视频一区 | 国产黄在线观看免费观看不卡 | 国产成人亚洲综合无码 | 精品国产一区二区三区四区在线看 | 国产深夜福利视频在线 | 亚洲色大成网站www国产 | 婷婷五月综合缴情在线视频 | 四十如虎的丰满熟妇啪啪 | 国产精品福利视频导航 | 精品国产国产综合精品 | 精品国产一区二区三区四区 | 双乳奶水饱满少妇呻吟 | 亚洲日韩精品欧美一区二区 | 欧美日本日韩 | 成人免费视频视频在线观看 免费 | 亚洲精品久久久久久久久久久 | 国产亚洲精品久久久久久大师 | 国产激情无码一区二区 | 日本成熟视频免费视频 | 色婷婷欧美在线播放内射 | 天天爽夜夜爽夜夜爽 | 亚洲熟妇色xxxxx欧美老妇 | 狂野欧美性猛xxxx乱大交 | 久久www免费人成人片 | 亚洲成a人一区二区三区 | 日韩欧美中文字幕公布 | 亚洲色在线无码国产精品不卡 | 成人欧美一区二区三区黑人 | av人摸人人人澡人人超碰下载 | 丰满少妇高潮惨叫视频 | 强辱丰满人妻hd中文字幕 | 国产午夜手机精彩视频 | 欧美人与牲动交xxxx | 中文精品无码中文字幕无码专区 | 波多野结衣 黑人 | 亚洲国产精品久久久久久 | 蜜桃臀无码内射一区二区三区 | 麻豆国产97在线 | 欧洲 | 国产人妻精品午夜福利免费 | 夜夜高潮次次欢爽av女 | 国产农村乱对白刺激视频 | 国产激情一区二区三区 | 国产又粗又硬又大爽黄老大爷视 | 亚洲欧洲日本综合aⅴ在线 | 精品厕所偷拍各类美女tp嘘嘘 | 国产小呦泬泬99精品 | 欧美国产日产一区二区 | 中文无码成人免费视频在线观看 | 玩弄人妻少妇500系列视频 | 精品无人国产偷自产在线 | 国产欧美熟妇另类久久久 | 日欧一片内射va在线影院 | 漂亮人妻洗澡被公强 日日躁 | 综合激情五月综合激情五月激情1 | 欧美丰满少妇xxxx性 | 女人被男人爽到呻吟的视频 | 精品国产av色一区二区深夜久久 | 欧美精品在线观看 | 亚洲爆乳无码专区 | 久久精品丝袜高跟鞋 | 国产午夜精品一区二区三区嫩草 | 中文字幕+乱码+中文字幕一区 |