久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Spark笔记——技术点汇总

發布時間:2024/7/19 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark笔记——技术点汇总 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
Spark筆記——技術點匯總

目錄

·?概況

·?手工搭建集群

????·?引言

????·?安裝Scala

????·?配置文件

????·?啟動與測試

·?應用部署

????·?部署架構

????·?應用程序部署

·?核心原理

????·?RDD概念

????·?RDD核心組成

????·?RDD依賴關系

????·?DAG圖

????·?RDD故障恢復機制

????·?Standalone模式的Spark架構

????·?YARN模式的Spark架構

????·?應用程序資源構建

·?API

????·?WordCount示例

????·?RDD構建

????·?RDD緩存與持久化

????·?RDD分區數

????·?共享變量

????·?RDD Operation

????·?RDD Operation隱式轉換

????·?RDD[T]分區Operation

????·?RDD[T]常用聚合Operation

????·?RDD間操作Operation

????·?DoubleRDDFunctions常用Operation

????·?PairRDDFunctions聚合Operation

????·?PairRDDFunctions間操作Operation

????·?OrderedRDDFunctions常用Operation

·?案例:移動終端上網數據分析

????·?數據準備

????·?加載&預處理

????·?統計App訪問次數

????·?統計DAU

????·?統計MAU

????·?統計App上下流量


?

概況

1. Spark相對MapReduce的優勢:

? ? a)?支持迭代計算;

? ? b)?中間結果存儲在內存而不是硬盤,降低延遲。

2. Spark已成為輕量級大數據快速處理統一平臺,“One?stack?to?rule?them?all”,一個平臺完成:即席查詢(ad-hoc?queries)、批處理(batch?processing)、流式處理(stream?processing)。

3. Spark集群搭建方式:

? ? a)?集成部署工具,如Cloudera?Manager;

? ? b)?手工搭建。

4. Spark源碼編譯方式:

? ? a)?SBT編譯;

? ? b) Maven編譯。

手工搭建集群

引言

1. 環境:

Role

Host?name

Master

centos1

Slave

centos2

centos3

2. Standalone模式需在Master和Slave節點部署,YARN模式僅需在命令提交機器部署。

3. 假設已成功安裝JDK、Hadoop集群。

安裝Scala

1. [Master(Standalone模式)或命令提交機器(YARN模式)]安裝Scala到/opt/app目錄下。?

tar zxvf scala-2.10.6.tgz -C /opt/app

2. [Master(Standalone模式)或命令提交機器(YARN模式)]配置環境變量。

vi /etc/profile export SCALA_HOME=/opt/app/scala-2.10.6 export PATH=$SCALA_HOME/bin:$PATH source /etc/profile # 生效 env | grep SCALA_HOME # 驗證

配置文件

3. [Master(Standalone模式)或命令提交機器(YARN模式)]

tar zxvf spark-1.6.3-bin-hadoop2.6.tgz -C /opt/app cd /opt/app/spark-1.6.3-bin-hadoop2.6/conf cp spark-env.sh.template spark-env.sh vi spark-env.sh export JAVA_HOME=/opt/app/jdk1.8.0_121 export SCALA_HOME=/opt/app/scala-2.10.6 export HADOOP_HOME=/opt/app/hadoop-2.6.5 export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop # For standalone mode export SPARK_WORKER_CORES=1 export SPARK_DAEMON_MEMORY=512m cp spark-defaults.conf.template spark-defaults.conf hadoop fs -mkdir /spark.eventLog.dir vi spark-defaults.conf spark.driver.extraClassPath /opt/app/apache-hive-1.2.2-bin/lib/mysql-connector-java-5.1.22-bin.jar spark.eventLog.enabled true spark.eventLog.dir hdfs://centos1:9000/spark.eventLog.dir cp slaves.template slaves vi slaves centos2 centos3 ln -s /opt/app/apache-hive-1.2.2-bin/conf/hive-site.xml .

4. [Master(Standalone模式)]從Master復制Spark目錄到各Slave。注意:僅Standalone集群需要執行本步驟。

scp -r /opt/app/spark-1.6.3-bin-hadoop2.6 hadoop@centos2:/opt/app scp -r /opt/app/spark-1.6.3-bin-hadoop2.6 hadoop@centos3:/opt/app

啟動與測試

5. [Master(Standalone模式)或命令提交機器(YARN模式)]配置Spark環境變量。

export SPARK_HOME=/opt/app/spark-1.6.3-bin-hadoop2.6 export PATH=$PATH:$SPARK_HOME/bin
export PYSPARK_PYTHON=/usr/bin/python3 # 可選
export PYSPARK_DRIVER_PYTHON=/usr/bin/python3 # 可選

6. [Master(Standalone模式)]啟動Spark,測試。?

sbin/start-all.sh jps Master # Master機器進程 Worker # Slave機器進程

7. [Master(Standalone模式)或命令提交機器(YARN模式)]測試。

bin/spark-submit --master spark://centos1:7077 --deploy-mode client --class org.apache.spark.examples.SparkPi --driver-memory 512m --executor-memory 512m --num-executors 1 --executor-cores 1 lib/spark-examples-1.6.3-hadoop2.6.0.jar # Standalone Client模式運行 bin/spark-submit --master spark://centos1:7077 --deploy-mode cluster --class org.apache.spark.examples.SparkPi --driver-memory 512m --executor-memory 512m --num-executors 1 --executor-cores 1 lib/spark-examples-1.6.3-hadoop2.6.0.jar # Standalone Cluster模式運行 bin/spark-submit --master yarn-client --class org.apache.spark.examples.SparkPi --driver-memory 512m --executor-memory 512m --num-executors 1 --executor-cores 1 lib/spark-examples-1.6.3-hadoop2.6.0.jar # Yarn Client模式運行 bin/spark-submit --master yarn-cluster --class org.apache.spark.examples.SparkPi --driver-memory 512m --executor-memory 512m --num-executors 1 --executor-cores 1 lib/spark-examples-1.6.3-hadoop2.6.0.jar # Yarn Custer模式運行
bin/spark-submit --master yarn-client --driver-memory 512m --executor-memory 512m --num-executors 1 --executor-cores 1 examples/src/main/python/pi.py # Yarn Client模式運行(Python) bin/yarn application -list # 查看YARN運行的應用 bin/yarn application -kill ApplicationID # 殺死YARN運行的應用 bin/spark-shell --master spark://centos1:7077 --deploy-mode client --driver-memory 512m --executor-memory 512m --num-executors 1 --executor-cores 1 # Standalone Client模式運行 bin/spark-shell --master yarn --deploy-mode client --driver-memory 512m --executor-memory 512m --num-executors 1 --executor-cores 1 # Yarn Client模式運行

8. 監控頁面。

http://centos1:8080

Spark監控

http://centos1:8088

YARN監控

應用部署

部署架構

1. Application:Spark應用程序,包括一個Driver?Program和集群中多個WorkNode中的Executor,其中每個WorkNode為每個Application僅提供一個Executor。

2. Driver?Program:運行Application的main函數。通常也用SparkContext表示。負責DAG構建、Stage劃分、Task管理及調度、生成SchedulerBackend用于Akka通信,主要組件有DAGScheduler、TaskScheduler、SchedulerBackend。

3. Cluster?Manager:集群管理器,可封裝如Spark?Standalone、YARN等不同集群管理器。Driver?Program通過Cluster?Manager分配資源,并將任務發送到多個Work?Node執行。

4. WorkNode:集群節點。應用程序在運行時的Task在WorkNode的Executor中執行。

5. Executor:WorkNode為Application啟動的一個進程,負責執行Task。

6. Stage:一個Applicatoin一般包含一到多個Stage。

7. Task:被Driver?Program發送到Executor的計算單元,通常一個Task處理一個split(即一個分區),每個split一般是一個Block大小。一個Stage包含一到多個Task,通過多個Task實現并行計算。

8. DAGScheduler:將Application分解成一到多個Stage,每個Stage根據RDD分區數決定Task個數,然后生成相應TaskSet放到TaskScheduler中。

9. DeployMode:Driver進程部署模式,有cluster和client兩種。

10. 注意:

? ? a)?Driver?Program必須與Spark集群處于同一網絡環境。因為SparkContext要發送任務給不同WorkNode的Executor并接受Executor的執行結果。

? ? b)?生產環境中,Driver?Program所在機器性能配置,尤其CPU較好。

應用程序部署

1. 分類:

? ? a)?spark-shell:交互式,用于開發調試。已創建好“val?sc:?SparkContext”和“val?sqlContext:?SQLContext”實例。

? ? b)?spark-submit:應用提交式,用于生產部署。

2. spark-shell參數:

bin/spark-shell --help Usage: ./bin/spark-shell [options]Options:--master MASTER_URL spark://host:port, mesos://host:port, yarn, or local.--deploy-mode DEPLOY_MODE Whether to launch the driver program locally ("client") oron one of the worker machines inside the cluster ("cluster")(Default: client).--class CLASS_NAME Your application's main class (for Java / Scala apps).--name NAME A name of your application.--jars JARS Comma-separated list of local jars to include on the driverand executor classpaths.--packages Comma-separated list of maven coordinates of jars to includeon the driver and executor classpaths. Will search the localmaven repo, then maven central and any additional remoterepositories given by --repositories. The format for thecoordinates should be groupId:artifactId:version.--exclude-packages Comma-separated list of groupId:artifactId, to exclude whileresolving the dependencies provided in --packages to avoiddependency conflicts.--repositories Comma-separated list of additional remote repositories tosearch for the maven coordinates given with --packages.--py-files PY_FILES Comma-separated list of .zip, .egg, or .py files to placeon the PYTHONPATH for Python apps.--files FILES Comma-separated list of files to be placed in the workingdirectory of each executor.--conf PROP=VALUE Arbitrary Spark configuration property.--properties-file FILE Path to a file from which to load extra properties. If notspecified, this will look for conf/spark-defaults.conf.--driver-memory MEM Memory for driver (e.g. 1000M, 2G) (Default: 1024M).--driver-java-options Extra Java options to pass to the driver.--driver-library-path Extra library path entries to pass to the driver.--driver-class-path Extra class path entries to pass to the driver. Note thatjars added with --jars are automatically included in theclasspath.--executor-memory MEM Memory per executor (e.g. 1000M, 2G) (Default: 1G).--proxy-user NAME User to impersonate when submitting the application.--help, -h Show this help message and exit--verbose, -v Print additional debug output--version, Print the version of current SparkSpark standalone with cluster deploy mode only:--driver-cores NUM Cores for driver (Default: 1).Spark standalone or Mesos with cluster deploy mode only:--supervise If given, restarts the driver on failure.--kill SUBMISSION_ID If given, kills the driver specified.--status SUBMISSION_ID If given, requests the status of the driver specified.Spark standalone and Mesos only:--total-executor-cores NUM Total cores for all executors.Spark standalone and YARN only:--executor-cores NUM Number of cores per executor. (Default: 1 in YARN mode,or all available cores on the worker in standalone mode)YARN-only:--driver-cores NUM Number of cores used by the driver, only in cluster mode(Default: 1).--queue QUEUE_NAME The YARN queue to submit to (Default: "default").--num-executors NUM Number of executors to launch (Default: 2).--archives ARCHIVES Comma separated list of archives to be extracted into theworking directory of each executor.--principal PRINCIPAL Principal to be used to login to KDC, while running onsecure HDFS.--keytab KEYTAB The full path to the file that contains the keytab for theprincipal specified above. This keytab will be copied tothe node running the Application Master via the SecureDistributed Cache, for renewing the login tickets and thedelegation tokens periodically.

3. spark-submit參數(除Usage外,其他參數與spark-shell一樣):

bin/spark-submit --help Usage: spark-submit [options] <app jar | python file> [app arguments] Usage: spark-submit --kill [submission ID] --master [spark://...] Usage: spark-submit --status [submission ID] --master [spark://...] Options:--master MASTER_URL spark://host:port, mesos://host:port, yarn, or local.--deploy-mode DEPLOY_MODE Whether to launch the driver program locally ("client") oron one of the worker machines inside the cluster ("cluster")(Default: client).--class CLASS_NAME Your application's main class (for Java / Scala apps).--name NAME A name of your application.--jars JARS Comma-separated list of local jars to include on the driverand executor classpaths.--packages Comma-separated list of maven coordinates of jars to includeon the driver and executor classpaths. Will search the localmaven repo, then maven central and any additional remoterepositories given by --repositories. The format for thecoordinates should be groupId:artifactId:version.--exclude-packages Comma-separated list of groupId:artifactId, to exclude whileresolving the dependencies provided in --packages to avoiddependency conflicts.--repositories Comma-separated list of additional remote repositories tosearch for the maven coordinates given with --packages.--py-files PY_FILES Comma-separated list of .zip, .egg, or .py files to placeon the PYTHONPATH for Python apps.--files FILES Comma-separated list of files to be placed in the workingdirectory of each executor.--conf PROP=VALUE Arbitrary Spark configuration property.--properties-file FILE Path to a file from which to load extra properties. If notspecified, this will look for conf/spark-defaults.conf.--driver-memory MEM Memory for driver (e.g. 1000M, 2G) (Default: 1024M).--driver-java-options Extra Java options to pass to the driver.--driver-library-path Extra library path entries to pass to the driver.--driver-class-path Extra class path entries to pass to the driver. Note thatjars added with --jars are automatically included in theclasspath.--executor-memory MEM Memory per executor (e.g. 1000M, 2G) (Default: 1G).--proxy-user NAME User to impersonate when submitting the application.--help, -h Show this help message and exit--verbose, -v Print additional debug output--version, Print the version of current SparkSpark standalone with cluster deploy mode only:--driver-cores NUM Cores for driver (Default: 1).Spark standalone or Mesos with cluster deploy mode only:--supervise If given, restarts the driver on failure.--kill SUBMISSION_ID If given, kills the driver specified.--status SUBMISSION_ID If given, requests the status of the driver specified.Spark standalone and Mesos only:--total-executor-cores NUM Total cores for all executors.Spark standalone and YARN only:--executor-cores NUM Number of cores per executor. (Default: 1 in YARN mode,or all available cores on the worker in standalone mode)YARN-only:--driver-cores NUM Number of cores used by the driver, only in cluster mode(Default: 1).--queue QUEUE_NAME The YARN queue to submit to (Default: "default").--num-executors NUM Number of executors to launch (Default: 2).--archives ARCHIVES Comma separated list of archives to be extracted into theworking directory of each executor.--principal PRINCIPAL Principal to be used to login to KDC, while running onsecure HDFS.--keytab KEYTAB The full path to the file that contains the keytab for theprincipal specified above. This keytab will be copied tothe node running the Application Master via the SecureDistributed Cache, for renewing the login tickets and thedelegation tokens periodically.

4. 默認參數:

? ? a)?默認應用程序參數配置文件:conf/spark-defaults.conf

? ? b)?默認JVM參數配置文件:conf/spark-env.sh

? ? c)?常用的jar文件可通過“--jar”參數配置。

5. 參數優先級(由高到低):

? ? a)?SparkConf顯示配置參數;

? ? b)?spark-submit指定參數;

? ? c)?conf/spark-defaults.conf配置文件參數。

6. MASTER_URL格式

MASTER_URL

說明

local

以單線程在本地運行(完全無并行)

local[K]

在本地以K個Worker線程運行,K設置為CPU核數較理想

local[*]

K=CPU核數

spark://HOST:PORT

連接Standalone集群的Master,即Spark監控頁面的URL,端口默認為7077(不支持省略)

yarn-client

以client模式連接到YARN集群,通過HADOOP_CONF_DIR環境變量查找集群

yarn-cluster

以cluster模式連接到YARN集群,通過HADOOP_CONF_DIR環境變量查找集群

?7. 注意:

? ? a)?spark-shell默認使用4040端口,當4040端口被占用時,程序打印日志警告WARN并嘗試遞增端口(4041、4042……)直到找到可用端口為止。

? ? b)?Executor節點上每個Driver?Program的jar包和文件會被復制到工作目錄下,可能占用大量空間。YARN集群會自動清除,Standalone集群需配置“spark.worker.cleanup.appDataTtl”開啟自動清除。

8. 應用程序模板

import org.apache.spark.SparkConf import org.apache.spark.SparkContext import org.apache.spark.sql.SQLContext import org.apache.spark.sql.hive.HiveContextobject Test {def main(args: Array[String]): Unit = {val conf = new SparkConf().setAppName("Test")val sc = new SparkContext(conf)// ... } }

9. 提交示例:

bin/spark-submit --master spark://ubuntu1:7077 --class org.apache.spark.examples.SparkPi lib/spark-examples-1.6.3-hadoop2.6.0.jar

核心原理

RDD概念

1. RDD:Resilient?Distributed?Dataset,彈性分布式數據集。

2. 意義:Spark最核心的抽象概念;具有容錯性基于內存的集群計算方法。

RDD核心組成

1. 5個核心方法。

? ? a)?getPartitions:分區列表(數據塊列表)

? ? b)?compute:計算各分區數據的函數。

? ? c)?getDependencies:對父RDD的依賴列表。

? ? d)?partitioner:key-value?RDD的分區器。

? ? e)?getPreferredLocations:每個分區的預定義地址列表(如HDFS上的數據塊地址)。

2. 按用途分類以上5個方法:

? ? a)?前3個:描述RDD間的血統關系(Lineage),必須有的方法;

? ? b)?后2個:用于優化執行。

3. RDD的實例:RDD[T],T為泛型,即實例。

4. 分區:

? ? a)?分區概念:將大數據量T實例集合split成多個小數據量的T實例子集合。

? ? b)?分區源碼:實際上是Iterator[T]。

? ? c)?分區存儲:例如以Block方式存在HDFS。

5. 依賴:

? ? a)?依賴列表:一個RDD可有多個父依賴,所以是父RDD依賴列表。

? ? b)?與分區關系:依賴是通過RDD分區間的依賴體現的,通過依賴列表和getPartitions方法可知RDD各分區是如何依賴一組父RDD分區的。

6. compute方法:

? ? a)?延時(lazy)特性,當觸發Action時才真正執行compute方法;

? ? b)?計算粒度是分區,而不是T元素。

7. partitioner方法:T實例為key-value對類型的RDD。

8. RDD抽象類源碼(節選自v1.6.3):

1 package org.apache.spark.rdd 2 3 // 4 5 /** 6 * A Resilient Distributed Dataset (RDD), the basic abstraction in Spark. Represents an immutable, 7 * partitioned collection of elements that can be operated on in parallel. This class contains the 8 * basic operations available on all RDDs, such as `map`, `filter`, and `persist`. In addition, 9 * [[org.apache.spark.rdd.PairRDDFunctions]] contains operations available only on RDDs of key-value 10 * pairs, such as `groupByKey` and `join`; 11 * [[org.apache.spark.rdd.DoubleRDDFunctions]] contains operations available only on RDDs of 12 * Doubles; and 13 * [[org.apache.spark.rdd.SequenceFileRDDFunctions]] contains operations available on RDDs that 14 * can be saved as SequenceFiles. 15 * All operations are automatically available on any RDD of the right type (e.g. RDD[(Int, Int)] 16 * through implicit. 17 * 18 * Internally, each RDD is characterized by five main properties: 19 * 20 * - A list of partitions 21 * - A function for computing each split 22 * - A list of dependencies on other RDDs 23 * - Optionally, a Partitioner for key-value RDDs (e.g. to say that the RDD is hash-partitioned) 24 * - Optionally, a list of preferred locations to compute each split on (e.g. block locations for 25 * an HDFS file) 26 * 27 * All of the scheduling and execution in Spark is done based on these methods, allowing each RDD 28 * to implement its own way of computing itself. Indeed, users can implement custom RDDs (e.g. for 29 * reading data from a new storage system) by overriding these functions. Please refer to the 30 * [[http://www.cs.berkeley.edu/~matei/papers/2012/nsdi_spark.pdf Spark paper]] for more details 31 * on RDD internals. 32 */ 33 abstract class RDD[T: ClassTag]( 34 @transient private var _sc: SparkContext, 35 @transient private var deps: Seq[Dependency[_]] 36 ) extends Serializable with Logging { 37 // ... 38 39 // ======================================================================= 40 // Methods that should be implemented by subclasses of RDD 41 // ======================================================================= 42 43 /** 44 * :: DeveloperApi :: 45 * Implemented by subclasses to compute a given partition. 46 */ 47 @DeveloperApi 48 def compute(split: Partition, context: TaskContext): Iterator[T] 49 50 /** 51 * Implemented by subclasses to return the set of partitions in this RDD. This method will only 52 * be called once, so it is safe to implement a time-consuming computation in it. 53 */ 54 protected def getPartitions: Array[Partition] 55 56 /** 57 * Implemented by subclasses to return how this RDD depends on parent RDDs. This method will only 58 * be called once, so it is safe to implement a time-consuming computation in it. 59 */ 60 protected def getDependencies: Seq[Dependency[_]] = deps 61 62 /** 63 * Optionally overridden by subclasses to specify placement preferences. 64 */ 65 protected def getPreferredLocations(split: Partition): Seq[String] = Nil 66 67 /** Optionally overridden by subclasses to specify how they are partitioned. */ 68 @transient val partitioner: Option[Partitioner] = None 69 70 // ... 71 }

RDD依賴關系

1. 窄依賴與寬依賴(外框表示RDD,內框表示分區):

?

2. 窄依賴:父RDD每個分區最多被一個子RDD分區所用。

3. 寬依賴:子RDD每個分區都依賴所有分區或多個分區。

4. 特性:

? ? a)?pipeline操作:窄依賴可pipeline操作,即允許在單個集群節點上流水線式執行,該節點可計算所有父分區。

? ? b)?RDD故障恢復:窄依賴只需在故障集群節點上重新計算丟失的父分區,并且可在不同節點上并行重新計算;對于寬依賴,失敗節點可能導致一個RDD所有父RDD分區丟失,都需重新計算。

5. WordCount依賴圖:

?

? ? a)?ShuffledRDD為寬依賴,將DAG劃分成兩個Stage:第1個Stage從HadoopRDD到MapPartitionsRDD,生成ShuffleMapTask;第2個Stage從ShuffledRDD到MapPartitionsRDD,生成ResultTask。

? ? b)?第一個Stage由3個ShuffleMapTask通過pipeline方式并行執行,直至3個Task均執行結束至MapPartitionsRDD處。

DAG圖

1. DAG:在圖論中,如果一個有向圖無法從任一頂點出發經過若干條邊回到該點,則這個圖是一個有向無環圖(Directed?Acyclic?Graph)。

2. Spark?DAG:Spark將數據在分布式環境下分區,再將作業(Job)轉化為DAG,并分階段進行DAG調度和任務分布式并行處理。

3. Stage:DAG調度時,會根據Shuffle將Job劃分Stage。如圖,RDD?A到RDD?B間、RDD?F到RDD?G間都需要Shuffle,所以有3個Stage:RDD?A、RDD?C到RDD?F、RDD?B和RDD?F到RDD?G。

4. 流水線(pipeline):

? ? a)?Spark采用貪心算法劃分Stage,即如果RDD的分區到父RDD分區是窄依賴,則實施經典的Fusion(融合)優化,把對應的Operation劃分到一個Stage。

? ? b)?如果連續RDD序列都是窄依賴,則把多個Operation并到一個Stage,直到遇到寬依賴。

? ? c)?pipeline好處:減少大量的全局屏障(barrier),并無須物化很多中間結果RDD,極大地提升性能。

RDD故障恢復機制

1. 假設一個RDD故障,根據依賴關系和分區,僅需要再執行一遍父RDD的相應分區。

2. 跨寬依賴的再執行涉及多個父RDD,為避免故障RDD的大量父RDD再執行,Spark保持Map階段中間數據輸出的持久,再執行可獲取相應分區的中間數據。

3. Spark提供數據checkpoint和記錄日志持久化中間RDD。checkpoint直接將RDD持久化到磁盤或HDFS等存儲,與cache/persist方法不同,checkpoint的RDD不會因作業結束而被消除,一直存在并被后續作業直接讀取加載。

Standalone模式的Spark架構

1. Standalone模式兩種運行方式(--deploy-mode參數控制)

? ? a)?cluster方式:Driver運行在Worker節點。

?

? ? b) client方式:Driver運行在客戶端。

2. 作業執行流程(cluster方式):

? ? a)?客戶端提交Application給Master,Master讓一個Worker啟動Driver,即SchedulerBackend(Worker創建一個DriverRunner線程,DriverRunner啟動SchedulerBackend進程)。

? ? b)?Master會讓其余Worker啟動Executor,即ExecutorBackend(Worker創建一個ExecutorRunner線程,ExecutorRunner會啟動ExecutorBackend進程)。

? ? c)?ExecutorBackend啟動后向Driver的SchedulerBackend注冊。

? ? d)?SchedulerBackend進程中包含DAGScheduler,它根據用戶程序生成執行計劃,并調度執行。對于每個Stage的Task,都被存放到TaskScheduler中,ExecutorBackend向SchedulerBackend匯報時把TaskScheduler中的Task調度到ExecutorBackend執行。

? ? e)?所有Stage都完成后Application結束。

3. 故障恢復

? ? a)?如果Worker發生故障:Worker退出前,將該Worker上的Executor殺掉;Worker通過定時心跳讓Master感知Worker故障,而后匯報給Driver,并將該Worker移除;Driver可知該Worker上的Executor已被殺死。

? ? b)?如果Executor發生故障:ExecutorRunner匯報給Master,由于Executor所在Worker正常,Master則發送LaunchExecutor指令給該Worker,讓其再次啟動一個Executor。

? ? c)?如果Master發生故障:通過ZooKeeper搭建的Master?HA(一個Active,其他Standby)切換Master。

YARN模式的Spark架構

1. YARN模式兩種運行方式(--deploy-mode參數控制)

? ? a)?cluster方式:Driver運行在NodeManager節點。

? ? b)?client方式:Driver運行在客戶端。

? ? ? ? i. SparkAppMaster:相當于Standalone模式的SchedulerBackend。SparkAppMaster包括DAGScheduler和YARNClusterScheduler。

? ? ? ? ii. Executor:相當于Standalone模式的ExecutorBackend。

2. 作業執行流程(cluster方式):

? ? a)?客戶端提交Application給ResourceManager,ResourceManager在某一NodeManager匯報時把SparkAppMaster分配給NodeManager,NodeManager啟動SparkAppMaster。

? ? b)?SparkAppMaster啟動后初始化Application,然后向ResourceManager申請資源,申請后通過RPC讓相應SparkAppMaster:相當于Standalone模式的SchedulerBackend。SparkAppMaster包括DAGScheduler和YARNClusterScheduler。

? ? c)?Executor:相當于Standalone模式的ExecutorBackend。的NodeManager啟動SparkExecutor。

? ? d)?SparkExecutor向SparkAppMaster匯報并完成Task。

? ? e)?此外,SparkClient通過SparkAppMaster獲取Application運行狀態。

應用程序資源構建

1. 兩種資源構建方式

? ? a)?粗粒度:應用程序提交后,運行前,根據應用程序資源需求一次性湊齊資源,整個運行時不再申請資源。

? ? b)?細粒度:應用程序提交后,動態向Cluster?Manager申請資源,只要等到資源滿足一個Task的運行,便開始運行該Task,而不必等到所有資源全部到位。

2. Spark?on?YARN僅支持粗粒度構建方式。

API

WordCount示例

1. 準備數據。

hadoop fs -mkdir -p /test/wordcount hadoop fs -put README.md /test/wordcount

2. 執行程序。

spark-shell --master spark://centos1:7077 1 import org.apache.log4j.{Logger,Level} 2 Logger.getLogger("org.apache.spark").setLevel(Level.WARN) 3 Logger.getLogger("org.apache.spark.sql").setLevel(Level.WARN) 4 val textFile = sc.textFile("/test/wordcount/README.md") 5 val wordCounts = textFile.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey((count1, count2) => count1 + count2) 6 wordCounts.saveAsTextFile("/test/wordcount/result") 7 wordCounts.collect

? ? a)?“flatMap(line?=>?line.split("?"))”:將文本每一行按空格拆分成單詞RDD。

? ? b)?“map(word?=>?(word,?1))”:將每個單詞轉換為單詞+單詞數的二元組RDD。

? ? c)?“reduceByKey((count1,?count2)?=>?count1?+?count2)”:按key分組(即按單詞分組)后,每組內單詞數求和。

? ? d)?“collect”:Action操作,將RDD全部元素轉換為Scala?Array返回給Driver?Program。如果數據量過大,會導致Driver?Program內存不足。

3. 查看結果。

hadoop fs -cat /test/wordcount/WordCounts

RDD構建

1. 加載外部存儲系統的文件構建RDD

? ? a)?方法定義

def textFile(path: String, minPartitions: Int = defaultMinPartitions): RDD[String]

? ? b) “sc.textFile("/test/directory")”:加載指定目錄下所有文件。

? ? c) “sc.textFile("/test/directory/*.txt")”:加載指定目錄下所有txt格式的文件。

? ? d) “sc.textFile("/test/directory/*.gz")”:加載指定目錄下所有gz格式的文件,Hadoop內置支持.gz格式,但不支持split。其他壓縮格式參考文檔。

? ? e) “sc.textFile("/test/directory/**/*")”:加載指定目錄下所有文件(包含子目錄)。

? ? f) “sc.sequenceFile("/test/directory")”:以序列文件方式加載指定目錄下所有文件。

? ? g) textFile方法和sequenceFile方法:底層均調用hadoopFile方法,只是參數不同;均使用HadoopInputFormat的子類,TextInputFormat和SequenceFileInputFormat。

2. 從Scala數據集構建RDD

? ? a)?方法定義

def parallelize[T: ClassTag](seq: Seq[T], numSlices: Int = defaultParallelism): RDD[T]

? ? b) 示例

1 val testRdd = sc.parallelize(List("A", "B", "C", "D"), 2) 2 testRdd.partitions.size // 分區數2 3 testRdd.toDebugString // 查看Lineage

RDD緩存與持久化

1. 主動持久化的目的:RDD重用,將計算結果RDD存儲以供后續Operation使用。

2. persist方法:將任意RDD緩存到內存、磁盤和Tachyon文件系統。

def persist(newLevel: StorageLevel): this.type

3. cache方法:persist方法使用MEMORY_ONLY存儲級別的快捷方式。

def cache()

4. 存儲級別。

存儲級別(Storage?Level)

含義

MEMORY_ONLY

將RDD以反序列化(deserialized)Java對象存儲到JVM。如果RDD不能被內存裝下,一些分區將不會被緩存,并且在需要的時候被重新計算。這是默認級別。

MEMORY_AND_DISK

將RDD以反序列化Java對象存儲到JVM。如果RDD不能被內存裝下,超出的分區被保存到硬盤上,并且在需要是被讀取。

MEMORY_ONLY_SER

將RDD以序列化(serialized)Java對象存儲(每一分區占用一個字節數組)。通常比對象反序列化的空間利用率更高,尤其當使用快速序列化器(fast?serializer),但在讀取時比較消耗CPU。

MEMORY_AND_DISK_SER

類似于MEMORY_ONLY_SER,但把超出內存的分區存儲在硬盤上而不是在每次需要時重新計算。

DISK_ONLY

只將RDD分區存儲在硬盤上。

MEMORY_ONLY_2

MEMORY_AND_DISK_2

與上述存儲級別一樣,但將每個分區都復制到兩個集群節點上。

OFF_HEAP?(experimental)

以序列化的格式將RDD存儲到Tachyon……

5. 數據移除

? ? a)?自動:集群內存不足時,Spark根據LRU(Least?Recently?Uesed,最近最少使用算法)刪除數據分區。

? ? b)?手動:unpersit方法,立即生效。

6. 演示效果。

? ? a)?可在Spark監控頁面Storage查看緩存生效情況;

? ? b)?內存不足時,打印警告日志“Not?enough?space?to?cache?rdd_?...?in?memory?...”。

1 val file = sc.textFile("/test/wordcount/README.md") // 可分別嘗試小文件和超大文件(視內存) 2 file.cache // 緩存到內存,lazy操作 3 file.count // Action操作觸發lazy 4 file.unpersit // 釋放緩存,eager操作

RDD分區數

1. 加載文件創建RDD的分區數

? ? a)?“sc.defaultParallelism”默認并行數,是加載文件創建RDD的分區數最小值參考,實際的分區數由加載文件時的split數決定,即文件的HDFS?block數,也可以由加載時的API參數制定分區數。

? ? b)?“sc.defaultParallelism”取配置項“spark.default.parallelism”的值,集群模式缺省為8、本地模式缺省為總內核數。

? ? c)?示例。

1 val textFile = sc.textFile("/test/README.md") 2 textFile.toDebugString // 查看Lineage 3 textFile.partitions.size // 分區數4 4 sc.defaultParallelism // 默認并行數4

2. key-value?RDD的分區數

? ? a)?partitioner方法是針對key-value?RDD的分區器,默認使用HashPartitioner。

? ? b)?通過源碼可知,沒有設置分區數時,會使用“spark.default.parallelism”配置項的值作為默認分區數。

1 // 2 package org.apache.spark 3 // 4 object Partitioner { 5 /** 6 * Choose a partitioner to use for a cogroup-like operation between a number of RDDs. 7 * 8 * If any of the RDDs already has a partitioner, choose that one. 9 * 10 * Otherwise, we use a default HashPartitioner. For the number of partitions, if 11 * spark.default.parallelism is set, then we'll use the value from SparkContext 12 * defaultParallelism, otherwise we'll use the max number of upstream partitions. 13 * 14 * Unless spark.default.parallelism is set, the number of partitions will be the 15 * same as the number of partitions in the largest upstream RDD, as this should 16 * be least likely to cause out-of-memory errors. 17 * 18 * We use two method parameters (rdd, others) to enforce callers passing at least 1 RDD. 19 */ 20 def defaultPartitioner(rdd: RDD[_], others: RDD[_]*): Partitioner = { 21 val bySize = (Seq(rdd) ++ others).sortBy(_.partitions.size).reverse 22 for (r <- bySize if r.partitioner.isDefined && r.partitioner.get.numPartitions > 0) { 23 return r.partitioner.get 24 } 25 if (rdd.context.conf.contains("spark.default.parallelism")) { 26 new HashPartitioner(rdd.context.defaultParallelism) 27 } else { 28 new HashPartitioner(bySize.head.partitions.size) 29 } 30 } 31 } 32 //

共享變量

1. 普通變量的問題:遠程機器上對變量的修改無法傳回Driver程序。當Spark以多個Task在不同Worker上并執行一個函數時,它傳遞每一個變量的副本并緩存在Worker上。

2. 分類:廣播變量、累加器。

3. 廣播變量:將只讀變量緩存在每臺Worker節點的cache,而不是每個Task發送一份副本。

1 val broadcastVar = sc.broadcast(Array(1, 2, 3)) // 初始化 2 broadcastVar.value // 獲取

4. 累加器:能夠進行“加”操作的變量,Spark原生支持Int和Double類型,可自定義新類型支持。

1 val accumulator = sc.accumulator(0) // 初始化 2 accumulator += 100 // 累加 3 accumulator.value // 獲取

RDD Operation

1. RDD?Operation分為Transformation和Action:

? ? a)?Transformation:從已存在的RDD上創建一個新的RDD,是RDD的邏輯操作,并無真正計算(lazy),而是形成DAG。

? ? b)?Action:提交一個與前一個Action之間的所有Transformation組成的Job進行計算。

2. 常用Operation羅列(后面會詳細展開各Operation的用法)

? ? a)?通用RDD?Transformation

名稱

說明

map(func)

數據集中的每條元素經過func函數轉換后形成一個新的分布式數據集

filter(func)

過濾作用,選取數據集中讓函數func返回值為true的元素,形成一個新的數據集

flatMap(func)

類似map,但每個輸入項可以被映射到0個或更多的輸出項(所以func應該返回一個Seq,而不是一個單獨項)

mapPartitions(func)

類似map,但單獨運行在RDD每個分區(塊),因此運行類型為Type?TRDD上時,func類型必須是Iterator<T>?=>?Iterator<U>

mapPartitionsWithIndex(func)

與mapPartitions相似,但也要提供func與一個代表分區的的索引整數項,因此所運行的RDD為Type?T時,func類型必須是(Int,?Iterator<T>)?=>?Iterator<U>

sample(withReplacement,?fraction)

根據給定的隨機種子seed,隨機抽樣出數量為fraction的數據(可以選擇有無替代replacement)

union(otherDataset)

返回一個由原數據集和參數聯合而成的新的數據集

intersection(otherDataset)

返回一個包含數據集交集元素的新的RDD和參數

distinct([numTasks])

返回一個數據集去重過后的新的數據集

cartesian(otherDataset)

當在數據類型為T和U的數據集上調用時,返回由(T,?U)對組成的一個數據集

pipe(command,?[envVars])

通過一個shell命令,如Perl或bash腳本,流水化各個分區的RDD。RDD元素被寫入到進程的stdin,輸出到stdout的行將會以一個RDD字符串的形式返回

coalesce(numPartitions)

將RDD分區的數目合并為numPartitions

repartition(numPartitions)

在RDD上隨機重洗數據,從而創造出更多或更少的分區以及它們之間的平衡。這個操作將重洗網絡上所有的數據

? ? b) key-value RDD Transformation

名稱

說明

groupByKey([numTasks])

當在一個由鍵值對(K,?V)組成的數據集上調用時,按照key進行分組,返回一個(K,?Iterable<V>)對的數據集。

注意

1)?如果是為了按照key聚合數據(如求和、平均值)而進行分組,使用reduceByKey或combineByKey方法性能更好

2)?默認情況下,輸出的并行程度取決于父RDD的分區數。可以通過傳遞一個可選的的numTasks參數設置不同的并行任務數

reduceByKey(func,?[numTasks])

當在一個鍵值對(K,?V)組成的數據集上調用時,按照key進行分組,使用給定func聚合values值,返回一個鍵值對(K,?V)數據集,其中func函數的類型必須是(V,?V)?=>?V。類似于groupByKey,并行任務數可通過可選的第二個參數配置

sortByKey([ascending],?[numTasks])

返回一個以key排序(升序或降序)的(K,?V)鍵值對組成的數據集,其中布爾型參數ascending決定升序還是降序,而numTasks為并行任務數

join(otherDataset,?[numTasks])

根據key連接兩個數據集,將類型為(K,?V)和(K,?W)的數據集合并成一個(K,?(V,?W))類型的數據集。外連接通過leftouterjoin和rightouterjoin,其中numTasks為并行任務數

cogroup(otherDataset,?[numTasks])

當在兩個形如(K,?V)和(K,?W)的鍵值對數據集上調用時,返回一個(K,?Iterable<V>,?Iterable<W>)形式的數據集

? ? c) 通用RDD Action

名稱

說明

reduce(func)

通過函數func聚集數據集中的所有元素,func函數接收兩個參數,返回一個值,這個函數必須滿足交換律和結合律,以確保可以被正確地并發執行

collect()

在Driver程序中,以數組形式返回數據集的所有元素到Driver程序,為防止Driver程序內存溢出,一般要控制返回的數據集大小

count()

返回數據集的元素個數

first()

返回數據集的第一個元素

take(n)

以數組形式,返回數據集上前n個元素

takeSample(withReplacement,?num,?seed)

返回一個數組,由數據集中隨機采樣的num個元素組成,可以選擇是否用隨機數替換不足的部分,seed用于指定的隨機數生成器種子

takeOrdered(n,?[ordering])

使用自然順序或自定義比較器,返回前n個RDD元素

foreach(func)

在數據集的每個元素上運行func。具有副作用,如會更新累加器變量或與外部存儲系統相互作用

? ? d) key-value RDD Action

名稱

說明

countByKey

返回形如(K,?int)的hashmap,對每個key的個數計數

RDD Operation隱式轉換

1. 隱式轉換函數為裝載不同類型的RDD提供了相應的額外方法。

2. 隱式轉換后的類包括以下幾種:

? ? a)?PairRDDFunctions:輸入的數據單元是2元元組,分別為key和value。

? ? b)?DoubleRDDFunctions:輸入的數據單元可隱式轉換為Scala的Double類型。

? ? c)?OrderedRDDFunctions:輸入的數據單元是2元元組,并且key可排序。

? ? d)?SequenceFileRDDFunctions:輸入的數據單元是2元元組。

RDD[T]分區Operation

1. coalesce

? ? a)?定義

def coalesce(numPartitions: Int, shuffle: Boolean = false)(implicit ord: Ordering[T] = null): RDD[T]

? ? 參數:

numPartitions

新分區數

shuffle

重新分區時是否shuffle

? ? b) 功能

? ??返回分區數為numPartitions的新RDD。如果增加分區數,shuffle必須為true,否則重新分區無效。

? ? c) 示例

1 val rdd = sc.parallelize(List("A", "B", "C", "D", "E"), 2) 2 rdd.partitions.size // 分區數2 3 rdd.coalesce(1).partitions.size // 分區數2→1 4 rdd.coalesce(4).partitions.size // 分區數2→4無效,仍然是2 5 rdd.coalesce(4, true).partitions.size // 分區數2→4

? ? d)?應用場景

? ? ? ? i. 大數據RDD過濾后,各分區數據量非常小,可重新分區減小分區數,把小數據量分區合并成一個分區。

? ? ? ? ii. 小數據量RDD保存到HDFS前,可重新分區減小分區數(比如1),保存成1個文件,從而減少小文件個數,也方便查看。

? ? ? ? iii. 分區數過少,導致CPU使用率過低時,可重新分區增加分區數,從而提高CPU使用率,提升性能。

2. repartition

? ? a)?定義

def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T]

? ? 參數:

numPartitions

新分區數

? ? b)?功能

? ? 從源碼可看出,repartition是coalesce?shuffle為true的版本,故不在贅述。

1 /** 2 * Return a new RDD that has exactly numPartitions partitions. 3 * 4 * Can increase or decrease the level of parallelism in this RDD. Internally, this uses 5 * a shuffle to redistribute data. 6 * 7 * If you are decreasing the number of partitions in this RDD, consider using `coalesce`, 8 * which can avoid performing a shuffle. 9 */ 10 def repartition(numPartitions: Int)(implicit ord: Ordering[T] = null): RDD[T] = withScope { 11 coalesce(numPartitions, shuffle = true) 12 }

? ? c) 示例

1 val rdd = sc.parallelize(List("A", "B", "C", "D", "E"), 2) 2 rdd.partitions.size // 分區數2 3 rdd.repartition(1).partitions.size // 分區數2→1 4 rdd.repartition(4).partitions.size // 分區數2→4

? ? d) 應用場景
? ? 與coalesce一致。

RDD[T]常用聚合Operation

1. aggregate

? ? a)?定義

def aggregate[U: ClassTag](zeroValue: U)(seqOp: (U, T) => U, combOp: (U, U) => U): U

? ? 參數:

zeroValue

執行seqOp和combOp的初始值。源碼注釋:the?initial?value?for?the?accumulated?result?of?each?partition?for?the?`seqOp`?operator,?and?also?the?initial?value?for?the?combine?results?from?different?partitions?for?the?`combOp`?operator?-?this?will?typically?be?the?neutral?element?(e.g.?`Nil`?for?list?concatenation?or?`0`?for?summation)

seqOp

聚合分區的函數。源碼注釋:an?operator?used?to?accumulate?results?within?a?partition

combOp

聚合seqOp結果的函數。源碼注釋:an?associative?operator?used?to?combine?results?from?different?partitions

? ? b)?功能

? ? 先使用seqOp將RDD中每個分區中的T類型元素聚合成U類型,再使用combOp將之前每個分區聚合后的U類型聚合成U類型,注意seqOp和combOp都會使用zeroValue作為初始值,zeroValue的類型為U。

? ? c)?示例

1 var rdd = sc.makeRDD(1 to 10, 2) 2 rdd.aggregate(2)({(x: Int, y: Int) => x + y}, {(a: Int, b: Int) => a * b}) 3 // 分區1:2 + 1 + 2 + 3 + 4 + 5 = 17, 4 // 分區2:2 + 6 + 7 + 8 + 9 + 10 = 42 5 // 最后:2 * 17 * 42 = 1428

2. reduce

? ? a) 定義

def reduce(f: (T, T) => T): T

? ? 參數:

f

合并函數,二變一

? ? b)?功能

? ? 將RDD中元素兩兩傳遞給輸入f函數,同時產生一個新的值,新產生的值與RDD中下一個元素再被傳遞給輸入函數直到最后只有一個值為止。

? ? c)?示例

1 var rdd = sc.makeRDD(1 to 10, 2) 2 rdd.reduce((x, y) => if (x > y) x else y) // 求最大值,10 3 import java.lang.Math 4 rdd.reduce((x, y) => Math.max(x, y)) // 求最大值,與上面邏輯一致 5 rdd.reduce((x, y) => x + y) // 求和,55

3. fold

? ? a) 定義

def fold(zeroValue: T)(op: (T, T) => T): T

? ? 參數:

zeroValue

op函數的初始值

op

合并函數,二變一

? ? b)?功能

? ? 以zeroValue為初始值,將RDD中元素兩兩傳遞給輸入f函數,同時產生一個新的值,新產生的值與RDD中下一個元素再被傳遞給輸入函數直到最后只有一個值為止。

? ? c)?示例

1 var rdd = sc.makeRDD(1 to 10, 2) 2 rdd.fold(100)((x, y) => if (x > y) x else y) // 求最大值,100 3 import java.lang.Math 4 rdd.reduce((x, y) => Math.max(x, y)) // 求最大值,與上面邏輯一致 5 rdd.reduce((x, y) => x + y) // 求和,155

4. 三者關系

fold比reduce多一個初始值;fold是aggregate?seqOp和combOp函數相同時的簡化版。

RDD間操作Operation

1. cartesian

? ? a)?定義

def cartesian[U: ClassTag](other: RDD[U]): RDD[(T, U)]

? ? 參數:

other

另一個RDD

? ? b)?功能

? ? 笛卡爾積。

? ? c)?示例

1 val rdd1 = sc.parallelize(List[String]("A", "B", "C", "D", "E"), 2) 2 val rdd2 = sc.parallelize(List[Int](1, 2, 3, 4, 5, 6), 2) 3 val rdd3 = rdd1 cartesian rdd2 4 rdd3.collect 5 val rdd4 = rdd2 cartesian rdd1 6 rdd4.collect

?2. unioin

? ? a) 定義

def union(other: RDD[T]): RDD[T]

? ? 參數:

other

另一個RDD

? ? b)?功能

? ? 聯合兩個RDD,注意不會去重。

? ? union實際是將父依賴RDD所有分區合并成各自分區,最終的分區與父依賴RDD分區一一對應。

? ? c)?示例

1 val rdd1 = sc.parallelize(List[String]("A", "B", "C"), 2) 2 val rdd2 = sc.parallelize(List[String]("D", "E"), 1) 3 rdd1.partitions.size // 分區數2 4 rdd2.partitions.size // 分區數1 5 val rdd3 = rdd1 union rdd2 6 rdd3.partitions.size // 分區數3 7 rdd3.collect // Array(A, B, C, C, D)

3. zip

? ? ?a) 定義

def zip[U: ClassTag](other: RDD[U]): RDD[(T, U)]

? ? 參數:

other

另一個RDD

? ? b)?功能

? ? 拉鏈操作,將兩個RDD中第i個元素組成一個元祖,形成key-value的二元組PairRDD。

? ? 注意:兩個RDD分區數必須一致,否則報錯“Can’t?zip?RDDs?with?unequal?numbers?of?partitions”;兩個RDD元素個數必須一致,否則報錯“Can?only?zip?RDDs?with?same?number?of?elements”。

? ? c)?示例

1 val rdd1 = sc.parallelize(1 to 4, 2) 2 val rdd2 = sc.parallelize("a b c d".split(" "), 2) 3 val rdd3 = rdd1 zip rdd2 4 rdd3.collect // Array((1, a), (2, b), (3, c), (4, d))

4.?zipPartitions

? ? a) 定義

def zipPartitions[B: ClassTag, V: ClassTag](rdd2: RDD[B], preservesPartitioning: Boolean)(f: (Iterator[T], Iterator[B]) => Iterator[V]): RDD[V] def zipPartitions[B: ClassTag, V: ClassTag](rdd2: RDD[B])(f: (Iterator[T], Iterator[B]) => Iterator[V]): RDD[V] def zipPartitions[B: ClassTag, C: ClassTag, V: ClassTag](rdd2: RDD[B], rdd3: RDD[C], preservesPartitioning: Boolean)(f: (Iterator[T], Iterator[B], Iterator[C]) => Iterator[V]): RDD[V] def zipPartitions[B: ClassTag, C: ClassTag, V: ClassTag](rdd2: RDD[B], rdd3: RDD[C])(f: (Iterator[T], Iterator[B], Iterator[C]) => Iterator[V]): RDD[V] def zipPartitions[B: ClassTag, C: ClassTag, D: ClassTag, V: ClassTag](rdd2: RDD[B], rdd3: RDD[C], rdd4: RDD[D], preservesPartitioning: Boolean)(f: (Iterator[T], Iterator[B], Iterator[C], Iterator[D]) => Iterator[V]): RDD[V] def zipPartitions[B: ClassTag, C: ClassTag, D: ClassTag, V: ClassTag](rdd2: RDD[B], rdd3: RDD[C], rdd4: RDD[D])(f: (Iterator[T], Iterator[B], Iterator[C], Iterator[D]) => Iterator[V]): RDD[V]

? ? 參數:

f

拉鏈操作函數

? ? b)?功能

? ? N(N=2,?3,?4)個RDD的拉鏈操作,具體操作由f函數指定。

? ? c)?示例

val rdd1 = sc.parallelize(1 to 4, 2) val rdd2 = sc.parallelize("a b c d".split(" "), 2) def zipFunc(aIter: Iterator[Int], bIter: Iterator[String]): Iterator[String] = {var list = List[String]()while (aIter.hasNext && bIter.hasNext) {val str = aIter.next + "+" + bIter.nextlist ::= str}list.iterator } val rdd3 = rdd1.zipPartitions(rdd1, rdd2)(zipFunc) rdd3.collect // Array(1+a, 2+b, 3+c, 4+d)

5.?zipWithUniqueId

? ? a) 定義

def zipWithUniqueId(): RDD[(T, Long)]

? ? b)?功能

? ? 將當前RDD元素與索引i進行拉鏈操作。

? ? c)?示例

1 val rdd = sc.parallelize("a b c d".split(" "), 2) 2 rdd.zipWithUniqueId.collect // Array((a, 0), (b, 1), (c, 2), (d, 3))

DoubleRDDFunctions常用Operation

1. histogram

? ? a)?定義

def histogram(buckets: Array[Double], evenBuckets: Boolean = false): Array[Long] def histogram(bucketCount: Int): Pair[Array[Double], Array[Long]]

? ? 參數:

buckets

分桶區間,左閉右開區間“[)”

evenBuckets

是否采用常亮時間內快速分桶方法

bucketCount

平均分桶,每桶區間

? ? b)?功能

? ? 生成柱狀圖的分桶。

? ? c)?示例

1 val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) 2 rdd.histogram(Array(0.0, 4.1, 9.0)) 3 rdd.histogram(Array(0.0, 4.1, 9.0), true) 4 rdd.histogram(3)

2. mean/meanApprox

? ? a) 定義

def mean(): Double def meanApprox(timeout: Long, confidence: Double = 0.95): PartialResult[BoundedDouble]

? ? b) 功能

? ? Mean計算平均值,meanApprox計算近似平均值。

? ? c) 示例

1 val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) 2 rdd.mean

3.?sampleStdev

? ? a) 定義

def sampleStdev(): Double

? ? b) 功能

? ? 計算樣本標準偏差(sample standard deviation)。

? ? c) 示例

1 val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) 2 rdd.sampleStdev

4.?sampleVariance

? ? a) 定義

def sampleVariance(): Double

? ? b) 功能

? ??計算樣本偏差(sample variance)。

? ? c) 示例?

val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) rdd.sampleVariance

5. stats

? ? a) 定義

def stats(): StatCounter

? ? b) 功能

? ? 返回org.apache.spark.util.StatCounter對象,包括平均值、標準偏差、最大值、最小值等。

? ? c) 示例

val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) rdd.stats

6. stdev

? ? a) 定義

def stdev(): Double

? ? b) 功能

? ??計算標準偏差(standard deviation)。?

? ? c) 示例

1 val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) 2 rdd.stdev

7. sum/sumApprox

? ? a) 定義

def sum(): Double def sumApprox(timeout: Long, confidence: Double = 0.95): PartialResult[BoundedDouble]

? ? b) 功能

? ??sum計算總和,sumApprox計算近似總和。

? ? c) 示例

1 val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) 2 rdd.sum 3 rdd.sumApprox

8.?variance

? ? a) 定義

def variance(): Double

? ? b) 功能

? ??計算方差(variance)。

? ? c) 示例

1 val rdd = sc.parallelize(List(1.1, 1.2, 2.1, 2.2, 2, 3, 4.1, 4.3, 7.1, 8.3, 9.3), 2) 2 rdd.variance

PairRDDFunctions聚合Operation

1. aggregateByKey

? ? a)?定義

def aggregateByKey[U: ClassTag](zeroValue: U)(seqOp: (U, V) => U, combOp: (U, U) => U): RDD[(K, U)] def aggregateByKey[U: ClassTag](zeroValue: U, numPartitions: Int)(seqOp: (U, V) => U, combOp: (U, U) => U): RDD[(K, U)] def aggregateByKey[U: ClassTag](zeroValue: U, partitioner: Partitioner)(seqOp: (U, V) => U, combOp: (U, U) => U): RDD[(K, U)]

? ? 參數:

zeroValue

參考aggregate

seqOp

參考aggregate

combOp

參考aggregate

numPartitions

分區數,使用new?HashPartitioner(numPartitions)分區器

partitioner

指定自定義分區器

? ? b) 功能

? ??aggregateByKey與aggregate功能類似,區別在于前者僅對key相同的聚合。

? ? c) 示例

1 val rdd = sc.parallelize(List((1, 3), (1, 2), (1, 4), (2, 3))) // Array((1,9), (2,3)) 2 import java.lang.Math 3 rdd.aggregateByKey(1)({(x: Int, y: Int) => Math.max(x, y)}, {(a: Int, b: Int) => a + b}).collect

2.?combineByKey

? ? a) 定義

def combineByKey[C](createCombiner: V => C, mergeValue: (C, V) => C, mergeCombiners: (C, C) => C): RDD[(K, C)] def combineByKey[C](createCombiner: V => C, mergeValue: (C, V) => C, mergeCombiners: (C, C) => C, numPartitions: Int): RDD[(K, C)] def combineByKey[C](createCombiner: V => C, mergeValue: (C, V) => C, mergeCombiners: (C, C) => C, partitioner: Partitioner, mapSideCombine: Boolean = true, serializer: Serializer = null): RDD[(K, C)]

? ? 參數:

createCombiner

組合器函數,用于將V類型轉換成C類型,輸入參數為RDD[K,V]中的V,輸出為C

mergeValue

合并值函數,將一個C類型和一個V類型值合并成一個C類型,輸入參數為(C,V),輸出為C

mergeCombiners

合并組合器函數,用于將兩個C類型值合并成一個C類型,輸入參數為(C,C),輸出為C

mapSideCombine

是否需要在Map端進行combine操作,類似于MapReduce中的combine,默認為true

? ? b) 功能

? ??將RDD[(K,V)]combine為RDD[(K,C)]。非常重要,aggregateByKey、foldByKey、reduceByKey等函數都基于它實現。

? ? c) 示例

1 val rdd = sc.parallelize(List((1, "www"), (1, "iteblog"), (1, "com"), (2, "bbs"), (2, "iteblog"), (2, "com"), (3, "good"))) 2 rdd.combineByKey(List(_), (x: List[String], y: String) => y :: x, (x: List[String], y: List[String]) => x ::: y).collect // Array((1, List(www, iteblog, com)), (2, List(bbs, iteblog, com)), (3, List(good))) 1 val rdd = sc.parallelize(List(("iteblog", 1), ("bbs", 1), ("iteblog", 3))) 2 rdd.combineByKey(x => x, (x: Int, y: Int) => x + y, (x: Int, y: Int) => x + y).collect // Array((iteblog, 4), (bbs, 1))

? ? d) 應用場景

? ??combineByKey將大數據的處理轉為對小數據量的分區級別處理,然后合并各分區處理后再次進 行聚合,提升了對大數據量的處理性能。

3. foldByKey

? ? a) 定義

def foldByKey(zeroValue: V)(func: (V, V) => V): RDD[(K, V)] def foldByKey(zeroValue: V, numPartitions: Int)(func: (V, V) => V): RDD[(K, V)] def foldByKey(zeroValue: V, partitioner: Partitioner)(func: (V, V) => V): RDD[(K, V)]

? ? 參數:

zeroValue

func函數的初始值

func

合并函數,二變一

? ? b) 功能

? ??foldByKey與fold功能類似,區別在于前者僅對key相同的聚合。

? ? c) 示例

1 var rdd = sc.makeRDD(Array(("A",0),("A",2),("B",1),("B",2),("C",1))) 2 rdd.foldByKey(0)(_+_).collect // Array((A,2), (B,3), (C,1)) 3 rdd.foldByKey(2)(_+_).collect // Array((A,6), (B,7), (C,3))

4. reduceByKey

? ? a) 定義

def reduceByKey(func: (V, V) => V): RDD[(K, V)] def reduceByKey(func: (V, V) => V, numPartitions: Int): RDD[(K, V)] def reduceByKey(partitioner: Partitioner, func: (V, V) => V): RDD[(K, V)]

? ? 參數:

func

合并函數,二變一

? ? b) 功能

? ? reduceByKey與reduce功能類似,區別在于前者僅對key相同的聚合。

? ? c) 示例

1 var rdd = sc.makeRDD(Array(("A",0),("A",2),("B",1),("B",2),("C",1))) 2 rdd.reduceByKey(_+_).collect // Array((A,2), (B,3), (C,1))

PairRDDFunctions間操作Operation

1. join族

? ? a)?定義

def join[W](other: RDD[(K, W)]): RDD[(K, (V, W))] def join[W](other: RDD[(K, W)], numPartitions: Int): RDD[(K, (V, W))] def join[W](other: RDD[(K, W)], partitioner: Partitioner): RDD[(K, (V, W))] def leftOuterJoin[W](other: RDD[(K, W)]): RDD[(K, (V, Option[W]))] def leftOuterJoin[W](other: RDD[(K, W)], numPartitions: Int): RDD[(K, (V, Option[W]))] def leftOuterJoin[W](other: RDD[(K, W)], partitioner: Partitioner): RDD[(K, (V, Option[W]))] def rightOuterJoin[W](other: RDD[(K, W)]): RDD[(K, (Option[V], W))] def rightOuterJoin[W](other: RDD[(K, W)], numPartitions: Int): RDD[(K, (Option[V], W))] def rightOuterJoin[W](other: RDD[(K, W)], partitioner: Partitioner): RDD[(K, (Option[V], W))] def fullOuterJoin[W](other: RDD[(K, W)]): RDD[(K, (Option[V], Option[W]))] def fullOuterJoin[W](other: RDD[(K, W)], numPartitions: Int): RDD[(K, (Option[V], Option[W]))] def fullOuterJoin[W](other: RDD[(K, W)], partitioner: Partitioner): RDD[(K, (Option[V], Option[W]))]

? ? 參數:

other

另一個RDD

? ? b) 功能

? ??兩個RDD連接操作。

? ? c) 示例

1 val rdd1 = sc.parallelize(List(("Tom", 21), ("Jerry", 31), ("Mary", 23))) 2 val rdd2 = sc.parallelize(List(("Tom", 'm'), ("Mary", 'f'), ("Henry", 'm'))) 3 val rdd3 = rdd1 join rdd2 4 rdd3.collect // Array((Mary, (23, f)), (Tom, (21, m)))

OrderedRDDFunctions常用Operation

1. sortByKey

? ? a)?定義

def sortByKey(ascending: Boolean = true, numPartitions: Int = self.partitions.length): RDD[(K, V)]

? ? 參數:

ascending

是否正序

numPartitions

新分區數,默認為原分區數

? ? b) 功能

? ??返回按key排序的新RDD。

? ? c) 示例

1 val rdd1 = sc.parallelize(List((3, "a"), (7, "b"), (5, "c"), (3, "b"), (6, "c"), (9, "d")), 3) 2 val rdd2 = rdd1.sortByKey 3 rdd2.collect // Array((3, a), (3, b), (5, c), (6, c), (7, b), (9, d)) 4 rdd2.partitions.size // 分區數3 5 val rdd3 = rdd1.sortByKey(true, 2) 6 rdd3.collect 7 rdd3.partitions.size // 分區數2

2.?repartitionAndSortWithinPartitions

? ? a) 定義

def repartitionAndSortWithinPartitions(partitioner: Partitioner): RDD[(K, V)]

? ? 參數:

partitioner

分區器

? ? b) 功能

? ? 返回使用分區器partitioner重新分區并且對各分區按key排序的新RDD。

? ? c) 示例

1 val rdd1 = sc.parallelize(List((3, "a"), (7, "b"), (5, "c"), (3, "b"), (6, "c"), (9, "d")), 3) 2 import org.apache.spark.HashPartitioner 3 val rdd2 = rdd1.repartitionAndSortWithinPartitions(new HashPartitioner(2)) // HashPartitioner(2)以key對分區數取模分區,所以奇數、偶數分到兩個分區。 4 rdd2.collect // Array((6, c), (3, a), (3, b), (5, c), (7, b), (9, d)) 5 rdd1.partitions.size // 分區數3 6 rdd2.partitions.size // 分區數2

案例:移動終端上網數據分析

數據準備

1. 數據結構:移動終端上網訪問記錄

字段

說明

nodeid

基站ID

ci

小區標識(cell?identity)

imei

國際移動設備標識碼(IMEI)

app

應用名稱

time

訪問時間

uplinkbytes

上行字節數

downlinkbytes

下行字節數

2. 測試數據

1,1,460028714280218,360,2015-05-01,7,1116 1,2,460028714280219,qq,2015-05-02,8,121 1,3,460028714280220,yy,2015-05-03,9,122 1,4,460028714280221,360,2015-05-04,10,119 2,1,460028714280222,yy,2015-05-05,5,1119 2,2,460028714280223,360,2015-05-01,12,121 2,3,460028714280224,qq,2015-05-02,13,122 3,1,460028714280225,qq,2015-05-03,1,1117 3,2,460028714280226,qq,2015-05-04,9,1118 3,3,460028714280227,qq,2015-05-05,10,120 1,1,460028714280218,360,2015-06-01,7,1118 1,2,460028714280219,qq,2015-06-02,8,1119 1,3,460028714280220,yy,2015-06-03,9,1120 1,4,460028714280221,360,2015-06-04,10,119 2,1,460028714280222,yy,2015-06-05,11,1118 2,2,460028714280223,360,2015-06-02,4,121 2,3,460028714280224,qq,2015-06-03,17,1119 3,1,460028714280225,qq,2015-06-04,18,119 3,2,460028714280226,qq,2015-06-05,19,1119 3,3,460028714280227,qq,2015-06-10,120,121

3. 上傳數據文件至HDFS

hadoop fs -put mobile.csv /test/

加載&預處理

預處理,如無效數據過濾等。

1 val fields = sc.broadcast(List("nodeid", "ci", "imei", "app", "time", "uplinkbytes", "downlinkbytes")) 2 val mobile = sc.textFile("/test/mobile.csv").map(_.split(",")).filter(line => line.length != fields.value.length)

統計App訪問次數

1 mobile.map(line => (line(fields.value.indexOf("app")), 1)).reduceByKey(_+_).map(appCount => (appCount._2, appCount._1)).sortByKey(false).map(appCount => (appCount._1, appCount._2)).repartition(1).saveAsTextFile("/text/result.csv") // Array((qq, 10), (360, 6), (yy, 4))

統計DAU

1 mobile.map(line => line(fields.value.indexOf("imei")) + ":" + line(fields.value.indexOf("time"))).distinct().map(imeiTime => (imeiTime.split(":")(1), 1)).reduceByKey(_+_).sortByKey().collect // Array((2015-05-01, 2), (2015-05-02, 2), (2015-05-03, 2), (2015-05-04, 2), (2015-05-05, 2), (2015-06-01, 2), (2015-06-03, 2), (2015-06-04, 2), (2015-06-05, 2), (2015-06-10, 1))

統計MAU

1 mobile.map { line => 2 val time = line(fields.value.indexOf("time")) 3 val month = time.substring(0, time.lastIndexOf("-")) 4 line(fields.value.indexOf("imei")) + ":" + month 5 }.distinct.map { imeiMonth => (imeiMonth.split(":")(1), 1) }.reduceByKey(_+_).sortByKey().collect // Array((2015-05, 10), (2015-06, 10))

統計App上下流量

1 mobile.map { line => 2 val uplinkbytes = line(fields.value.indexOf("uplinkbytes")) 3 val downlinkbytes = line(fields.value.indexOf("downlinkbytes")) 4 (line(fields.value.indexOf("app")), (uplinkbytes, downlinkbytes)) 5 }.reduceByKey((updownlinkbytes1, updownlinkbytes2) => (updownlinkbytes1._1 + updownlinkbytes2._1, updownlinkbytes1._2 + updownlinkbytes2._2)).collect // Array((yy, (34.0, 3479.0)), (qq, (117.0, 6195.0)), (360, (54.0, 2714.0)))

?

作者:netoxi
出處:http://www.cnblogs.com/netoxi
本文版權歸作者和博客園共有,歡迎轉載,未經同意須保留此段聲明,且在文章頁面明顯位置給出原文連接。歡迎指正與交流。

?

?

?

?

posted on 2017-08-02 08:59 netoxi 閱讀(...) 評論(...) 編輯 收藏

轉載于:https://www.cnblogs.com/netoxi/p/7223412.html

總結

以上是生活随笔為你收集整理的Spark笔记——技术点汇总的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

青草视频在线播放 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲中文字幕无码中字 | 久久国语露脸国产精品电影 | 国模大胆一区二区三区 | 国产真实伦对白全集 | 麻豆成人精品国产免费 | 激情内射日本一区二区三区 | 国产熟妇高潮叫床视频播放 | 好男人www社区 | 亚洲精品一区三区三区在线观看 | 欧美丰满熟妇xxxx | 无码av最新清无码专区吞精 | 国产精品a成v人在线播放 | 国产精品亚洲а∨无码播放麻豆 | 波多野结衣一区二区三区av免费 | 日本www一道久久久免费榴莲 | 2020最新国产自产精品 | 一区二区传媒有限公司 | 久久久中文字幕日本无吗 | 18无码粉嫩小泬无套在线观看 | 亚洲 欧美 激情 小说 另类 | 人人超人人超碰超国产 | 曰本女人与公拘交酡免费视频 | 亚洲国产欧美日韩精品一区二区三区 | 久久综合给久久狠狠97色 | 中文字幕无码日韩欧毛 | 免费看少妇作爱视频 | 色综合久久中文娱乐网 | 国产精品a成v人在线播放 | 亚拍精品一区二区三区探花 | 成年美女黄网站色大免费全看 | 亚洲精品中文字幕 | 亚洲gv猛男gv无码男同 | 未满小14洗澡无码视频网站 | 97无码免费人妻超级碰碰夜夜 | 亚洲精品鲁一鲁一区二区三区 | 野外少妇愉情中文字幕 | 老熟妇乱子伦牲交视频 | 人妻少妇精品视频专区 | 精品人妻av区 | 日韩精品无码一区二区中文字幕 | 亚洲呦女专区 | 亚洲区欧美区综合区自拍区 | 亚洲国精产品一二二线 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 老头边吃奶边弄进去呻吟 | 又湿又紧又大又爽a视频国产 | 国产又爽又猛又粗的视频a片 | 丰满妇女强制高潮18xxxx | 精品偷自拍另类在线观看 | 在线a亚洲视频播放在线观看 | 奇米影视7777久久精品 | 成人试看120秒体验区 | 日本精品久久久久中文字幕 | 久久久久久久久蜜桃 | 免费网站看v片在线18禁无码 | 骚片av蜜桃精品一区 | 牲欲强的熟妇农村老妇女 | 免费无码的av片在线观看 | 久久久久成人片免费观看蜜芽 | 亚洲精品国产精品乱码视色 | 精品国产青草久久久久福利 | 丰满肥臀大屁股熟妇激情视频 | 人人妻人人澡人人爽人人精品 | 国产xxx69麻豆国语对白 | 天堂一区人妻无码 | 无码人妻少妇伦在线电影 | 一本无码人妻在中文字幕免费 | 国产成人综合美国十次 | 国产亚洲精品久久久久久久久动漫 | 无码乱肉视频免费大全合集 | 国产绳艺sm调教室论坛 | 精品水蜜桃久久久久久久 | 欧美老妇与禽交 | 给我免费的视频在线观看 | 色狠狠av一区二区三区 | 九九久久精品国产免费看小说 | 久久综合给合久久狠狠狠97色 | 国产69精品久久久久app下载 | 亚洲精品一区国产 | 亚洲综合精品香蕉久久网 | 亚洲成a人片在线观看日本 | 国产av人人夜夜澡人人爽麻豆 | 高潮毛片无遮挡高清免费视频 | 中文字幕无码免费久久99 | 精品成人av一区二区三区 | 久久久精品成人免费观看 | 人妻人人添人妻人人爱 | 国产suv精品一区二区五 | 乱人伦中文视频在线观看 | 成人无码影片精品久久久 | 精品 日韩 国产 欧美 视频 | 日本精品人妻无码77777 天堂一区人妻无码 | 无码一区二区三区在线观看 | 亚洲色大成网站www国产 | 精品无码成人片一区二区98 | 亚洲第一无码av无码专区 | 国内精品一区二区三区不卡 | av人摸人人人澡人人超碰下载 | 久久久久av无码免费网 | 97久久超碰中文字幕 | 久久国产36精品色熟妇 | 人妻插b视频一区二区三区 | 国产精品高潮呻吟av久久 | 丝袜 中出 制服 人妻 美腿 | 久久久精品成人免费观看 | 亚洲国产精华液网站w | 日韩精品一区二区av在线 | 丰满少妇弄高潮了www | 国产肉丝袜在线观看 | 国产精品久久久久影院嫩草 | 奇米影视7777久久精品 | 正在播放东北夫妻内射 | 九月婷婷人人澡人人添人人爽 | 欧洲极品少妇 | 4hu四虎永久在线观看 | 国产免费无码一区二区视频 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 中文精品无码中文字幕无码专区 | 国产肉丝袜在线观看 | 沈阳熟女露脸对白视频 | 超碰97人人做人人爱少妇 | 亚洲自偷自偷在线制服 | 精品国产青草久久久久福利 | 日本护士毛茸茸高潮 | 老司机亚洲精品影院无码 | 国产又粗又硬又大爽黄老大爷视 | 久久综合给合久久狠狠狠97色 | 无码人妻出轨黑人中文字幕 | 久久久婷婷五月亚洲97号色 | 国产亚洲美女精品久久久2020 | 正在播放老肥熟妇露脸 | 亚洲 欧美 激情 小说 另类 | 亚洲欧洲日本无在线码 | 国产情侣作爱视频免费观看 | av人摸人人人澡人人超碰下载 | 无遮无挡爽爽免费视频 | 性欧美videos高清精品 | 东京热无码av男人的天堂 | 一二三四在线观看免费视频 | 亚洲一区av无码专区在线观看 | 国产成人无码专区 | 免费男性肉肉影院 | 色情久久久av熟女人妻网站 | 国产极品视觉盛宴 | 国产欧美精品一区二区三区 | 久久国产36精品色熟妇 | 玩弄少妇高潮ⅹxxxyw | 国产精品久久久久久无码 | 午夜精品一区二区三区在线观看 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲国产av精品一区二区蜜芽 | 精品偷自拍另类在线观看 | 国产亚洲欧美日韩亚洲中文色 | 97se亚洲精品一区 | 伊人久久婷婷五月综合97色 | 玩弄中年熟妇正在播放 | 国产免费久久久久久无码 | 日日碰狠狠丁香久燥 | 亚洲欧美日韩国产精品一区二区 | 四十如虎的丰满熟妇啪啪 | 亚洲色大成网站www | 色妞www精品免费视频 | 亚洲国产高清在线观看视频 | 久久99精品国产.久久久久 | 俄罗斯老熟妇色xxxx | 亚洲精品综合五月久久小说 | 国产人妻精品午夜福利免费 | 十八禁视频网站在线观看 | 国产香蕉尹人视频在线 | 午夜肉伦伦影院 | 国内揄拍国内精品少妇国语 | 国产精品亚洲综合色区韩国 | 2020最新国产自产精品 | 美女黄网站人色视频免费国产 | 欧美 日韩 人妻 高清 中文 | 亚洲成a人一区二区三区 | 久久久精品456亚洲影院 | 国内综合精品午夜久久资源 | 香蕉久久久久久av成人 | 亚洲 高清 成人 动漫 | 男人扒开女人内裤强吻桶进去 | 在线看片无码永久免费视频 | 任你躁在线精品免费 | 日日橹狠狠爱欧美视频 | 久久婷婷五月综合色国产香蕉 | 久久久久久亚洲精品a片成人 | 亚洲 激情 小说 另类 欧美 | 亚洲成av人片天堂网无码】 | 人妻aⅴ无码一区二区三区 | 国产成人无码av片在线观看不卡 | 中文字幕无码av激情不卡 | 亚洲国产精品美女久久久久 | 99精品无人区乱码1区2区3区 | 伊人色综合久久天天小片 | 国产免费久久精品国产传媒 | 久久午夜夜伦鲁鲁片无码免费 | 欧美老妇与禽交 | 亚洲乱码国产乱码精品精 | 亚洲日韩av片在线观看 | 国产熟妇另类久久久久 | 色婷婷久久一区二区三区麻豆 | 亚洲第一网站男人都懂 | 中文字幕无码日韩欧毛 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产午夜视频在线观看 | 无码国产色欲xxxxx视频 | 日韩少妇内射免费播放 | 娇妻被黑人粗大高潮白浆 | 欧美老熟妇乱xxxxx | 久久精品99久久香蕉国产色戒 | 少妇性荡欲午夜性开放视频剧场 | 亚洲欧洲日本无在线码 | 色婷婷欧美在线播放内射 | 精品欧洲av无码一区二区三区 | 初尝人妻少妇中文字幕 | 亚洲熟妇色xxxxx欧美老妇y | 性色欲网站人妻丰满中文久久不卡 | 日本大乳高潮视频在线观看 | 亚洲第一无码av无码专区 | 中国女人内谢69xxxxxa片 | 国产偷国产偷精品高清尤物 | www一区二区www免费 | 一本大道伊人av久久综合 | 国产亚洲精品久久久久久久久动漫 | 日日天日日夜日日摸 | 香港三级日本三级妇三级 | 日韩欧美群交p片內射中文 | 精品久久久无码人妻字幂 | 久久久久久久久蜜桃 | 亚洲精品一区国产 | 一个人看的视频www在线 | 午夜精品久久久内射近拍高清 | 国产av久久久久精东av | 亚洲自偷自偷在线制服 | 对白脏话肉麻粗话av | 亚洲成在人网站无码天堂 | 人人澡人人透人人爽 | 欧美成人午夜精品久久久 | 中文字幕乱码亚洲无线三区 | 一个人免费观看的www视频 | 131美女爱做视频 | 国产在线无码精品电影网 | 亚洲天堂2017无码 | 国产精品久久久久久亚洲毛片 | 亚洲成av人影院在线观看 | 中文字幕乱码人妻无码久久 | 夜精品a片一区二区三区无码白浆 | 美女极度色诱视频国产 | 亚洲欧美精品伊人久久 | 超碰97人人做人人爱少妇 | 国产精品亚洲一区二区三区喷水 | 日韩亚洲欧美精品综合 | 色诱久久久久综合网ywww | 欧美人与禽猛交狂配 | 国产小呦泬泬99精品 | www成人国产高清内射 | 欧美性猛交内射兽交老熟妇 | 5858s亚洲色大成网站www | 人妻夜夜爽天天爽三区 | 鲁大师影院在线观看 | 粉嫩少妇内射浓精videos | 国产在线精品一区二区三区直播 | 真人与拘做受免费视频一 | 亚洲欧美中文字幕5发布 | 人妻无码久久精品人妻 | 欧美性生交活xxxxxdddd | 好男人社区资源 | 日本一区二区更新不卡 | 97夜夜澡人人双人人人喊 | 捆绑白丝粉色jk震动捧喷白浆 | 一本无码人妻在中文字幕免费 | 性色欲网站人妻丰满中文久久不卡 | 天堂久久天堂av色综合 | 国产莉萝无码av在线播放 | 精品无码一区二区三区的天堂 | 欧美老妇与禽交 | 国产成人无码专区 | www成人国产高清内射 | 最新国产乱人伦偷精品免费网站 | 亚洲午夜福利在线观看 | 午夜免费福利小电影 | 精品久久久无码中文字幕 | 国内精品人妻无码久久久影院 | 欧美性黑人极品hd | 亚洲综合伊人久久大杳蕉 | 无码毛片视频一区二区本码 | 东京一本一道一二三区 | 又粗又大又硬毛片免费看 | 亚洲国产精品一区二区美利坚 | 老子影院午夜精品无码 | 国产真人无遮挡作爱免费视频 | 国产偷抇久久精品a片69 | 青青青手机频在线观看 | 日韩人妻无码中文字幕视频 | 无码人妻丰满熟妇区毛片18 | 天海翼激烈高潮到腰振不止 | 强奷人妻日本中文字幕 | 欧美 亚洲 国产 另类 | 中文字幕无码免费久久99 | 亚洲综合伊人久久大杳蕉 | 欧美精品无码一区二区三区 | 性开放的女人aaa片 | 国产亚洲欧美日韩亚洲中文色 | av香港经典三级级 在线 | 国产疯狂伦交大片 | 国产精品美女久久久 | 亚洲精品一区二区三区在线 | 精品国产青草久久久久福利 | 午夜免费福利小电影 | 欧美人与禽zoz0性伦交 | 精品少妇爆乳无码av无码专区 | 一本无码人妻在中文字幕免费 | 亚洲小说图区综合在线 | 四虎国产精品一区二区 | 少妇愉情理伦片bd | 牲欲强的熟妇农村老妇女视频 | 日韩少妇内射免费播放 | 色综合久久久无码网中文 | 少妇人妻偷人精品无码视频 | 麻豆md0077饥渴少妇 | 一个人免费观看的www视频 | 亚洲精品国偷拍自产在线麻豆 | 中文无码伦av中文字幕 | 国产精品第一国产精品 | 中文字幕无线码免费人妻 | 亚洲乱亚洲乱妇50p | 日本免费一区二区三区最新 | 精品久久久无码中文字幕 | 牛和人交xxxx欧美 | 东京热无码av男人的天堂 | 亚洲 a v无 码免 费 成 人 a v | 国产精华av午夜在线观看 | 人人妻人人澡人人爽欧美一区 | 一二三四在线观看免费视频 | 狠狠色丁香久久婷婷综合五月 | 亚洲自偷自偷在线制服 | 在线看片无码永久免费视频 | 免费观看激色视频网站 | 99视频精品全部免费免费观看 | 人人妻人人澡人人爽欧美一区 | 亚洲无人区午夜福利码高清完整版 | 帮老师解开蕾丝奶罩吸乳网站 | 在线欧美精品一区二区三区 | 国产九九九九九九九a片 | 在线 国产 欧美 亚洲 天堂 | 国产 浪潮av性色四虎 | 成人无码影片精品久久久 | 日本爽爽爽爽爽爽在线观看免 | 亚洲综合久久一区二区 | 久久精品国产大片免费观看 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产亚洲精品久久久久久国模美 | 999久久久国产精品消防器材 | 国产在线aaa片一区二区99 | 久久精品中文字幕大胸 | 久久久久久久女国产乱让韩 | 久久综合九色综合97网 | 亚洲成色在线综合网站 | 国产人妻久久精品二区三区老狼 | 又紧又大又爽精品一区二区 | 99久久亚洲精品无码毛片 | 少妇被黑人到高潮喷出白浆 | 国产真实乱对白精彩久久 | 亚洲成色在线综合网站 | 国产一区二区三区精品视频 | 日本欧美一区二区三区乱码 | 在线播放亚洲第一字幕 | 亚洲一区二区三区在线观看网站 | 国产精品无码久久av | 国产av久久久久精东av | 国产成人精品三级麻豆 | 男女作爱免费网站 | 亚洲成av人影院在线观看 | 又大又紧又粉嫩18p少妇 | 久久精品人妻少妇一区二区三区 | 久久综合狠狠综合久久综合88 | av无码久久久久不卡免费网站 | 久久亚洲精品成人无码 | 国产亚洲精品久久久久久久久动漫 | 亚洲 a v无 码免 费 成 人 a v | 亚洲成a人一区二区三区 | 内射巨臀欧美在线视频 | 最近中文2019字幕第二页 | 婷婷五月综合激情中文字幕 | 成人毛片一区二区 | aⅴ在线视频男人的天堂 | 国产av一区二区精品久久凹凸 | 国产在线无码精品电影网 | 97资源共享在线视频 | 亚洲一区av无码专区在线观看 | 98国产精品综合一区二区三区 | 蜜桃视频韩日免费播放 | 国产麻豆精品一区二区三区v视界 | 亚洲无人区午夜福利码高清完整版 | 日韩视频 中文字幕 视频一区 | 亚洲日本va中文字幕 | 色婷婷欧美在线播放内射 | 精品国产一区av天美传媒 | 色综合久久久久综合一本到桃花网 | 18无码粉嫩小泬无套在线观看 | 亚洲成av人片在线观看无码不卡 | 国内揄拍国内精品人妻 | 99精品视频在线观看免费 | 中文字幕av伊人av无码av | 55夜色66夜色国产精品视频 | 亚洲自偷自偷在线制服 | 蜜桃视频插满18在线观看 | 人妻与老人中文字幕 | 久久综合狠狠综合久久综合88 | 中文字幕人妻无码一夲道 | 色一情一乱一伦一区二区三欧美 | 亚洲性无码av中文字幕 | 亚洲中文字幕成人无码 | 日韩欧美群交p片內射中文 | 一本色道婷婷久久欧美 | 18黄暴禁片在线观看 | 国产午夜无码精品免费看 | 日韩精品成人一区二区三区 | 99麻豆久久久国产精品免费 | 日韩av无码一区二区三区 | 国产成人一区二区三区在线观看 | 一个人看的www免费视频在线观看 | 国产成人精品久久亚洲高清不卡 | 亚洲国产精品美女久久久久 | 国产农村乱对白刺激视频 | 国产精品无码久久av | 日本xxxx色视频在线观看免费 | 撕开奶罩揉吮奶头视频 | 日韩精品无码一本二本三本色 | 国产精品美女久久久网av | 人人妻人人藻人人爽欧美一区 | 未满小14洗澡无码视频网站 | 男女爱爱好爽视频免费看 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲色偷偷偷综合网 | 少妇愉情理伦片bd | 牲欲强的熟妇农村老妇女 | 人妻少妇精品视频专区 | 成人一在线视频日韩国产 | 欧美第一黄网免费网站 | 亚洲区欧美区综合区自拍区 | 少妇的肉体aa片免费 | 一本大道伊人av久久综合 | 国产成人精品久久亚洲高清不卡 | 亚洲乱码日产精品bd | 老熟女重囗味hdxx69 | 玩弄人妻少妇500系列视频 | 狠狠色噜噜狠狠狠狠7777米奇 | 丰满人妻翻云覆雨呻吟视频 | 99视频精品全部免费免费观看 | 久久精品国产一区二区三区 | 亚洲精品久久久久久久久久久 | 蜜桃av抽搐高潮一区二区 | 国产激情艳情在线看视频 | 国产人妻人伦精品1国产丝袜 | 强开小婷嫩苞又嫩又紧视频 | 日韩欧美群交p片內射中文 | 午夜性刺激在线视频免费 | 亚洲人成网站免费播放 | 亚洲s色大片在线观看 | 青青青手机频在线观看 | 色综合久久久无码中文字幕 | 国产猛烈高潮尖叫视频免费 | 天堂亚洲免费视频 | 荫蒂被男人添的好舒服爽免费视频 | 一本久久a久久精品vr综合 | 免费人成在线视频无码 | 亚洲欧美综合区丁香五月小说 | 精品少妇爆乳无码av无码专区 | 一本一道久久综合久久 | 国产亚洲精品久久久久久久久动漫 | 国产综合在线观看 | 久久久精品成人免费观看 | 中文字幕亚洲情99在线 | 18禁止看的免费污网站 | 国产女主播喷水视频在线观看 | 波多野结衣aⅴ在线 | 窝窝午夜理论片影院 | 性色av无码免费一区二区三区 | 中文字幕乱码亚洲无线三区 | 久久国产精品萌白酱免费 | 国产精品-区区久久久狼 | 精品无码国产自产拍在线观看蜜 | 日韩欧美中文字幕在线三区 | 午夜不卡av免费 一本久久a久久精品vr综合 | 性色av无码免费一区二区三区 | 亚洲理论电影在线观看 | 亚洲精品欧美二区三区中文字幕 | 亚洲日韩av一区二区三区中文 | 日本饥渴人妻欲求不满 | 无码一区二区三区在线观看 | 亚洲伊人久久精品影院 | 久久久久se色偷偷亚洲精品av | 无码午夜成人1000部免费视频 | 性啪啪chinese东北女人 | 国产9 9在线 | 中文 | 国产人妻人伦精品 | 欧美三级a做爰在线观看 | 亚拍精品一区二区三区探花 | 中文字幕无码av波多野吉衣 | 人人爽人人澡人人高潮 | 国产婷婷色一区二区三区在线 | 国精产品一品二品国精品69xx | 欧美国产亚洲日韩在线二区 | 成人欧美一区二区三区黑人免费 | 亚洲精品中文字幕久久久久 | 在线欧美精品一区二区三区 | 性啪啪chinese东北女人 | 国产精品爱久久久久久久 | www国产亚洲精品久久久日本 | 久久综合网欧美色妞网 | 天天爽夜夜爽夜夜爽 | 亚洲 a v无 码免 费 成 人 a v | 奇米影视7777久久精品人人爽 | 三级4级全黄60分钟 | 高潮毛片无遮挡高清免费视频 | 九九热爱视频精品 | 无码人妻丰满熟妇区毛片18 | 国产亚洲精品久久久久久久 | 日本精品人妻无码77777 天堂一区人妻无码 | 国产亚洲精品久久久久久国模美 | 欧美精品在线观看 | 双乳奶水饱满少妇呻吟 | 日本www一道久久久免费榴莲 | 日本精品少妇一区二区三区 | 久久久精品欧美一区二区免费 | 少妇性荡欲午夜性开放视频剧场 | 免费人成网站视频在线观看 | 红桃av一区二区三区在线无码av | 国产精品久久久久无码av色戒 | 狂野欧美激情性xxxx | √天堂中文官网8在线 | 狠狠色噜噜狠狠狠狠7777米奇 | 精品国产一区二区三区四区 | 亚洲成av人在线观看网址 | 欧美三级a做爰在线观看 | 国模大胆一区二区三区 | 亚洲s码欧洲m码国产av | 俺去俺来也在线www色官网 | 亚洲爆乳无码专区 | 宝宝好涨水快流出来免费视频 | 久久久精品成人免费观看 | 乱人伦中文视频在线观看 | 在线天堂新版最新版在线8 | 狂野欧美性猛交免费视频 | 国内揄拍国内精品人妻 | 亚洲精品一区二区三区在线 | 人妻少妇精品无码专区动漫 | 在线观看欧美一区二区三区 | 乌克兰少妇性做爰 | 成人欧美一区二区三区黑人免费 | 特级做a爰片毛片免费69 | 日韩人妻无码一区二区三区久久99 | 亚洲乱码日产精品bd | 人人爽人人爽人人片av亚洲 | 人妻少妇精品久久 | 国产真实伦对白全集 | 日本高清一区免费中文视频 | 久久无码人妻影院 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 欧美熟妇另类久久久久久多毛 | 老太婆性杂交欧美肥老太 | 国产午夜精品一区二区三区嫩草 | 国产人妻久久精品二区三区老狼 | 无码国产激情在线观看 | 亚洲 另类 在线 欧美 制服 | 国产网红无码精品视频 | 午夜性刺激在线视频免费 | 欧美 亚洲 国产 另类 | 欧美黑人乱大交 | 欧美日本精品一区二区三区 | 蜜桃视频插满18在线观看 | 永久免费精品精品永久-夜色 | 久久久久久a亚洲欧洲av冫 | 国产明星裸体无码xxxx视频 | 欧美大屁股xxxxhd黑色 | 精品国产av色一区二区深夜久久 | 沈阳熟女露脸对白视频 | 国产av一区二区精品久久凹凸 | 国产精品-区区久久久狼 | 免费人成在线视频无码 | 亚洲爆乳大丰满无码专区 | 久久精品人妻少妇一区二区三区 | 任你躁在线精品免费 | 成人精品视频一区二区三区尤物 | 黑人玩弄人妻中文在线 | 久久精品人人做人人综合试看 | 鲁鲁鲁爽爽爽在线视频观看 | 亚拍精品一区二区三区探花 | 国产猛烈高潮尖叫视频免费 | 思思久久99热只有频精品66 | 欧美激情内射喷水高潮 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 亚洲中文无码av永久不收费 | 乱码午夜-极国产极内射 | 日本一区二区三区免费高清 | 亚洲日韩精品欧美一区二区 | 人妻尝试又大又粗久久 | 中文字幕精品av一区二区五区 | 欧美老妇与禽交 | 亚洲精品综合五月久久小说 | 亚洲 欧美 激情 小说 另类 | 日韩精品无码一本二本三本色 | 377p欧洲日本亚洲大胆 | 又色又爽又黄的美女裸体网站 | 国产精品毛片一区二区 | 亚洲精品成人av在线 | 亚洲爆乳精品无码一区二区三区 | 男女猛烈xx00免费视频试看 | 51国偷自产一区二区三区 | 最新版天堂资源中文官网 | 午夜精品久久久久久久 | 久久人人爽人人人人片 | 日韩精品无码一区二区中文字幕 | 国产黄在线观看免费观看不卡 | 国产肉丝袜在线观看 | 成人无码视频免费播放 | 久久久久久久女国产乱让韩 | 午夜理论片yy44880影院 | 精品一区二区三区无码免费视频 | 免费中文字幕日韩欧美 | 色综合天天综合狠狠爱 | √天堂中文官网8在线 | 欧美日本免费一区二区三区 | 性欧美videos高清精品 | 亚洲一区av无码专区在线观看 | 成 人 免费观看网站 | 日本一区二区更新不卡 | 亚洲精品中文字幕乱码 | 久久婷婷五月综合色国产香蕉 | 国产真实乱对白精彩久久 | 精品久久久久香蕉网 | aⅴ在线视频男人的天堂 | 两性色午夜视频免费播放 | 又大又紧又粉嫩18p少妇 | 日日天日日夜日日摸 | 中文无码成人免费视频在线观看 | 国产成人无码av片在线观看不卡 | 又大又紧又粉嫩18p少妇 | 中文精品无码中文字幕无码专区 | 成人欧美一区二区三区黑人免费 | 国产亚洲日韩欧美另类第八页 | 久久久av男人的天堂 | av无码不卡在线观看免费 | 粉嫩少妇内射浓精videos | 国语自产偷拍精品视频偷 | 久久伊人色av天堂九九小黄鸭 | 国产色视频一区二区三区 | 国产午夜亚洲精品不卡 | 又黄又爽又色的视频 | 欧美国产亚洲日韩在线二区 | 国产精品永久免费视频 | 中文精品无码中文字幕无码专区 | 色偷偷人人澡人人爽人人模 | 18精品久久久无码午夜福利 | 精品厕所偷拍各类美女tp嘘嘘 | 久久99精品久久久久久 | 国产莉萝无码av在线播放 | 久久久中文久久久无码 | 亚洲欧美日韩国产精品一区二区 | 西西人体www44rt大胆高清 | 成人三级无码视频在线观看 | 精品亚洲成av人在线观看 | 人妻天天爽夜夜爽一区二区 | 乱码av麻豆丝袜熟女系列 | 亚洲国产成人av在线观看 | 牲欲强的熟妇农村老妇女 | 国产午夜福利亚洲第一 | 67194成是人免费无码 | 夫妻免费无码v看片 | 亚洲精品成人福利网站 | 又黄又爽又色的视频 | 成年美女黄网站色大免费全看 | 成人免费视频在线观看 | 一本一道久久综合久久 | 国产精品无码一区二区三区不卡 | 在线a亚洲视频播放在线观看 | 丰满人妻一区二区三区免费视频 | 精品国产一区二区三区四区在线看 | 国产精品久久久久久亚洲毛片 | 精品欧洲av无码一区二区三区 | 亚洲国产高清在线观看视频 | 麻豆成人精品国产免费 | 国产一区二区三区日韩精品 | 精品无码一区二区三区爱欲 | 国产成人精品久久亚洲高清不卡 | 97久久超碰中文字幕 | 久久久久久亚洲精品a片成人 | 中文字幕乱码人妻二区三区 | 亚洲精品一区二区三区婷婷月 | 麻豆蜜桃av蜜臀av色欲av | 色一情一乱一伦一区二区三欧美 | 日韩无码专区 | 天堂在线观看www | 精品国产一区二区三区四区在线看 | 日日噜噜噜噜夜夜爽亚洲精品 | 国产成人一区二区三区在线观看 | www一区二区www免费 | 成人综合网亚洲伊人 | 六月丁香婷婷色狠狠久久 | 色偷偷人人澡人人爽人人模 | 国产精品.xx视频.xxtv | 亚洲人成影院在线无码按摩店 | 亚洲色大成网站www | 国产麻豆精品一区二区三区v视界 | 人妻少妇精品视频专区 | 一本久道高清无码视频 | 黑人巨大精品欧美黑寡妇 | 国产精品久久久久9999小说 | 色爱情人网站 | 午夜精品久久久内射近拍高清 | 亚洲国产精品久久人人爱 | 久久久久人妻一区精品色欧美 | 亚洲欧美精品aaaaaa片 | 久久亚洲国产成人精品性色 | 97se亚洲精品一区 | 欧美freesex黑人又粗又大 | 青青青手机频在线观看 | 亚洲一区二区三区 | 久精品国产欧美亚洲色aⅴ大片 | 纯爱无遮挡h肉动漫在线播放 | 女人被男人爽到呻吟的视频 | 日本精品高清一区二区 | 久久熟妇人妻午夜寂寞影院 | 亚洲成熟女人毛毛耸耸多 | 中文字幕无线码免费人妻 | 日本www一道久久久免费榴莲 | 日日鲁鲁鲁夜夜爽爽狠狠 | 久久熟妇人妻午夜寂寞影院 | 人妻无码久久精品人妻 | 国产乱人无码伦av在线a | 久久久精品欧美一区二区免费 | 67194成是人免费无码 | | 亚洲国产精品美女久久久久 | 日本免费一区二区三区最新 | 亚洲国产av美女网站 | a在线观看免费网站大全 | 亚洲国产精品久久久久久 | 亚洲欧美国产精品专区久久 | 亚洲国产精品无码久久久久高潮 | 人妻无码αv中文字幕久久琪琪布 | 国产手机在线αⅴ片无码观看 | 在线视频网站www色 | 少妇一晚三次一区二区三区 | 亚洲区欧美区综合区自拍区 | 国产情侣作爱视频免费观看 | 欧洲vodafone精品性 | 亚洲精品一区二区三区在线观看 | √天堂中文官网8在线 | 国产精品丝袜黑色高跟鞋 | 波多野结衣av在线观看 | 欧洲vodafone精品性 | 蜜臀av无码人妻精品 | 欧美肥老太牲交大战 | 免费无码av一区二区 | 国产免费无码一区二区视频 | 99精品久久毛片a片 | 日日天日日夜日日摸 | 丰满人妻一区二区三区免费视频 | 最新国产麻豆aⅴ精品无码 | 熟女少妇人妻中文字幕 | 成熟女人特级毛片www免费 | 99久久久无码国产aaa精品 | 国产精品a成v人在线播放 | 久久久精品人妻久久影视 | 鲁大师影院在线观看 | 亚洲色在线无码国产精品不卡 | 精品无码成人片一区二区98 | 日产国产精品亚洲系列 | 西西人体www44rt大胆高清 | 爱做久久久久久 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲日韩乱码中文无码蜜桃臀网站 | 伊人久久大香线蕉午夜 | 日韩少妇内射免费播放 | 老太婆性杂交欧美肥老太 | 一个人免费观看的www视频 | 无码人妻少妇伦在线电影 | 国产精品嫩草久久久久 | 无码福利日韩神码福利片 | 国产亚洲欧美在线专区 | 国色天香社区在线视频 | 日韩 欧美 动漫 国产 制服 | 黑人玩弄人妻中文在线 | 久久午夜无码鲁丝片午夜精品 | а√天堂www在线天堂小说 | 97久久精品无码一区二区 | 无码av岛国片在线播放 | 日日躁夜夜躁狠狠躁 | 18无码粉嫩小泬无套在线观看 | 亚洲成av人片天堂网无码】 | 久久精品99久久香蕉国产色戒 | 国产精品99久久精品爆乳 | www一区二区www免费 | 在线亚洲高清揄拍自拍一品区 | 亚洲精品国产精品乱码不卡 | 国产在线一区二区三区四区五区 | 国产精品美女久久久 | 国产成人午夜福利在线播放 | 国产成人精品一区二区在线小狼 | 国产精品欧美成人 | 中文字幕乱码人妻无码久久 | 特大黑人娇小亚洲女 | 美女扒开屁股让男人桶 | 午夜性刺激在线视频免费 | 久久久国产一区二区三区 | 伊人久久大香线蕉亚洲 | yw尤物av无码国产在线观看 | 国产偷国产偷精品高清尤物 | 中文字幕av无码一区二区三区电影 | 国产深夜福利视频在线 | 国产手机在线αⅴ片无码观看 | 亚洲综合另类小说色区 | 亚洲aⅴ无码成人网站国产app | 色一情一乱一伦一区二区三欧美 | 天干天干啦夜天干天2017 | 东北女人啪啪对白 | 美女张开腿让人桶 | 青青青手机频在线观看 | 亚洲精品午夜国产va久久成人 | 一本加勒比波多野结衣 | 欧美兽交xxxx×视频 | 图片区 小说区 区 亚洲五月 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 色综合视频一区二区三区 | 国产精品亚洲一区二区三区喷水 | 天海翼激烈高潮到腰振不止 | 99久久久无码国产精品免费 | 性做久久久久久久免费看 | 强辱丰满人妻hd中文字幕 | 精品人妻中文字幕有码在线 | 国产精品久久久久久亚洲毛片 | 无码精品国产va在线观看dvd | 最新国产乱人伦偷精品免费网站 | 亚洲狠狠色丁香婷婷综合 | 国产乱人无码伦av在线a | 青青草原综合久久大伊人精品 | 亚洲欧美国产精品久久 | 一本加勒比波多野结衣 | 亚拍精品一区二区三区探花 | 伊人久久大香线焦av综合影院 | 国产成人无码区免费内射一片色欲 | 纯爱无遮挡h肉动漫在线播放 | 性啪啪chinese东北女人 | 三上悠亚人妻中文字幕在线 | 国产色精品久久人妻 | 亚洲综合色区中文字幕 | 成人av无码一区二区三区 | 日本欧美一区二区三区乱码 | 2020最新国产自产精品 | 日日碰狠狠丁香久燥 | 亚洲成a人片在线观看日本 | 亚洲人成影院在线观看 | 偷窥村妇洗澡毛毛多 | 最新国产麻豆aⅴ精品无码 | 亚洲精品成人福利网站 | 亚洲人成影院在线观看 | 对白脏话肉麻粗话av | 国产农村妇女高潮大叫 | 99久久亚洲精品无码毛片 | 精品无码一区二区三区的天堂 | 国产亚洲精品久久久久久久久动漫 | 亚洲精品综合一区二区三区在线 | 国产精品成人av在线观看 | 性欧美牲交xxxxx视频 | 久久国产精品萌白酱免费 | 欧美猛少妇色xxxxx | 日韩精品成人一区二区三区 | 久久精品一区二区三区四区 | 亚洲成av人片天堂网无码】 | 国产偷自视频区视频 | 国产av无码专区亚洲a∨毛片 | 人妻少妇精品视频专区 | 无遮挡啪啪摇乳动态图 | 成人无码视频免费播放 | 国产婷婷色一区二区三区在线 | 成人动漫在线观看 | 玩弄人妻少妇500系列视频 | 久久午夜夜伦鲁鲁片无码免费 | 午夜丰满少妇性开放视频 | 国产又爽又猛又粗的视频a片 | 国产精品亚洲lv粉色 | 98国产精品综合一区二区三区 | 午夜精品久久久久久久 | 88国产精品欧美一区二区三区 | 久久国产精品萌白酱免费 | 欧美人与动性行为视频 | 免费播放一区二区三区 | 无遮挡啪啪摇乳动态图 | 国产精品资源一区二区 | www国产精品内射老师 | 国产真人无遮挡作爱免费视频 | 免费人成在线视频无码 | 久热国产vs视频在线观看 | 色婷婷av一区二区三区之红樱桃 | 又色又爽又黄的美女裸体网站 | 成熟妇人a片免费看网站 | 欧美国产日韩久久mv | 成年美女黄网站色大免费全看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 四虎国产精品一区二区 | 亚洲精品国产精品乱码视色 | 日韩精品成人一区二区三区 | 玩弄人妻少妇500系列视频 | 成人无码视频在线观看网站 | 国产一区二区三区精品视频 | 老司机亚洲精品影院无码 | 色综合视频一区二区三区 | 欧美国产日韩久久mv | 久久久久成人精品免费播放动漫 | 无码人妻丰满熟妇区毛片18 | 精品久久久无码中文字幕 | 国产肉丝袜在线观看 | 国产成人av免费观看 | 欧美一区二区三区视频在线观看 | 狠狠cao日日穞夜夜穞av | 久久精品人妻少妇一区二区三区 | 亚洲人成影院在线无码按摩店 | 131美女爱做视频 | 在线看片无码永久免费视频 | 动漫av网站免费观看 | 欧美性生交活xxxxxdddd | 国产一区二区三区日韩精品 | 性史性农村dvd毛片 | 久久久久久久久蜜桃 | 亚洲国产av精品一区二区蜜芽 | 日日摸夜夜摸狠狠摸婷婷 | 粗大的内捧猛烈进出视频 | 精品国产精品久久一区免费式 | 中文字幕色婷婷在线视频 | 国产97色在线 | 免 | 久久久精品欧美一区二区免费 | 成 人 免费观看网站 | 久久久成人毛片无码 | 国产精品丝袜黑色高跟鞋 | 亚洲色偷偷男人的天堂 | 夜精品a片一区二区三区无码白浆 | 亚洲七七久久桃花影院 | 亚洲日本一区二区三区在线 | 超碰97人人射妻 | 99久久无码一区人妻 | 日韩精品a片一区二区三区妖精 | 狠狠色噜噜狠狠狠7777奇米 | 麻豆md0077饥渴少妇 | 无遮挡国产高潮视频免费观看 | 特大黑人娇小亚洲女 | 欧美成人家庭影院 | 欧美xxxx黑人又粗又长 | 国产亚洲精品久久久久久国模美 | 成人无码视频在线观看网站 | 日日摸日日碰夜夜爽av | 无遮挡啪啪摇乳动态图 | 中文字幕无线码 | 亚洲伊人久久精品影院 | 伊在人天堂亚洲香蕉精品区 | 无码国内精品人妻少妇 | 少妇性俱乐部纵欲狂欢电影 | 18禁黄网站男男禁片免费观看 | 欧美精品无码一区二区三区 | 国产av一区二区三区最新精品 | 无码人妻精品一区二区三区下载 | 动漫av网站免费观看 | 国产国语老龄妇女a片 | 精品无码国产一区二区三区av | 久久综合狠狠综合久久综合88 | 国产无套内射久久久国产 | 亚洲s码欧洲m码国产av | 波多野结衣aⅴ在线 | 国内少妇偷人精品视频 | 国产熟女一区二区三区四区五区 | 野狼第一精品社区 | aⅴ亚洲 日韩 色 图网站 播放 | 一本无码人妻在中文字幕免费 | 国内精品久久久久久中文字幕 | 色婷婷av一区二区三区之红樱桃 | 人人妻人人澡人人爽欧美一区九九 | 少妇被粗大的猛进出69影院 | 激情国产av做激情国产爱 | 亚洲中文字幕无码中文字在线 | 国产内射老熟女aaaa | 国产人妻精品午夜福利免费 | 欧美激情内射喷水高潮 | 久久人人爽人人人人片 | 亚洲国产精品无码久久久久高潮 | 国产手机在线αⅴ片无码观看 | 亚洲色欲色欲欲www在线 | 成人欧美一区二区三区黑人 | 青青青爽视频在线观看 | 四十如虎的丰满熟妇啪啪 | 牲欲强的熟妇农村老妇女视频 | 亚洲国产日韩a在线播放 | 天天拍夜夜添久久精品大 | а√天堂www在线天堂小说 | 精品成在人线av无码免费看 | 性色欲情网站iwww九文堂 | 日本精品久久久久中文字幕 | 久久午夜无码鲁丝片 | 日本熟妇大屁股人妻 | 激情五月综合色婷婷一区二区 | 鲁一鲁av2019在线 | 初尝人妻少妇中文字幕 | 麻花豆传媒剧国产免费mv在线 | 亚洲乱码日产精品bd | 精品久久8x国产免费观看 | 人人妻人人澡人人爽人人精品 | 久久99精品久久久久婷婷 | 日产精品99久久久久久 | 大地资源中文第3页 | 小sao货水好多真紧h无码视频 | 丁香啪啪综合成人亚洲 | 国产精品国产三级国产专播 | 国产后入清纯学生妹 | 精品无人区无码乱码毛片国产 | 中文久久乱码一区二区 | 国产精品无码一区二区桃花视频 | 丝袜美腿亚洲一区二区 | 成熟人妻av无码专区 | 亚洲va中文字幕无码久久不卡 | 成人三级无码视频在线观看 | 亚洲精品久久久久avwww潮水 | 高潮毛片无遮挡高清免费视频 | 强奷人妻日本中文字幕 | 欧美野外疯狂做受xxxx高潮 | 亚洲精品综合五月久久小说 | 少妇一晚三次一区二区三区 | 成人无码精品一区二区三区 | 久久久婷婷五月亚洲97号色 | 色婷婷综合中文久久一本 | www成人国产高清内射 | 久久熟妇人妻午夜寂寞影院 | 色综合久久中文娱乐网 | 夜夜躁日日躁狠狠久久av | 亚洲国产一区二区三区在线观看 | 国产9 9在线 | 中文 | 青春草在线视频免费观看 | 精品少妇爆乳无码av无码专区 | 婷婷五月综合激情中文字幕 | 国产一区二区不卡老阿姨 | 国产精品国产三级国产专播 | 青青青手机频在线观看 | 国产一区二区三区影院 | 亚洲天堂2017无码 | 粉嫩少妇内射浓精videos | 久久综合色之久久综合 | 一本久道高清无码视频 | 1000部啪啪未满十八勿入下载 | 55夜色66夜色国产精品视频 | av无码久久久久不卡免费网站 | 亚洲aⅴ无码成人网站国产app | 少妇性荡欲午夜性开放视频剧场 | 黑人玩弄人妻中文在线 | a国产一区二区免费入口 | 人人妻人人澡人人爽欧美精品 | 大胆欧美熟妇xx | 日韩人妻无码中文字幕视频 | 小鲜肉自慰网站xnxx | 狠狠亚洲超碰狼人久久 | 荫蒂被男人添的好舒服爽免费视频 | 伊人久久大香线焦av综合影院 | 丰满少妇熟乱xxxxx视频 | 少妇一晚三次一区二区三区 | 97色伦图片97综合影院 | 无人区乱码一区二区三区 | 欧美日韩一区二区综合 | 小鲜肉自慰网站xnxx | 天天躁夜夜躁狠狠是什么心态 | 未满成年国产在线观看 | 久久亚洲中文字幕无码 | 久久久久久九九精品久 | 亚洲精品一区二区三区婷婷月 | 亚洲人成影院在线无码按摩店 | 欧美刺激性大交 | 亚洲日韩一区二区三区 | 国产成人无码一二三区视频 | 300部国产真实乱 | 一本久久a久久精品亚洲 | 国产精品高潮呻吟av久久 | 麻豆精品国产精华精华液好用吗 | 伊人久久大香线蕉av一区二区 | 国产亚洲精品久久久ai换 | 久久久久成人片免费观看蜜芽 | 国产网红无码精品视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 强辱丰满人妻hd中文字幕 | 亚洲欧美色中文字幕在线 | 人人妻人人澡人人爽人人精品 | 风流少妇按摩来高潮 | 亚洲中文字幕久久无码 | 最近免费中文字幕中文高清百度 | 亚洲区小说区激情区图片区 | 久久亚洲中文字幕无码 | 99精品无人区乱码1区2区3区 | 久久久久亚洲精品中文字幕 | 曰韩无码二三区中文字幕 | 久久精品中文字幕一区 | 日本www一道久久久免费榴莲 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 在线看片无码永久免费视频 | 白嫩日本少妇做爰 | 色婷婷av一区二区三区之红樱桃 | 色爱情人网站 | 久久综合激激的五月天 | yw尤物av无码国产在线观看 | a国产一区二区免费入口 | 一本一道久久综合久久 | 亚洲精品鲁一鲁一区二区三区 | 人人澡人人透人人爽 | 欧美精品国产综合久久 | 精品欧洲av无码一区二区三区 | √天堂资源地址中文在线 | 樱花草在线播放免费中文 | 国产精品18久久久久久麻辣 | 国内综合精品午夜久久资源 | 亚洲成av人在线观看网址 | 久久久久久九九精品久 | 欧美人与动性行为视频 | 欧美变态另类xxxx | 美女张开腿让人桶 | 欧美性猛交xxxx富婆 | 精品成人av一区二区三区 | 无码人妻久久一区二区三区不卡 | 正在播放东北夫妻内射 | 精品无码成人片一区二区98 | 国产精品亚洲一区二区三区喷水 | 色婷婷香蕉在线一区二区 | 在线看片无码永久免费视频 | 国产激情精品一区二区三区 | 日韩视频 中文字幕 视频一区 | 少妇太爽了在线观看 | 久久久精品欧美一区二区免费 | 久久久久av无码免费网 | 久久精品国产日本波多野结衣 | 国内精品九九久久久精品 | 国产 浪潮av性色四虎 | 亚洲成a人片在线观看无码3d | 麻豆av传媒蜜桃天美传媒 | 天下第一社区视频www日本 | 国产午夜亚洲精品不卡下载 | av无码电影一区二区三区 | 久久综合色之久久综合 | 成熟人妻av无码专区 | 日本在线高清不卡免费播放 | 国产成人综合色在线观看网站 | 亚洲男人av香蕉爽爽爽爽 | 久久97精品久久久久久久不卡 | 亚洲狠狠婷婷综合久久 | 曰韩少妇内射免费播放 | 精品国产一区二区三区四区 | 欧美日韩人成综合在线播放 | 国产内射老熟女aaaa | 日日碰狠狠躁久久躁蜜桃 | 人人超人人超碰超国产 | 蜜桃视频韩日免费播放 | 亚洲日韩中文字幕在线播放 | 中文字幕无码免费久久9一区9 | 国产无遮挡吃胸膜奶免费看 | 蜜桃无码一区二区三区 | 扒开双腿疯狂进出爽爽爽视频 | 中文字幕乱码人妻二区三区 | 国产成人无码av在线影院 | 5858s亚洲色大成网站www | 欧美老人巨大xxxx做受 | 精品无人国产偷自产在线 | 丰满少妇弄高潮了www | 日本熟妇大屁股人妻 | 日日摸天天摸爽爽狠狠97 | 国模大胆一区二区三区 | 久久久久av无码免费网 | 亚洲国产高清在线观看视频 | 无码纯肉视频在线观看 | 国产av剧情md精品麻豆 | 国产激情一区二区三区 | 亚洲国产精品毛片av不卡在线 | 中文字幕无码日韩欧毛 | 亚洲成av人片天堂网无码】 | 国产一区二区三区四区五区加勒比 | 麻豆果冻传媒2021精品传媒一区下载 | 精品少妇爆乳无码av无码专区 | 久久久中文久久久无码 | 少妇久久久久久人妻无码 | 国产人成高清在线视频99最全资源 | 亚洲七七久久桃花影院 | 久久久久久久久蜜桃 | 日本熟妇乱子伦xxxx | 99er热精品视频 | 3d动漫精品啪啪一区二区中 | 日韩成人一区二区三区在线观看 | 亚洲啪av永久无码精品放毛片 | 久久国产劲爆∧v内射 | 亚洲欧美国产精品专区久久 | 午夜福利一区二区三区在线观看 | 欧美性猛交内射兽交老熟妇 | 国产亚洲tv在线观看 | 精品偷拍一区二区三区在线看 | 老熟妇乱子伦牲交视频 | 亚洲熟妇色xxxxx欧美老妇 | 又粗又大又硬毛片免费看 | 国产口爆吞精在线视频 | 青春草在线视频免费观看 | 少妇无码av无码专区在线观看 | 初尝人妻少妇中文字幕 | 澳门永久av免费网站 | 精品偷自拍另类在线观看 | 男女爱爱好爽视频免费看 | 国产成人人人97超碰超爽8 | 久久久久se色偷偷亚洲精品av | 少妇被黑人到高潮喷出白浆 | 大地资源中文第3页 | 又大又黄又粗又爽的免费视频 | 国产精品福利视频导航 | 草草网站影院白丝内射 | 欧美日本精品一区二区三区 | 人妻插b视频一区二区三区 | 一本久道久久综合婷婷五月 | 日本高清一区免费中文视频 | 国产精华av午夜在线观看 | 国产内射爽爽大片视频社区在线 | 国产av无码专区亚洲a∨毛片 | 成人片黄网站色大片免费观看 | 国产亚洲人成a在线v网站 | 午夜精品久久久久久久久 | 国产后入清纯学生妹 | 日本va欧美va欧美va精品 | 麻豆果冻传媒2021精品传媒一区下载 | 激情五月综合色婷婷一区二区 | 精品国产aⅴ无码一区二区 | 未满成年国产在线观看 | 99久久久无码国产精品免费 | 少妇高潮喷潮久久久影院 | 性欧美熟妇videofreesex | 久久综合香蕉国产蜜臀av | 亚洲色欲色欲天天天www | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲人成网站在线播放942 | 在线播放无码字幕亚洲 | 国内丰满熟女出轨videos | 综合激情五月综合激情五月激情1 | 免费视频欧美无人区码 | 午夜精品一区二区三区在线观看 | 捆绑白丝粉色jk震动捧喷白浆 | 午夜无码区在线观看 | 无码人妻少妇伦在线电影 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 亚洲成在人网站无码天堂 | 好爽又高潮了毛片免费下载 | 狠狠色欧美亚洲狠狠色www | 成人av无码一区二区三区 | 国产熟女一区二区三区四区五区 | 色综合视频一区二区三区 | 波多野结衣乳巨码无在线观看 | 中文字幕乱码中文乱码51精品 | 国产免费久久久久久无码 | 日韩精品乱码av一区二区 | 无码人妻黑人中文字幕 | 中文字幕+乱码+中文字幕一区 | 亚洲中文字幕va福利 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 亚洲中文字幕在线无码一区二区 | 成人免费视频视频在线观看 免费 | 欧美肥老太牲交大战 | 精品欧洲av无码一区二区三区 | 国产精品福利视频导航 | 精品久久久久久人妻无码中文字幕 | 亚洲日本一区二区三区在线 | 国产免费久久精品国产传媒 | 亚洲精品无码国产 | 亚洲色欲久久久综合网东京热 | 狠狠噜狠狠狠狠丁香五月 | 久久精品国产99久久6动漫 | 国产精品人妻一区二区三区四 | 中文亚洲成a人片在线观看 | 四虎影视成人永久免费观看视频 | 亚洲日韩乱码中文无码蜜桃臀网站 | a片在线免费观看 | 麻豆蜜桃av蜜臀av色欲av | 18黄暴禁片在线观看 | 日日鲁鲁鲁夜夜爽爽狠狠 | 欧洲熟妇精品视频 | 国产乱码精品一品二品 | 亚洲国产av精品一区二区蜜芽 | 少妇性俱乐部纵欲狂欢电影 | 国产精品igao视频网 | 亚洲一区二区三区香蕉 | 亚洲 日韩 欧美 成人 在线观看 | 国产美女精品一区二区三区 | 人妻中文无码久热丝袜 | 精品乱子伦一区二区三区 | 亚洲呦女专区 | 狠狠色色综合网站 | 国产高潮视频在线观看 | 欧美人与禽zoz0性伦交 | 亚洲色在线无码国产精品不卡 | 蜜臀aⅴ国产精品久久久国产老师 | 日韩精品无码一区二区中文字幕 | 国产乱人无码伦av在线a | 国产成人精品久久亚洲高清不卡 | 久久99精品国产麻豆 | 日本欧美一区二区三区乱码 | 人人澡人人妻人人爽人人蜜桃 | 欧美变态另类xxxx | 波多野结衣乳巨码无在线观看 | 亚洲伊人久久精品影院 | 强辱丰满人妻hd中文字幕 | 天天躁日日躁狠狠躁免费麻豆 | 国产成人一区二区三区在线观看 | 久久精品中文字幕大胸 | 美女毛片一区二区三区四区 | 国产色视频一区二区三区 | 高潮毛片无遮挡高清免费 | 1000部啪啪未满十八勿入下载 | 4hu四虎永久在线观看 | 欧美肥老太牲交大战 | 天堂а√在线地址中文在线 | 日本大乳高潮视频在线观看 | 国产精品人妻一区二区三区四 | 日韩精品一区二区av在线 | 亚洲国产欧美国产综合一区 | 中文字幕中文有码在线 | 亚洲精品一区二区三区四区五区 | 亚洲精品一区二区三区大桥未久 | 久久久久亚洲精品中文字幕 | 中文字幕无码视频专区 | av无码电影一区二区三区 | 未满成年国产在线观看 | 免费无码肉片在线观看 | 永久免费精品精品永久-夜色 | 国产成人精品久久亚洲高清不卡 | 国内精品久久毛片一区二区 | 东京热无码av男人的天堂 | 强开小婷嫩苞又嫩又紧视频 | 国产精品永久免费视频 | 中文字幕色婷婷在线视频 | 国精产品一品二品国精品69xx | 国产美女极度色诱视频www | 国产亚洲欧美在线专区 | 欧美猛少妇色xxxxx | 欧美三级a做爰在线观看 | 人妻人人添人妻人人爱 | 国产人妖乱国产精品人妖 | √天堂资源地址中文在线 | 四虎永久在线精品免费网址 | 日韩少妇白浆无码系列 | 国产猛烈高潮尖叫视频免费 | 老子影院午夜伦不卡 | 亚洲精品综合五月久久小说 | 亚洲一区二区三区四区 | 国产成人无码av一区二区 | 国产精品无码久久av | 久久久中文久久久无码 | 国产激情一区二区三区 | 中文字幕亚洲情99在线 | 亚洲精品一区二区三区在线 | 在线欧美精品一区二区三区 | 中文字幕无码人妻少妇免费 | 蜜桃臀无码内射一区二区三区 | 国内丰满熟女出轨videos | 日韩在线不卡免费视频一区 | 久久综合给久久狠狠97色 | 国产性生交xxxxx无码 | 强辱丰满人妻hd中文字幕 | 国产精品无码一区二区桃花视频 | 1000部夫妻午夜免费 | 亚洲精品无码国产 | 久久zyz资源站无码中文动漫 | 扒开双腿疯狂进出爽爽爽视频 | 中文毛片无遮挡高清免费 | 精品久久久久久人妻无码中文字幕 | 无套内谢的新婚少妇国语播放 | 亚洲欧洲日本综合aⅴ在线 | 免费视频欧美无人区码 | 97夜夜澡人人双人人人喊 | 男女超爽视频免费播放 | 欧美日韩一区二区综合 | 丰满少妇弄高潮了www | 成人毛片一区二区 | 亚洲精品国产第一综合99久久 | 久久久成人毛片无码 | 日产国产精品亚洲系列 | 亚洲精品国偷拍自产在线麻豆 | 久久无码人妻影院 | 国内揄拍国内精品人妻 | 成人av无码一区二区三区 | 18禁黄网站男男禁片免费观看 | 久久精品国产亚洲精品 | 精品无码一区二区三区爱欲 | 美女极度色诱视频国产 | 国产亚洲tv在线观看 | 人人妻人人澡人人爽精品欧美 | 正在播放东北夫妻内射 | 四虎影视成人永久免费观看视频 | 久久久www成人免费毛片 | 蜜桃无码一区二区三区 | 国产人妻精品午夜福利免费 | 2020久久超碰国产精品最新 | 7777奇米四色成人眼影 | 亚洲乱码日产精品bd | 亚洲国产日韩a在线播放 | 亚洲精品久久久久avwww潮水 | 正在播放东北夫妻内射 | 欧美性生交xxxxx久久久 | 日本熟妇乱子伦xxxx | 一个人免费观看的www视频 | 蜜桃视频插满18在线观看 | 国产亚洲精品久久久闺蜜 | 国产日产欧产精品精品app | 日本免费一区二区三区最新 | 国内精品一区二区三区不卡 | 又大又紧又粉嫩18p少妇 | 免费无码一区二区三区蜜桃大 | 成人免费无码大片a毛片 | 成人精品视频一区二区三区尤物 | 亚洲日韩av一区二区三区中文 | 亚洲人成无码网www | 男人的天堂av网站 | 国产亚洲视频中文字幕97精品 | 影音先锋中文字幕无码 | 欧美 亚洲 国产 另类 | 国产精品无码成人午夜电影 | 国产精品久久久久7777 | av人摸人人人澡人人超碰下载 | 香蕉久久久久久av成人 | 亚洲中文字幕乱码av波多ji | 欧美日韩色另类综合 | 免费无码午夜福利片69 | 亚洲欧美日韩国产精品一区二区 | 亚洲精品久久久久久一区二区 | 久久 国产 尿 小便 嘘嘘 | 国产精品理论片在线观看 | 久久国产精品_国产精品 | 无码人妻黑人中文字幕 | 亚洲国产欧美日韩精品一区二区三区 | 中文无码精品a∨在线观看不卡 | 无码精品国产va在线观看dvd | 国产莉萝无码av在线播放 | 亚洲精品欧美二区三区中文字幕 | 300部国产真实乱 | 亚洲国产精品无码久久久久高潮 | 精品aⅴ一区二区三区 | 欧美精品国产综合久久 | 久久精品成人欧美大片 | 综合激情五月综合激情五月激情1 | 国产精品无码一区二区三区不卡 | 国产口爆吞精在线视频 | 内射爽无广熟女亚洲 | 欧美亚洲国产一区二区三区 | 国产特级毛片aaaaaa高潮流水 | 精品人人妻人人澡人人爽人人 | 国产性生交xxxxx无码 | 日本熟妇人妻xxxxx人hd | 成人无码影片精品久久久 | 亲嘴扒胸摸屁股激烈网站 | 精品夜夜澡人妻无码av蜜桃 | 精品乱子伦一区二区三区 | 免费看少妇作爱视频 | 日本熟妇人妻xxxxx人hd | 漂亮人妻洗澡被公强 日日躁 | 国产精品二区一区二区aⅴ污介绍 | 久久精品国产99久久6动漫 | 丰满诱人的人妻3 | 欧美猛少妇色xxxxx | 亚洲精品国偷拍自产在线观看蜜桃 | 成年美女黄网站色大免费全看 | 伊人久久大香线蕉av一区二区 | 亚洲熟妇色xxxxx欧美老妇y | 性生交大片免费看l | 激情爆乳一区二区三区 | 免费无码av一区二区 | 欧美亚洲国产一区二区三区 | 亚洲色大成网站www | 亚洲综合在线一区二区三区 | 伊在人天堂亚洲香蕉精品区 | 国产又粗又硬又大爽黄老大爷视 | a在线亚洲男人的天堂 | 久久精品国产精品国产精品污 | 无遮挡国产高潮视频免费观看 | 乌克兰少妇性做爰 | 人人澡人人透人人爽 | 中文字幕久久久久人妻 | 又粗又大又硬又长又爽 | 亚洲成av人在线观看网址 | 亚洲精品国产第一综合99久久 | 国产情侣作爱视频免费观看 | 久久精品国产大片免费观看 | 波多野结衣一区二区三区av免费 | 国产婷婷色一区二区三区在线 | 亲嘴扒胸摸屁股激烈网站 | 欧美人与动性行为视频 | 乱码午夜-极国产极内射 | 乱人伦中文视频在线观看 | 久久久久久久人妻无码中文字幕爆 | 亚洲国产日韩a在线播放 | 日日天干夜夜狠狠爱 | 水蜜桃av无码 | 欧美放荡的少妇 | 国产精品福利视频导航 | 亚洲a无码综合a国产av中文 | 水蜜桃色314在线观看 | 欧美丰满少妇xxxx性 | 女人被男人躁得好爽免费视频 | 全黄性性激高免费视频 | 国产激情综合五月久久 | 国产高清不卡无码视频 | 亚洲欧美日韩综合久久久 | 国产真实乱对白精彩久久 | 国内精品久久久久久中文字幕 | 国产人妻精品午夜福利免费 | 中文精品久久久久人妻不卡 | 日韩精品无码一本二本三本色 | 99精品国产综合久久久久五月天 | 久久五月精品中文字幕 | 中文字幕无码免费久久99 | 亚洲色偷偷男人的天堂 | 99精品国产综合久久久久五月天 | 天堂а√在线中文在线 | 国产真人无遮挡作爱免费视频 | 久久视频在线观看精品 | 久久久久久久久888 | 国产在线精品一区二区高清不卡 | 国产精品国产自线拍免费软件 | 性欧美熟妇videofreesex | 国产精品亚洲一区二区三区喷水 | 亚洲一区二区三区无码久久 | 亚洲中文字幕久久无码 | 欧美丰满老熟妇xxxxx性 | 国产肉丝袜在线观看 | 国产精品亚洲一区二区三区喷水 | 国内精品人妻无码久久久影院 | 色一情一乱一伦 | 午夜福利电影 | 日本乱人伦片中文三区 | 亚洲の无码国产の无码影院 | 最新国产乱人伦偷精品免费网站 | 日韩精品成人一区二区三区 | 亚洲国产欧美日韩精品一区二区三区 | 国产欧美熟妇另类久久久 | 国产真人无遮挡作爱免费视频 | 在线观看国产午夜福利片 | 中文字幕av日韩精品一区二区 | 又湿又紧又大又爽a视频国产 | 国产情侣作爱视频免费观看 | 狠狠躁日日躁夜夜躁2020 | 无码精品人妻一区二区三区av | 亚洲另类伦春色综合小说 | 久久精品国产一区二区三区肥胖 | 国产熟妇另类久久久久 | 四虎永久在线精品免费网址 | 青青草原综合久久大伊人精品 | 色欲av亚洲一区无码少妇 | 国产精品福利视频导航 | 亚洲综合伊人久久大杳蕉 | 男女下面进入的视频免费午夜 | 天天躁夜夜躁狠狠是什么心态 | 少妇被黑人到高潮喷出白浆 | 精品国产一区二区三区四区在线看 | 日日摸天天摸爽爽狠狠97 | 久久精品女人的天堂av | 好男人社区资源 | 中文字幕乱码人妻二区三区 | 亚洲成色在线综合网站 | 精品一区二区不卡无码av | 亚洲精品一区二区三区婷婷月 | 国产人妻精品一区二区三区 | 亚洲码国产精品高潮在线 | 国产精品久久久一区二区三区 | 精品久久久中文字幕人妻 | 国产va免费精品观看 | 18无码粉嫩小泬无套在线观看 | 国产97在线 | 亚洲 | 国产亚洲精品精品国产亚洲综合 | 亚洲国产欧美国产综合一区 | 动漫av一区二区在线观看 | 76少妇精品导航 | 欧美35页视频在线观看 | 欧美亚洲国产一区二区三区 | 国产办公室秘书无码精品99 | 超碰97人人做人人爱少妇 | 国产网红无码精品视频 | 色欲综合久久中文字幕网 | 少妇无码一区二区二三区 | 成人亚洲精品久久久久 | 一本色道久久综合狠狠躁 | 久久无码人妻影院 | 国产麻豆精品一区二区三区v视界 | 真人与拘做受免费视频 | 午夜熟女插插xx免费视频 | 亚洲爆乳精品无码一区二区三区 | 99riav国产精品视频 | 青草青草久热国产精品 | 熟女少妇人妻中文字幕 | 欧美精品国产综合久久 | 风流少妇按摩来高潮 | 国内精品九九久久久精品 | 沈阳熟女露脸对白视频 | 国产精品无码mv在线观看 | 亚洲精品一区国产 | 中文亚洲成a人片在线观看 | 亚洲の无码国产の无码步美 | 国产婷婷色一区二区三区在线 | 色综合久久网 | 欧美丰满老熟妇xxxxx性 | 久久综合色之久久综合 | 色婷婷香蕉在线一区二区 | 少妇厨房愉情理9仑片视频 | 两性色午夜视频免费播放 | 黑人巨大精品欧美一区二区 | 波多野42部无码喷潮在线 | 国产精品国产三级国产专播 | 老司机亚洲精品影院无码 | 亚洲码国产精品高潮在线 | 精品一区二区三区无码免费视频 | 思思久久99热只有频精品66 | 六十路熟妇乱子伦 | √8天堂资源地址中文在线 | 国产av剧情md精品麻豆 | 好男人社区资源 | 久久aⅴ免费观看 | 强伦人妻一区二区三区视频18 | 欧美日韩视频无码一区二区三 | 国产口爆吞精在线视频 | 妺妺窝人体色www在线小说 | 国产国产精品人在线视 | 亚洲色欲色欲天天天www | 强开小婷嫩苞又嫩又紧视频 | 久久www免费人成人片 | 综合网日日天干夜夜久久 | 人妻无码久久精品人妻 | 2020最新国产自产精品 | 精品一区二区三区无码免费视频 | 国产精品第一区揄拍无码 | yw尤物av无码国产在线观看 | 国产av一区二区三区最新精品 | 午夜丰满少妇性开放视频 | 九九综合va免费看 | 波多野42部无码喷潮在线 | 天海翼激烈高潮到腰振不止 | 伊人久久大香线蕉亚洲 | 亚洲一区二区三区无码久久 | 性欧美疯狂xxxxbbbb | 波多野结衣一区二区三区av免费 | 欧美激情一区二区三区成人 | 成人免费视频视频在线观看 免费 | 国产精品亚洲综合色区韩国 | 女人高潮内射99精品 | 久久精品国产一区二区三区 | 又大又硬又爽免费视频 | 2020最新国产自产精品 | 大色综合色综合网站 | 中文精品无码中文字幕无码专区 | 爽爽影院免费观看 | 国产在线aaa片一区二区99 | 丰满人妻被黑人猛烈进入 | 伊在人天堂亚洲香蕉精品区 | 无码毛片视频一区二区本码 | 亚洲精品国偷拍自产在线麻豆 | 一区二区三区乱码在线 | 欧洲 | 极品嫩模高潮叫床 | 亚洲精品久久久久久久久久久 | 久久精品人妻少妇一区二区三区 | 无码国内精品人妻少妇 | 又黄又爽又色的视频 | 国产精品久久久久9999小说 | 波多野结衣 黑人 | 999久久久国产精品消防器材 | 国产人妻精品一区二区三区不卡 | 亚洲欧美精品aaaaaa片 | 日本精品久久久久中文字幕 | 国模大胆一区二区三区 | √8天堂资源地址中文在线 | 欧美国产亚洲日韩在线二区 | 日本丰满护士爆乳xxxx | 又大又紧又粉嫩18p少妇 | yw尤物av无码国产在线观看 | 荫蒂添的好舒服视频囗交 |