久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

SparkStreaming基础

發布時間:2024/7/5 编程问答 42 豆豆
生活随笔 收集整理的這篇文章主要介紹了 SparkStreaming基础 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? SparkStreaming基礎

1?流式計算

1.1?常見的離線和流式計算框架

2?SparkStreaming簡介

2.1?核心概念DStream

2.2?工作原理

2.3?Storm,SparkStreaming和Flink的對比

2.4?如何選擇流式處理框架

3?SparkStreaming實時案例

3.1?StreamingContext和Receiver說明

4?SparkStreaming和HDFS整合

5?SparkStreaming與Kafka整合

5.1?spark-stremaing-kafka-0-8

6?消費kafka的時候常見的問題

6.1?生產速率過高

6.2?偏移量過期

7 DStream常見的的transformation

8?緩存和CheckPoint機制

8.1?緩存持久化

8.2?checkpoint機制

9?DriverHA

9.1 原理

9.2?DriverHA的配置

9.3?Driver代碼實現

10.?Spark Streaming 性能調優

10.1?設置合理的CPU

10.2?接受數據的調優

10.3?設置合理的并行度

10.4?序列化調優

10.5????????batchInterval

10.6?內存調優


???????

? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? ? SparkStreaming基礎

1?流式計算

流式計算就像水流一樣,數據連綿不斷的產生,并被快速處理。

流式計算特點:①數據是無界的(unbounded);②數據是動態的;③計算速度是非常快的;④計算不止一次;⑤計算不能終止

離線計算特點 :①數據是有界的(Bounded) ;②數據靜態的 ;③計算速度通常較慢 ;④計算只執行一次 ;⑤計算終會終止

1.1?常見的離線和流式計算框架

常見的離線計算框架:mapreduce,spark-core,flink-dataset

常見的流式計算框架 :storm(jstorm) ,spark-streaming,flink-datastream(blink)

2?SparkStreaming簡介

SparkStreaming,和SparkSQL一樣,也是Spark生態棧中非常重要的一個模塊,主要是用來進行流式計算的框架。流式計算框架,從計算的延遲上面,又可以分為純實時流式計算和準實時流式計算,SparkStreaming是屬于的準實時計算框架

純實時的計算,指的是來一條記錄(event事件),啟動一次計算的作業;離線計算,指的是每次計算一個非常大的一批(比如幾百G,好幾個T)數據;準實時呢,介于純實時和離線計算之間的一種計算方式。

SparkStreaming是SparkCore的api的一種擴展,使用DStream(discretized stream or DStream)作為數據模型,基于內存處理連續的數據流,本質上還是RDD的基于內存的計算。

DStream,本質上是RDD的序列。

接收實時輸入數據流,然后將數據拆分成多個batch,比如每收集1秒的數據封裝為一個batch,然后將每個batch交給Spark的計算引擎進行處理,最后會生產出一個結果數據流,其中的數據,也是由一個一個的batch所組成的。

2.1?核心概念DStream

類似于SparkCore中的RDD和SparkSQL中的Dataset、DataFrame,在SparkStreaming中的編程模型是DStream(離散化的流)。DStream是對一個時間段內產生的一些列RDD的封裝,也就是說一個DStream內部包含多個RDD。

DStream可以通過輸入算子來創建,也可以通過高階算子,比如map、flatMap等等進行轉換產生。

2.2?工作原理

對DStream應用的算子,其實在底層會被翻譯為對DStream中每個RDD的操作。比如對一個DStream執行一個map操作,會產生一個新的DStream。但是,在底層,對輸入DStream中每個時間段的RDD,都應用一遍map操作,然后生成的新的RDD,即作為新的DStream中的那個時間段的一個RDD。底層的RDD的transformation操作。

還是由Spark Core的計算引擎來實現的。Spark Streaming對Spark Core進行了一層封裝,隱藏了細節,然后對開發人員提供了方便易用的高層次的API。

2.3?Storm,SparkStreaming和Flink的對比

2.4?如何選擇流式處理框架

(1)Storm:

①建議在需要純實時,不能忍受1秒以上延遲的場景下使用,要求純實時進行交易和分析時。 ②要求可靠的事務機制和可靠性機制,即數據的處理完全精準,一條也不能多,一條也不能少,也可以考慮使用Storm,但是Spark Streaming也可以保證數據的不丟失。③如果我們需要考慮針對高峰低峰時間段,動態調整實時計算程序的并行度,以最大限度利用集群資源(通常是在小型公司,集群資源緊張的情況),我們也可以考慮用Storm

(2)Spark Streaming

①不滿足上述Storm要求的話,我們可以考慮使用Spark Streaming來進行實時計算。 ②考慮使用Spark Streaming最主要的一個因素,應該是針對整個項目進行宏觀的考慮,如果一個項目除了實時計算之外,還包括了離線批處理、交互式查詢、圖計算和MLIB機器學習等業務功能,而且實時計算中,可能還會牽扯到高延遲批處理、交互式查詢等功能,那么就應該首選Spark生態,用Spark Core開發離線批處理,用Spark SQL開發交互式查詢,用Spark Streaming開發實時計算,三者可以無縫整合,給系統提供非常高的可擴展性。

(3)Flink

支持高吞吐、低延遲、高性能的流處理 支持帶有事件時間的窗口(Window)操作 支持有狀態計算的Exactly-once語義 支持高度靈活的窗口(Window)操作,支持基于time、count、session,以及data-driven的窗口操作 支持具有Backpressure功能的持續流模型 支持基于輕量級分布式快照(Snapshot)實現的容錯 一個運行時同時支持Batch on Streaming處理和Streaming處理 Flink在JVM內部實現了自己的內存管理 支持迭代計算 支持程序自動優化:避免特定情況下Shuffle、排序等昂貴操作,中間結果有必要進行緩存。

3?SparkStreaming實時案例

SparkStreaming中的入口類,稱之為StreamingContext,但是底層還是得需要依賴SparkContext。

object _01SparkStreamingWordCountOps {def main(args: Array[String]): Unit = {/*StreamingContext的初始化,需要至少兩個參數,SparkConf和BatchDurationSparkConf不用多說batchDuration:提交兩次作業之間的時間間隔,每次會提交一個DStream,將數據轉化batch--->RDD所以說:sparkStreaming的計算,就是每隔多長時間計算一次數據*/val conf = new SparkConf().setAppName("SparkStreamingWordCount").setMaster("local[*]")val duration = Seconds(2)val ssc = new StreamingContext(conf, duration)//業務val lines:ReceiverInputDStream[String] = ssc.socketTextStream(hostname, port.toInt)val retDStream:DStream[(String, Int)] = lines.flatMap(_.split("\\s+")).map((_, 1)).reduceByKey(_+_)retDStream.print()//為了執行的流式計算,必須要調用start來啟動ssc.start()//為了不至于start啟動程序結束,必須要調用awaitTermination方法等待程序業務完成之后調用stop方法結束程序,或者異常ssc.awaitTermination()} }

3.1?StreamingContext和Receiver說明

(1)關于local

當將上述程序中的master由local[*],修改為local的時候,程序業務不變,發生只能接收數據,無法處理數據。 local[*]和local的區別:后者只為當前程序提供一個線程來處理,前者提供可用的所有的cpu的core來處理,當前情況下為2或者4。

SparkStreaming優先使用線程資源來接收數據,其次才是對數據的處理,接收數據的對象就是Receiver。所以,如果讀取數據的時候有receiver,程序的線程個數至少為2。

(2)關于start

start方法是用來啟動當前sparkStreaming應用的,所以,是不能在ssc.start()之后再添加任何業務邏輯

start()方法只會讓當前的計算執行一次,要想持續不斷的進行接收數據,計算數據,就需要使用awaitTermination方法

(3)關于Receiver

Receiver就是數據的接收者,把資源分成了兩部分,一部分用來接收數據,一部分用來處理數據。Receiver接收到的數據,其實就是一個個的batch數據,是RDD,存儲在Executor內存。Receiver就是Executor內存中的一部分。

4?SparkStreaming和HDFS整合

SparkStreaming監聽hdfs的某一個目錄,目錄下的新增文件,做實時處理。這種方式在特定情況下還是挺多的。需要使用的api為:ssc.fileStream()

監聽的文件,必須要從另一個相匹配的目錄移動到其它目錄。

(1)監聽本地:無法讀取手動拷貝,或者剪切到指定目錄下的文件,只能讀取通過流寫入的文件。

(2)監聽hdfs:正常情況下,我們可以讀取到通過put上傳的文件,還可以讀取通過cp拷貝的文件,但是讀取不了mv移動的文件。讀取文件的這種方式,沒有額外的Receiver消耗線程資源,所以可以指定master為local

object SparkStreamingHDFS {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)val conf = new SparkConf().setAppName("SparkStreamingHDFS").setMaster("local[2]")val duration = Seconds(2)val ssc = new StreamingContext(conf, duration)//讀取local中數據 --->需要通過流的方式寫入 // val lines = ssc.textFileStream("file:///E:/data/monitored")//讀取hdfs中數據val lines = ssc.textFileStream("hdfs://bigdata01:9000/data/spark")lines.print()ssc.start()ssc.awaitTermination()} }

5?SparkStreaming與Kafka整合

kafka是做消息的緩存,數據和業務隔離操作的消息隊列,而sparkstreaming是一款準實時流式計算框架,所以二者的整合,是大勢所趨。

SparkStreaming和Kafka的整合有兩大版本——spark-streaming-kafka-0-8和spark-streaming-kafka-0-10。spark-streaming-kafka-0-8版本還有兩種方式——Receiver和Direct方式。

5.1?spark-stremaing-kafka-0-8

依賴:

<dependency><groupId>org.apache.spark</groupId><artifactId>spark-streaming-kafka-0-8_2.11</artifactId><version>2.2.2</version> </dependency>

(1)Receiver的方式

/*** 使用kafka的receiver-api讀取數據*/ object SparkStreamingKafkaReceiverOps {def main(args: Array[String]): Unit = {val conf = new SparkConf().setAppName("SparkStreamingKafkaReceiverOps").setMaster("local[*]")val duration = Seconds(2)val ssc = new StreamingContext(conf, duration)val kafkaParams = Map[String, String]("zookeeper.connect" -> "bigdata01:2181,bigdata02:2181,bigdata03:2181/kafka","group.id" -> "receiver","zookeeper.connection.timeout.ms" -> "10000")val topics = Map[String, Int]("spark" -> 3)val messages:ReceiverInputDStream[(String, String)] = KafkaUtils.createStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topics,StorageLevel.MEMORY_AND_DISK_SER_2)messages.print()ssc.start()ssc.awaitTermination()} }

這種方式使用Receiver來獲取數據。Receiver是使用Kafka的高層次Consumer API來實現的。receiver從Kafka中獲取的數據都是存儲在Spark Executor的內存中的,然后Spark Streaming啟動的job會去處理那些數據。

在默認的配置下,這種方式可能會因為底層的失敗而丟失數據。如果要啟用高可靠機制,讓數據零丟失,就必須啟用Spark Streaming的預寫日志機制(Write Ahead Log,WAL)。該機制會同步地將接收到的Kafka數據寫入分布式文件系統(比如HDFS)上的預寫日志中。所以,即使底層節點出現了失敗,也可以使用預寫日志中的數據進行恢復。 (如果要開啟wal,需要在sparkconf中配置參數:spark.streaming.receiver.writeAheadLog.enable=true)

數據會丟失原因

在上圖消費的過程中,需要處理數據和offset兩件事,任何一個出問題都會導致處理失敗:

①數據處理成功,保存偏移量失敗:數據被重復消費at-least-once

②偏移量保存成功,數據處理失敗:數據最多只能被處理一次at-most-once

③都處理成功:數據恰好處理一次:exactly-once

要想達到數據恰好處理一次那就只能將offset和數據處理保證在一個事務中,保證其原子性

注意:

①Kafka的topic分區和Spark Streaming中生成的RDD分區沒有關系。 在KafkaUtils.createStream中增加分區數量只會增加單個receiver的線程數,不會增加Spark的并行度

②可以創建多個的Kafka的輸入DStream, 使用不同的group和topic, 使用多個receiver并行接收數據。

③如果啟用了HDFS等有容錯的存儲系統,并且啟用了寫入日志,則接收到的數據已經被復制到日志中。因此,輸入流的存儲級別設置StorageLevel.MEMORY_AND_DISK_SER(即使用KafkaUtils.createStream(...,StorageLevel.MEMORY_AND_DISK_SER))的存儲級別。

(2)Direct的方式

//基于direct方式整合kafka object parkStreamingKafkaDirectOps {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)val conf = new SparkConf().setAppName("parkStreamingKafkaDirectOps").setMaster("local[*]")val duration = Seconds(2)val ssc = new StreamingContext(conf, duration)val kafkaParams = Map[String, String]("bootstrap.servers" -> "bigdata01:9092,bigdata02:9092,bigdata03:9092","group.id" -> "direct","auto.offset.reset" -> "largest")val topics = "spark".split(",").toSetval messages: InputDStream[(String, String)] = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topics)messages.foreachRDD((rdd, bTime) => {if(!rdd.isEmpty()) {val offsetRDD = rdd.asInstanceOf[HasOffsetRanges]val offsetRanges = offsetRDD.offsetRangesfor(offsetRange <- offsetRanges) {val topic = offsetRange.topicval partition = offsetRange.partitionval fromOffset = offsetRange.fromOffsetval untilOffset = offsetRange.untilOffsetprintln(s"topic:${topic}\tpartition:${partition}\tstart:${fromOffset}\tend:${untilOffset}")}rdd.count()}})ssc.start()ssc.awaitTermination()} }

優勢:

①更加簡單的并行度:Direct模式下面,不再像receiver的方式,如果提高消費的性能,需要創建多個InputStream,最后將它們進行union,之后整體進行操作。Direct模式中,topic的分區數就和rdd的分區是一一對應的,此時我們每個rdd的分區就用來消費topic中的一個分區。

②性能較高:Receiver模式下面,為了保證數據零丟失,開啟了WAL。但是會對數據多兩次備份——kafka本身和wal,同時在備份過程中肯定需要時間,所以性能不是很高。而Direct模式,因為沒有receiver,也就沒有wal,只需要有足夠的retention策略,我們就可以從kafka中進行恢復。因為此時的偏移量被我們的程序所控制。

一致性(Exactly-once)的語義

在流式計算過程中會有不同的語義,這些語義產生的原因,就是一條記錄被處理一次,被處理多次,一次或者一次也沒有被處理,對應語義稱之為Exactly once,at least once, at most once。不管是at least還是at most都會造成計算結果和真實的結果有偏差,不是我們所樂見的。

receiver的這種方式,會造成數據at least once,因為wal的存在,spark程序和偏移量之間的讀寫關系不一致。而在Direct的情況下可以保證數據的Exactly once semantics,因為我們使用的kafka底層的api,可以更加精準地在程序中把握偏移量。此時我們就不需要使用zookeeper,而使用checkpoint來存儲偏移量。

但是,為了保證數據輸出的一致性語義,則需要spark程序的輸出是冪等操作或者是原子性操作。

冪等說明:多次操作結果都一樣,把這種操作稱之為冪等操作,比如數據庫的delete操作

(3)offset的問題

/*offset的checkpoint(檢查點)把需要管理的相關數據保存在某一個目錄下面,后續的時候直接從該目錄中讀取即可,在此處就是保存offset數據*/ object CheckpointKafkaDirectOps {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)val conf = new SparkConf().setAppName("CheckpointKafkaDirectOps").setMaster("local")val duration = Seconds(2)val checkpoint = "file:///E:/data/chk"def createFunc():StreamingContext = {val ssc = new StreamingContext(conf, duration)ssc.checkpoint(checkpoint)val kafkaParams = Map[String, String]("bootstrap.servers" -> "bigdata01:9092,bigdata02:9092,bigdata03:9092","group.id" -> "checkpointgroup","auto.offset.reset" -> "smallest")val topics = "spark".split(",").toSetval messages: InputDStream[(String, String)] = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topics)messages.foreachRDD((rdd, bTime) => {if(!rdd.isEmpty()) {println("num: " + rdd.getNumPartitions)val offsetRDD = rdd.asInstanceOf[HasOffsetRanges]val offsetRanges = offsetRDD.offsetRangesfor(offsetRange <- offsetRanges) {val topic = offsetRange.topicval partition = offsetRange.partitionval fromOffset = offsetRange.fromOffsetval untilOffset = offsetRange.untilOffsetprintln(s"topic:${topic}\tpartition:${partition}\tstart:${fromOffset}\tend:${untilOffset}")}rdd.count()}})ssc}//創建或者恢復出來一個StreamingContextval ssc = StreamingContext.getOrCreate(checkpoint, createFunc)ssc.start()ssc.awaitTermination()} }

?

這種方式,雖然能夠解決offset跟蹤問題,但是會在checkpoint目錄下面產生大量的小文件,并且操作進行磁盤的IO操作,性能相對較差。那我們選擇其他方式管理offset偏移量,常見的管理offset偏移量的方式有如下:zookeeper、redis、hbase、mysql、elasticsearch、kafka,zookeeper也不建議使用,zookeeper太重要了,zk負載過高,容易出故障。

(4)zookeeper管理offset

/*基于direct方式整合kafka使用zk手動管理offset*/object KafkaDirectZKOps {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)val conf = new SparkConf().setAppName("KafkaDirectZKOps").setMaster("local")val duration = Seconds(2)val ssc = new StreamingContext(conf, duration)val kafkaParams = Map[String, String]("bootstrap.servers" -> "bigdata01:9092,bigdata02:9092,bigdata03:9092","group.id" -> "DirectZK","auto.offset.reset" -> "smallest")val topics = "spark".split(",").toSetval messages: InputDStream[(String, String)] = createMsg(ssc, kafkaParams, topics)messages.foreachRDD((rdd, bTime) => {if(!rdd.isEmpty()) {println("-------------------------------------------")println(s"Time: $bTime")println("###########count: " + rdd.count())storeOffsets(rdd.asInstanceOf[HasOffsetRanges].offsetRanges, kafkaParams("group.id"))println("-------------------------------------------")}})ssc.start()ssc.awaitTermination()}/*從zk中讀取手動保存offset信息,然后從kafka指定offset位置開始讀取數據,如果沒有讀取到offset信息,那么從最開始或者從最新的位置開始讀取信息*/def createMsg(ssc: StreamingContext, kafkaParams: Map[String, String], topics: Set[String]): InputDStream[(String, String)] = {//從zk中讀取offsetval fromOffsets: Map[TopicAndPartition, Long] = getFromOffsets(topics, kafkaParams("group.id"))var messages: InputDStream[(String, String)] = nullif(fromOffsets.isEmpty) {//沒有讀到offsetmessages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topics)} else {//讀取到了offset,從指定位置開始讀取val messageHandler = (msgHandler:MessageAndMetadata[String, String]) => (msgHandler.key(), msgHandler.message())messages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder, (String, String)](ssc,kafkaParams, fromOffsets, messageHandler)}messages}/*從zk中讀取offset信息首先,定義offset交互的信息,比如數據的存放位置,存放格式官方的操作:/kafka/consumers/${group.id}/offsets/${topic}/${partition} -->data為offset存放位置&數據:/kafka/consumers/offsets/${topic}/${group.id}/${partition} -->data為offset其次,用什么和zk中交互zookeeper原生的apicuratorFramework(選擇)*/def getFromOffsets(topics:Set[String], group:String):Map[TopicAndPartition, Long] = {val offsets = mutable.Map[TopicAndPartition, Long]()for (topic <- topics) {val path = s"${topic}/${group}"//判斷當前路徑是否存在checkExists(path)for(partition <- JavaConversions.asScalaBuffer(client.getChildren.forPath(path))) {val fullPath = s"${path}/${partition}"val offset = new String(client.getData.forPath(fullPath)).toLongoffsets.put(TopicAndPartition(topic, partition.toInt), offset)}}offsets.toMap}def storeOffsets(offsetRanges: Array[OffsetRange], group:String) = {for(offsetRange <- offsetRanges) {val topic = offsetRange.topicval partition = offsetRange.partitionval offset = offsetRange.untilOffsetval path = s"${topic}/${group}/${partition}"checkExists(path)client.setData().forPath(path, offset.toString.getBytes)}}def checkExists(path:String): Unit = {if(client.checkExists().forPath(path) == null) {//路徑不能存在client.create().creatingParentsIfNeeded().forPath(path)}}val client = {val client = CuratorFrameworkFactory.builder().connectString("bigdata01:2181,bigdata02:2181,bigdata03:2181").retryPolicy(new ExponentialBackoffRetry(1000, 3)).namespace("kafka/consumers/offsets").build()client.start()client} }

(5)redis管理offset

導入redis的maven依賴

<dependency><groupId>redis.clients</groupId><artifactId>jedis</artifactId><version>2.9.0</version> </dependency>

redis的操作工具類:

//入口類:Jedis -->代表的是redis的一個客戶端連接,相當于Connection public class JedisUtil {static JedisPool pool;static {JedisPoolConfig config = new JedisPoolConfig();String host = "bigdata01";int port = 6379;pool = new JedisPool(config, host, port);}public static Jedis getJedis() {return pool.getResource();}public static void release(Jedis jedis) {jedis.close();} } /*基于direct方式整合kafka使用redis手動管理offset*/object KafkaDirectRedisOps {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)val conf = new SparkConf().setAppName("KafkaDirectRedisOps").setMaster("local")val duration = Seconds(2)val ssc = new StreamingContext(conf, duration)val kafkaParams = Map[String, String]("bootstrap.servers" -> "bigdata01:9092,bigdata02:9092,bigdata03:9092","group.id" -> "redisOps","auto.offset.reset" -> "smallest")val topics = "spark".split(",").toSetval messages: InputDStream[(String, String)] = createMsg(ssc, kafkaParams, topics)messages.foreachRDD((rdd, bTime) => {if(!rdd.isEmpty()) {println("-------------------------------------------")println(s"Time: $bTime")println("count: " + rdd.count())storeOffsets(rdd.asInstanceOf[HasOffsetRanges].offsetRanges, kafkaParams("group.id"))println("-------------------------------------------")}})ssc.start()ssc.awaitTermination()}/*從zk中讀取手動保存offset信息,然后從kafka指定offset位置開始讀取數據,當然如果沒有讀取到offset信息,那么從最開始或者從最新的位置開始讀取信息*/def createMsg(ssc: StreamingContext, kafkaParams: Map[String, String], topics: Set[String]): InputDStream[(String, String)] = {//從zk中讀取offsetval fromOffsets: Map[TopicAndPartition, Long] = getFromOffsets(topics)var messages: InputDStream[(String, String)] = nullif(fromOffsets.isEmpty) {//沒有讀到offsetmessages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topics)} else {//讀取到了offset,從指定位置開始讀取val messageHandler = (msgHandler:MessageAndMetadata[String, String]) => (msgHandler.key(), msgHandler.message())messages = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder, (String, String)](ssc,kafkaParams, fromOffsets, messageHandler)}messages}/*從redis中讀取offset信息K-V首先,定義offset交互的信息,比如數據的存放位置,存放格式topic partition offset group五種數據結構:stringtopic|group|partition offsetlistabchashkey field-value ...topic group|partition offsetgroup topic|partition offsetsetzset其次,用什么和redis中交互*/def getFromOffsets(topics:Set[String]):Map[TopicAndPartition, Long] = {val offsets = mutable.Map[TopicAndPartition, Long]()val jedis = JedisUtil.getJedisfor (topic <- topics) {val gpo = jedis.hgetAll(topic)for((gp, offset) <- gpo) {val partition = gp.substring(gp.indexOf("|") + 1).toIntoffsets.put(TopicAndPartition(topic, partition), offset.toLong)}}JedisUtil.release(jedis)offsets.toMap}def storeOffsets(offsetRanges: Array[OffsetRange], group:String) = {val jedis = JedisUtil.getJedisfor(offsetRange <- offsetRanges) {val topic = offsetRange.topicval partition = offsetRange.partition//untilOffset:結束offsetval offset = offsetRange.untilOffsetval gp = s"${group}|${partition}"jedis.hset(topic, gp, offset.toString)}JedisUtil.release(jedis)} }

6?消費kafka的時候常見的問題

6.1?生產速率過高

問題描述:SparkStreaming程序消費的能力要低于拉取kafka數據的能力,久而久之會造成數據的堆積,產生比如數據存儲壓力,計算壓力,造成程序異常。

(1)解決方式一:提高消費能力

提高消費能力,最簡單的就是提高并行度,在SparkStreaming基于Direct模式下增加topic的partition個數

(2)解決方式二:限流

添加一個配置參數即可——spark.streaming.kafka.maxRatePerPartition(基于Direct模式,每秒從每一個kafka 分區中讀取到的最大的記錄條數。

假設有一個Topic,分區有3個,streaming程序的batchInterval=2s,配置的改參數為spark.streaming.kafka.maxRatePerPartition=200,請問該stremaing程序每個批次最多能讀取:2 * 3 * 200 = 1200

6.2?偏移量過期

解決方案:每次從zk中讀到偏移量的之后,和當前Kafka topic partition的offset進行比較,如果異常,在讀取數據之前進行offset修正。如果zk中保存到的偏移量小于kafka讀取到的偏移量,將其設置為最小偏移量,反之設置為最大偏移量。

7 DStream常見的的transformation

map(func)對DStream中的各個元素進行func函數操作,返回返回一個新的DStream
flatMap(func)與map方法類似,不過各個輸入項可以被輸出為零個或多個輸出項
filter(func)過濾出所有函數返回值為true的DStream元素并返回一個新的DStream
repartition(numPartition)增加或減少DStream中的分區數,從而改變DStream的并行度
union(otherDStream)將源DSTream和輸入參數為otherDStream的元素合并,返回一個新的DStream
count()通過對DStream中的各個RDD中的元素進行計數,然后返回只有一個元素的RDD構成一個DStream
reduce(func)通過對DStream中的各個RDD中的元素利用func進行聚合操作,然后返回只有一個元素的RDD構成一個DStream
countByValue()對于元素類型為K的DStream,返回一個元素為(K,Long)鍵值對形式的新的DStream,Long對應的值為源DStream中各個RDD的key出現的次數
reduceByKey(func,[numTasks])利用func函數對源DStream中的key進行聚合操作,返回返回新的(K,V)對構成DStream
join(otherDStream,[numTasks])輸入為(K,V),(K,W)類型的DStream,返回一個新的(K,(V,W))類型的DStream
cogroup(otherDStream,[numTasks])輸入為(K,V),(K,W)類型的DStream,返回一個新的(K,(Seq[V],Seq[W]))類型的DStream
transform(func)通過對RDD-to-RDD函數作用域源碼DStream中的各個RDD,可以是任意的RDD操作,返回一個新的RDD
updateStateByKey(func)根據key的前置狀態和key的新志,對比key進行更新,返回一個新狀態的DStream
window函數?

(1)cogroup:ogroup就是groupByKey的另外一種變體,groupByKey是操作一個K-V鍵值對,而cogroup一次操作兩個,有點像join,不同之處在于返回值結果:

val ds1:DStream[(K, V)] val ds2:DStream[(K, w)] val cg:DStream[(K, (Iterable[V], Iterable[W]))] = ds1.cogroup(ds1)

(2)transform:DStream提供的所有的transformation操作,除transform外都是DStream-2-DStream操作,沒有一個DStream和RDD的直接操作,而DStream本質上是一系列RDD,所以RDD-2-RDD操作是顯然被需要的,所以此時官方api中提供了一個為了達成此操作的算子——transform操作。

最常見的就是DStream和rdd的join操作,還有DStream重分區(分區減少,coalsce)。也就是說transform主要就是用來自定義官方api沒有提供的一些操作。

下個舉個例子說明transform:動態黑名單過濾,利用SparkStreaming的流處理特性,可實現實時黑名單的過濾實現。可以使用leftouter join 對目標數據和黑名單數據進行關聯,將命中黑名單的數據過濾掉。

/*** 在線黑名單過濾** 需求:* 從用戶請求的nginx日志中過濾出黑名單的數據,保留白名單數據進行后續業務統計。* data structure* 27.19.74.143##2016-05-30 17:38:20##GET /static/image/common/faq.gif HTTP/1.1##200##1127*/ object lineBlacklistFilterOps {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)val conf = new SparkConf().setAppName("lineBlacklistFilterOps").setMaster("local[*]")val duration = Seconds(2)val ssc = new StreamingContext(conf, duration)//自定義一個簡單的黑名單RDDval blacklistRDD:RDD[(String, Boolean)] = ssc.sparkContext.parallelize(List(("27.19.74.143", true),("110.52.250.126", true)))//接入外部的數據流val lines:DStream[String] = ssc.socketTextStream("bigdata01", 9999)//黑名單過濾 // 110.52.250.126##2016-05-30 17:38:20##GET /data/cache/style_1_widthauto.css?y7a HTTP/1.1##200##1292val ip2OtherDStream:DStream[(String, String)] = lines.map(line => {val index = line.indexOf("##")val ip = line.substring(0, index)val other = line.substring(index + 2)(ip, other)})val filteredDStream:DStream[(String, String)] = ip2OtherDStream.transform(rdd => {val join = rdd.leftOuterJoin(blacklistRDD)join.filter{case (ip, (left, right)) => {!right.isDefined}}.map{case (ip, (left, right)) => {(ip, left)}}})filteredDStream.print()//重分區 // filteredDStream.transform(_.coalesce(8))ssc.start()ssc.awaitTermination()} }

(3)updateStateByKey:根據于key的前置狀態和key的新值,對key進行更新,返回一個新狀態的Dstream。其實就是統計截止到目前為止key的值。

通過分析,在這個操作中需要兩個數據,一個是key的前置狀態,一個是key的新增(當前批次的數據);還有歷史數據(前置狀態)得需要存儲在磁盤,不應該保存在內存中。同時key的前置狀態可能有可能沒有。

為了達到這個目的,最直接就得需要一個位置來存儲當前key的歷史的狀態。在SparkStreaming中,這個位置就存儲在checkpoint的目錄中。得需要兩個步驟:第一,定義狀態;第二,定義狀態函數。

舉例說明:計算截止到目前為止的全網總交易額,總流量

object SparkStreamingUSBOps {def main(args: Array[String]): Unit = {if(args == null || args.length < 3) {println("""|Parameter Errors ! Usage: <batchInterval> <host> <port>""".stripMargin)System.exit(-1)}val Array(batchInterval, host, port) = args //模式匹配val conf = new SparkConf().setAppName("SparkStreamingUSBOps").setMaster("local[*]")val checkpoint = "file:///E:/data/chk"def createFunc():StreamingContext = {val ssc = new StreamingContext(conf, Seconds(batchInterval.toLong))ssc.checkpoint(checkpoint)val linesDStream:ReceiverInputDStream[String] = ssc.socketTextStream(host, port.toInt)val pairs = linesDStream.flatMap(_.split("\\s+")).map((_, 1))//更新key的狀態val usb:DStream[(String, Int)] = pairs.updateStateByKey[Int]((seq, option) => updateFunc(seq, option))usb.print()ssc}/*** getActiveOrCreate: 獲的一個Active的StreamingContext或者創建一個信息* getOrCreate: 創建一個或者恢復一個*/val ssc = StreamingContext.getOrCreate(checkpoint, createFunc)ssc.start()ssc.awaitTermination()}/***基于key的前置狀態,和當前狀態進行合并,轉化為最新的狀態* 現在要統計總交易額:* 數據實時被打進計算系統。* long sum = 0;* 每一個批次的值:newValue* 總交易:sum += newValue* 前置狀態* 去年的時候,reduel的18歲,* 今年,refuel:19歲* @param current 當前批次的key對應的vlaue* @param previous 當前key對應的前置狀態,可能有,可能沒有* @return*/def updateFunc(current:Seq[Int], previous:Option[Int]): Option[Int] = {println(s"current: ${current.mkString(",")}--->previous: ${previous}") // var sum = 0 // for(cur <- current) { // sum += cur // } // val historyVal = previous.getOrElse(0) // sum += historyVal // // Option(sum)Option(current.sum + previous.getOrElse(0))} }

(4)window:窗口函數

是一個在流式計算領域中普遍都存在的一個概念——窗口函數。指的是一個窗口的數據,因為在Streaming中,每次計算的是一個批次的數據。這個窗口的概念跨域了批次,也就是說同時計算的數據,可以是多個批次的。

這個窗口操作,需要兩個參數:windowLength窗口長度;slidingInterval計算頻率或者滑動頻率。

每隔M長的時間,去統計過去N長時間產生的數據。M就是slidingInterval,N就是windowLength。

注意:此時不再以前的每個批次都提交一次作業,多個批次的數據合并到一起一同提交,所以需要擁有足夠的內存容納下下多個批次的數據。同時這里的streaming統計都是基于batchInterval來進行提交的,所以這里的windowLength和slidingInterval必須都是batchInterval(批處理時間間隔)的整數倍

舉例說明如下:

/*** 基于window的窗口函數操作* 基本上所有的dstream的算子函數都有對應的window操作* 每隔2個時間單位,統計過去3個時間單位的數據* 1 2 3 4 5* ① ②*/ object parkStreamingWindowsOps {def main(args: Array[String]): Unit = {if(args == null || args.length < 3) {println("""|Parameter Errors ! Usage: <batchInterval> <host> <port>""".stripMargin)System.exit(-1)}val Array(batchInterval, host, port) = args //模式匹配val windowLen = Seconds(batchInterval.toLong * 3)val slidingDuration = Seconds(batchInterval.toLong * 2)val conf = new SparkConf().setAppName("parkStreamingWindowsOps").setMaster("local[*]")val ssc = new StreamingContext(conf, Seconds(batchInterval.toLong))val lines = ssc.socketTextStream(host, port.toInt)val ret = lines.flatMap(_.split("\\s+")).map((_, 1)).reduceByKeyAndWindow((v1:Int, v2:Int) => reduceFunc(v1, v2),windowLen,slidingDuration)ret.print()ssc.start()ssc.awaitTermination()}def reduceFunc(v1:Int, v2:Int):Int = v1 + v2 }

8?緩存和CheckPoint機制

8.1?緩存持久化

其實和RDD的持久化一樣,通過persist()方法來實現。需要指定持久化策略,大多算子默認情況下,持久化策略為MEMORY_AND_DISK_SER_2。

8.2?checkpoint機制

(1)為什么需要checkpoint

每一個Spark Streaming應用,正常來說,都是要7*24小時運轉的,這就是實時計算程序的特點。因為要持續不斷的對數據進行計算。因此,對實時計算應用的要求,應該是必須要能夠對與應用程序邏輯無關的失敗,進行容錯。

如果要實現這個目標,Spark Streaming程序就必須將足夠的信息checkpoint到容錯的存儲系統上,從而讓它能夠從失敗中進行恢復。

(2)Checkpoint相關

①???????元數據

配置信息:創建Spark Streaming應用程序的配置信息,比如SparkConf中的信息

DStream操作信息:定義了Spark Stream應用程序的計算邏輯的DStream操作信息。

未處理的batch信息:那些job正在排隊,還沒處理的batch信息。

②數據

對于一些將多個batch的數據進行聚合的,有狀態的transformation操作,這是非常有用的。在這種transformation操作中,生成的RDD是依賴于之前的batch的RDD的,這會導致隨著時間的推移,RDD的依賴鏈條變得越來越長。要避免由于依賴鏈條越來越長,導致的一起變得越來越長的失敗恢復時間,有狀態的transformation操作執行過程中間產生的RDD,會定期地被checkpoint到可靠的存儲系統上,比如HDFS。從而削減RDD的依賴鏈條,進而縮短失敗恢復時,RDD的恢復時間

(3)???????啟動checkpoint

ssc.checkpoint(path)

注意:要注意的是,并不是說,所有的Spark Streaming應用程序,都要啟用checkpoint機制,如果即不強制要求從Driver失敗中自動進行恢復,又沒使用有狀態的transformation操作,那么就不需要啟用checkpoint。事實上,這么做反而是有助于提升性能的。

使用了有狀態的transformation操作——比如updateStateByKey,或者reduceByKeyAndWindow操作,被使用了,那么checkpoint目錄要求是必須提供的,也就是必須開啟checkpoint機制,從而進行周期性的RDD checkpoint。?

①開啟的方式

普通的checkpoint就使用上述的checkpoint即可,但是如果是driver要從失敗中進行恢復,就行修改程序。主要修改的就是StreamingContext的構建方式val ssc = StreamingContext.getOrCreate(checkpoint, func)

/*offset的checkpoint(檢查點)把需要管理的相關數據保存在某一個目錄下面,后續的時候直接從該目錄中讀取即可,在此處就是保存offset數據*/ object CheckpointWithKafkaDirectOps {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)val conf = new SparkConf().setAppName("CheckpointWithKafkaDirectOps").setMaster("local")val duration = Seconds(2)val checkpoint = "file:///E:/data/chk"def createFunc():StreamingContext = {val ssc = new StreamingContext(conf, duration)ssc.checkpoint(checkpoint)val kafkaParams = Map[String, String]("bootstrap.servers" -> "bigdata01:9092,bigdata02:9092,bigdata03:9092","group.id" -> "Checkpoint","auto.offset.reset" -> "smallest")val topics = "spark".split(",").toSetval messages: InputDStream[(String, String)] = KafkaUtils.createDirectStream[String, String, StringDecoder, StringDecoder](ssc, kafkaParams, topics)messages.foreachRDD((rdd, bTime) => {if(!rdd.isEmpty()) {println("num: " + rdd.getNumPartitions)val offsetRDD = rdd.asInstanceOf[HasOffsetRanges]val offsetRanges = offsetRDD.offsetRangesfor(offsetRange <- offsetRanges) {val topic = offsetRange.topicval partition = offsetRange.partitionval fromOffset = offsetRange.fromOffsetval untilOffset = offsetRange.untilOffsetprintln(s"topic:${topic}\tpartition:${partition}\tstart:${fromOffset}\tend:${untilOffset}")}rdd.count()}})ssc}//創建或者恢復出來一個StreamingContextval ssc = StreamingContext.getOrCreate(checkpoint, createFunc)ssc.start()ssc.awaitTermination()} }

9?DriverHA

9.1 原理

由于流計算系統是長期運行、且不斷有數據流入,因此其Spark守護進程(Driver)的可靠性至關重要,它決定了Streaming程序能否一直正確地運行下去。 Driver實現HA的解決方案就是將元數據持久化,以便重啟后的狀態恢復。如圖一所示,Driver持久化的元數據包括: Block元數據(圖中的綠色箭頭):Receiver從網絡上接收到的數據,組裝成Block后產生的Block元數據; Checkpoint數據(圖中的橙色箭頭):包括配置項、DStream操作、未完成的Batch狀態、和生成的RDD數據等;

恢復計算(圖中的橙色箭頭):使用Checkpoint數據重啟driver,重新構造上下文并重啟接收器。恢復元數據塊(圖中的綠色箭頭):恢復Block元數據。

恢復未完成的作業(圖中的紅色箭頭):使用恢復出來的元數據,再次產生RDD和對應的job,然后提交到Spark集群執行。 通過如上的數據備份和恢復機制,Driver實現了故障后重啟、依然能恢復Streaming任務而不丟失數據,因此提供了系統級的數據高可靠。

9.2?DriverHA的配置

#!/bin/shSPARK_HOME=/home/refuel/opt/moudle/spark$SPARK_HOME/bin/spark-submit \ --master spark://bigdata01:7077 \ --deploy-mode cluster \ --class com.refuel.bigdata.streaming.SparkStreamingDriverHAOps \ --executor-memory 600M \ --executor-cores 2 \ --driver-cores 1 \ --supervise \ --total-executor-cores 3 \ hdfs://ns1/jars/spark/sparkstreaming-drverha.jar 2 bigdata01 9999 \ hdfs://ns1/checkpoint/spark/driverha

9.3?Driver代碼實現

object SparkStreamingDriverHAOps {def main(args: Array[String]): Unit = {Logger.getLogger("org.apache.hadoop").setLevel(Level.WARN)Logger.getLogger("org.apache.spark").setLevel(Level.WARN)Logger.getLogger("org.spark_project").setLevel(Level.WARN)if(args == null || args.length < 4) {System.err.println("""|Parameter Errors! Usage: <batchInterval> <host> <port> <checkpoint>""".stripMargin)System.exit(-1)}val Array(batchInterval, host, port, checkpoint) = argsval conf = new SparkConf().setAppName("SparkStreamingDriverHA").setMaster("local[*]")def createFunc():StreamingContext = {val ssc = new StreamingContext(conf, Seconds(batchInterval.toLong))ssc.checkpoint(checkpoint)val lines:DStream[String] = ssc.socketTextStream(host, port.toInt)val pairs:DStream[(String, Int)] = lines.flatMap(_.split("\\s+")).map((_, 1))val usb:DStream[(String, Int)] = pairs.updateStateByKey((seq, option) => Option(seq.sum + option.getOrElse(0)))usb.print()ssc}val ssc = StreamingContext.getOrCreate(checkpoint, createFunc)ssc.start()ssc.awaitTermination()} }

10.?Spark Streaming 性能調優

10.1????????設置合理的CPU

很多情況下Streaming程序需要的內存不是很多,但是需要的CPU要很多。在Streaming程序中,CPU資源的使用可以分為兩大類:

(1)用于接收數據;

(2)用于處理數據。我們需要設置足夠的CPU資源,使得有足夠的CPU資源用于接收和處理數據,這樣才能及時高效地處理數據。

10.2?接受數據的調優

(1)通過網絡接收數據時(比如Kafka、Flume、ZMQ、RocketMQ、RabbitMQ和ActiveMQ等),會將數據反序列化,并存儲在Spark的內存中。

(2)如果數據接收成為系統的瓶頸,那么可以考慮并行化數據接收。每一個輸入DStream都會在某個Worker的Executor上啟動一個Receiver,該Receiver接收一個數據流。因此可以通過創建多個輸入DStream,并且配置它們接收數據源不同的分區數據,達到接收多個數據流的效果。

舉例說明:一個接收4個Kafka Topic的輸入DStream,可以被拆分為兩個輸入DStream,每個分別接收二個topic的數據。這樣就會創建兩個Receiver,從而并行地接收數據,進而提升吞吐量。多個DStream可以使用union算子進行聚合,從而形成一個DStream。然后后續的transformation算子操作都針對該一個聚合后的DStream即可。

(3)使用inputStream.repartition(<number of partitions>)即可。這樣就可以將接收到的batch,分布到指定數量的機器上,然后再進行進一步的操作。

(4)數據接收并行度調優,除了創建更多輸入DStream和Receiver以外,還可以考慮調節block interval。通過參數,spark.streaming.blockInterval,可以設置block interval,默認是200ms。對于大多數Receiver來說,在將接收到的數據保存到Spark的BlockManager之前,都會將數據切分為一個一個的block。而每個batch中的block數量,則決定了該batch對應的RDD的partition的數量,以及針對該RDD執行transformation操作時,創建的task的數量。每個batch對應的task數量是大約估計的,即batch interval / block interval

舉個例子:①batch interval為3s,block interval為150ms,會創建20個task。如果你認為每個batch的task數量太少,即低于每臺機器的cpu core數量,那么就說明batch的task數量是不夠的,因為所有的cpu資源無法完全被利用起來。要為batch增加block的數量,那么就減小block interval。

②推薦的block interval最小值是50ms,如果低于這個數值,那么大量task的啟動時間,可能會變成一個性能開銷點。

10.3?設置合理的并行度

如果在計算的任何stage中使用的并行task的數量沒有足夠多,那么集群資源是無法被充分利用的。舉例來說,對于分布式的reduce操作,比如reduceByKey和reduceByKeyAndWindow,默認的并行task的數量是由spark.default.parallelism參數決定的。你可以在reduceByKey等操作中,傳入第二個參數,手動指定該操作的并行度,也可以調節全局的spark.default.parallelism參數。該參數說的是,對于那些shuffle的父RDD的最大的分區數據。對于parallelize或者textFile這些輸入算子,因為沒有父RDD,所以依賴于ClusterManager的配置。如果是local模式,該默認值是local[x]中的x;如果是mesos的細粒度模式,該值為8,其它模式就是Math.max(2, 所有的excutor上的所有的core的總數)。

10.4?序列化調優

數據序列化造成的系統開銷可以由序列化格式的優化來減小。在流式計算的場景下,有兩種類型的數據需要序列化。

①輸入數據:默認情況下,接收到的輸入數據,是存儲在Executor的內存中的,使用的持久化級別是StorageLevel.MEMORY_AND_DISK_SER_2。這意味著,數據被序列化為字節從而減小GC開銷,并且會復制以進行executor失敗的容錯。因此,數據首先會存儲在內存中,然后在內存不足時會溢寫到磁盤上,從而為流式計算來保存所有需要的數據。這里的序列化有明顯的性能開銷——Receiver必須反序列化從網絡接收到的數據,然后再使用Spark的序列化格式序列化數據。

②流式計算操作生成的持久化RDD:流式計算操作生成的持久化RDD,可能會持久化到內存中。例如,窗口操作默認就會將數據持久化在內存中,因為這些數據后面可能會在多個窗口中被使用,并被處理多次。然而,不像Spark Core的默認持久化級別,StorageLevel.MEMORY_ONLY,流式計算操作生成的RDD的默認持久化級別是StorageLevel.MEMORY_ONLY_SER ,默認就會減小GC開銷。

在上述的場景中,使用Kryo序列化類庫可以減小CPU和內存的性能開銷。使用Kryo時,一定要考慮注冊自定義的類,并且禁用對應引用的tracking(spark.kryo.referenceTracking)。

10.5????????batchInterval

如果想讓一個運行在集群上的Spark Streaming應用程序可以穩定,它就必須盡可能快地處理接收到的數據。換句話說,batch應該在生成之后,就盡可能快地處理掉。對于一個應用來說,這個是不是一個問題,可以通過觀察Spark UI上的batch處理時間來定。batch處理時間必須小于batch interval時間。

?在構建StreamingContext的時候,需要我們傳進一個參數,用于設置Spark Streaming批處理的時間間隔。Spark會每隔batchDuration時間去提交一次Job,如果你的Job處理的時間超過了batchDuration的設置,那么會導致后面的作業無法按時提交,隨著時間的推移,越來越多的作業被拖延,最后導致整個Streaming作業被阻塞,這就間接地導致無法實時處理數據,這肯定不是我們想要的。

  另外,雖然batchDuration的單位可以達到毫秒級別的,但是經驗告訴我們,如果這個值過小將會導致因頻繁提交作業從而給整個Streaming帶來負擔,所以請盡量不要將這個值設置為小于500ms。在很多情況下,設置為500ms性能就很不錯了。

  那么,如何設置一個好的值呢?我們可以先將這個值位置為比較大的值(比如10S),如果我們發現作業很快被提交完成,我們可以進一步減小這個值,知道Streaming作業剛好能夠及時處理完上一個批處理的數據,那么這個值就是我們要的最優值。

10.6?內存調優

內存調優的另外一個方面是垃圾回收。對于流式應用來說,如果要獲得低延遲,肯定不想要有因為JVM垃圾回收導致的長時間延遲。有很多參數可以幫助降低內存使用和GC開銷:

①DStream的持久化:正如在“數據序列化調優”一節中提到的,輸入數據和某些操作生產的中間RDD,默認持久化時都會序列化為字節。與非序列化的方式相比,這會降低內存和GC開銷。使用Kryo序列化機制可以進一步減少內存使用和GC開銷。進一步降低內存使用率,可以對數據進行壓縮,由spark.rdd.compress參數控制(默認false)。

②清理舊數據:默認情況下,所有輸入數據和通過DStream transformation操作生成的持久化RDD,會自動被清理。Spark Streaming會決定何時清理這些數據,取決于transformation操作類型。例如,你在使用窗口長度為10分鐘內的window操作,Spark會保持10分鐘以內的數據,時間過了以后就會清理舊數據。但是在某些特殊場景下,比如Spark SQL和Spark Streaming整合使用時,在異步開啟的線程中,使用Spark SQL針對batch RDD進行執行查詢。那么就需要讓Spark保存更長時間的數據,直到Spark SQL查詢結束。可以使用streamingContext.remember()方法來實現。

③CMS垃圾回收器:使用并行的mark-sweep垃圾回收機制,被推薦使用,用來保持GC低開銷。雖然并行的GC會降低吞吐量,但是還是建議使用它,來減少batch的處理時間(降低處理過程中的gc開銷)。如果要使用,那么要在driver端和executor端都開啟。在spark-submit中使用--driver-java-options設置;使用spark.executor.extraJavaOptions參數設置。-XX:+UseConcMarkSweepGC。

?

總結

以上是生活随笔為你收集整理的SparkStreaming基础的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

亚洲一区二区三区偷拍女厕 | 色婷婷欧美在线播放内射 | 丰满人妻一区二区三区免费视频 | 精品久久综合1区2区3区激情 | www国产亚洲精品久久网站 | 久久久精品国产sm最大网站 | 强伦人妻一区二区三区视频18 | 中文字幕无码免费久久99 | 四虎永久在线精品免费网址 | 国产精品亚洲综合色区韩国 | 久久熟妇人妻午夜寂寞影院 | 国产成人无码a区在线观看视频app | 性做久久久久久久免费看 | 中文字幕 人妻熟女 | 一区二区三区乱码在线 | 欧洲 | 永久黄网站色视频免费直播 | 国产精品第一区揄拍无码 | 久久久久av无码免费网 | 中文字幕无码av激情不卡 | 精品欧美一区二区三区久久久 | 丰满人妻一区二区三区免费视频 | 日日碰狠狠丁香久燥 | 鲁鲁鲁爽爽爽在线视频观看 | 国产卡一卡二卡三 | 天天做天天爱天天爽综合网 | 日韩av激情在线观看 | 日本高清一区免费中文视频 | 亚洲欧美国产精品久久 | 久久熟妇人妻午夜寂寞影院 | 天天综合网天天综合色 | 无码人妻av免费一区二区三区 | 中文字幕无码热在线视频 | 熟女体下毛毛黑森林 | 日韩人妻无码一区二区三区久久99 | 国产无遮挡吃胸膜奶免费看 | 欧美人与禽猛交狂配 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 蜜臀av在线播放 久久综合激激的五月天 | 国产人妻大战黑人第1集 | 丰满人妻一区二区三区免费视频 | 国产精品va在线观看无码 | 亚洲一区二区三区无码久久 | 亚洲精品美女久久久久久久 | 久久国产自偷自偷免费一区调 | 亚洲成av人影院在线观看 | 国产精品久久国产精品99 | aⅴ在线视频男人的天堂 | 亚洲欧洲无卡二区视頻 | 全球成人中文在线 | 国产激情综合五月久久 | 丰满少妇弄高潮了www | 色婷婷av一区二区三区之红樱桃 | 国产无遮挡吃胸膜奶免费看 | 清纯唯美经典一区二区 | 无码国模国产在线观看 | 国产精品无码成人午夜电影 | 97无码免费人妻超级碰碰夜夜 | 亚洲啪av永久无码精品放毛片 | 亚洲色偷偷偷综合网 | 亚洲欧美日韩国产精品一区二区 | 国产精品无码永久免费888 | 未满成年国产在线观看 | 无码人妻精品一区二区三区不卡 | 国产无套内射久久久国产 | 久久人人爽人人爽人人片ⅴ | 日日天干夜夜狠狠爱 | 高中生自慰www网站 | 亚洲日韩av片在线观看 | 国产精品免费大片 | 4hu四虎永久在线观看 | 无码国产激情在线观看 | 国产亚洲精品久久久久久大师 | 丝袜人妻一区二区三区 | 久久99精品国产.久久久久 | 日韩成人一区二区三区在线观看 | 久久精品一区二区三区四区 | 在线观看国产一区二区三区 | 欧美激情综合亚洲一二区 | 亚洲国产精品美女久久久久 | 天堂а√在线中文在线 | 成年女人永久免费看片 | 亚洲成av人片天堂网无码】 | 国产婷婷色一区二区三区在线 | 婷婷丁香六月激情综合啪 | 国产成人无码午夜视频在线观看 | 亚洲中文字幕无码中文字在线 | 最新版天堂资源中文官网 | 亚洲一区二区三区无码久久 | 人人妻人人澡人人爽人人精品 | 亚洲性无码av中文字幕 | 成人女人看片免费视频放人 | 亚洲国产av精品一区二区蜜芽 | 欧美激情综合亚洲一二区 | 亚洲熟妇色xxxxx欧美老妇 | 国产一区二区三区四区五区加勒比 | 国产精品久久久午夜夜伦鲁鲁 | 亚洲男人av香蕉爽爽爽爽 | 日韩 欧美 动漫 国产 制服 | 亚洲综合色区中文字幕 | 国产内射老熟女aaaa | 巨爆乳无码视频在线观看 | 丰满少妇女裸体bbw | 色婷婷香蕉在线一区二区 | 激情综合激情五月俺也去 | 国产午夜福利亚洲第一 | 亚洲成a人片在线观看无码 | 色窝窝无码一区二区三区色欲 | 久久国产自偷自偷免费一区调 | 久久视频在线观看精品 | 国产xxx69麻豆国语对白 | 九九热爱视频精品 | 国内精品久久毛片一区二区 | 午夜性刺激在线视频免费 | 国产精品毛多多水多 | 欧美性生交活xxxxxdddd | 日日夜夜撸啊撸 | 国产莉萝无码av在线播放 | 亚洲色www成人永久网址 | 欧美亚洲日韩国产人成在线播放 | 国产精品香蕉在线观看 | av人摸人人人澡人人超碰下载 | 男人扒开女人内裤强吻桶进去 | 乱人伦中文视频在线观看 | 老子影院午夜精品无码 | 亚洲中文字幕av在天堂 | 日韩人妻少妇一区二区三区 | 亚洲综合无码久久精品综合 | 国产激情无码一区二区app | 波多野结衣av一区二区全免费观看 | 又粗又大又硬又长又爽 | 亚洲第一无码av无码专区 | 国产偷国产偷精品高清尤物 | 亚洲小说春色综合另类 | 未满小14洗澡无码视频网站 | 日本一卡2卡3卡四卡精品网站 | 色婷婷欧美在线播放内射 | 中文久久乱码一区二区 | 乱人伦中文视频在线观看 | 97久久精品无码一区二区 | av在线亚洲欧洲日产一区二区 | 国产精品久久久久久久9999 | 任你躁国产自任一区二区三区 | 国产精品久久久一区二区三区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 午夜熟女插插xx免费视频 | 久久久久久久人妻无码中文字幕爆 | aⅴ在线视频男人的天堂 | 丰满少妇弄高潮了www | 欧美性猛交xxxx富婆 | 无码中文字幕色专区 | 麻豆国产人妻欲求不满谁演的 | 黑人玩弄人妻中文在线 | 国产成人综合色在线观看网站 | 亚洲成av人在线观看网址 | 福利一区二区三区视频在线观看 | 久久精品人妻少妇一区二区三区 | 人人超人人超碰超国产 | 黑人巨大精品欧美一区二区 | 毛片内射-百度 | 国产精品久久久久影院嫩草 | 国产一区二区三区日韩精品 | 国产精品久久久av久久久 | 国产两女互慰高潮视频在线观看 | 人人妻人人澡人人爽人人精品浪潮 | 久久精品一区二区三区四区 | 亚洲精品美女久久久久久久 | 在线看片无码永久免费视频 | 1000部啪啪未满十八勿入下载 | 无码毛片视频一区二区本码 | 88国产精品欧美一区二区三区 | 久久久久se色偷偷亚洲精品av | 国产网红无码精品视频 | 强开小婷嫩苞又嫩又紧视频 | 又紧又大又爽精品一区二区 | 久久人人爽人人爽人人片ⅴ | 成人av无码一区二区三区 | 麻豆国产人妻欲求不满谁演的 | 久久久精品欧美一区二区免费 | 国产精品igao视频网 | 色五月丁香五月综合五月 | 亚洲综合伊人久久大杳蕉 | 波多野结衣 黑人 | 国产无遮挡吃胸膜奶免费看 | 成年美女黄网站色大免费全看 | 欧美激情一区二区三区成人 | 两性色午夜视频免费播放 | 黑人粗大猛烈进出高潮视频 | 国产精品人人妻人人爽 | 又粗又大又硬毛片免费看 | 无码国内精品人妻少妇 | 日韩在线不卡免费视频一区 | 激情亚洲一区国产精品 | 少妇无码av无码专区在线观看 | 久久综合网欧美色妞网 | 欧洲精品码一区二区三区免费看 | 久久久久免费看成人影片 | 人人妻人人澡人人爽欧美一区九九 | 麻豆果冻传媒2021精品传媒一区下载 | 九九综合va免费看 | 97夜夜澡人人爽人人喊中国片 | 2019午夜福利不卡片在线 | 亚洲色欲色欲欲www在线 | 国产成人精品三级麻豆 | 精品偷自拍另类在线观看 | 精品日本一区二区三区在线观看 | 亚洲娇小与黑人巨大交 | 国产亚av手机在线观看 | 亚洲精品一区二区三区在线 | 国产区女主播在线观看 | 日日橹狠狠爱欧美视频 | 久久视频在线观看精品 | 水蜜桃av无码 | 欧美三级a做爰在线观看 | 国产成人av免费观看 | 久久精品无码一区二区三区 | 美女毛片一区二区三区四区 | 久久人人97超碰a片精品 | 亚洲自偷自拍另类第1页 | 欧美35页视频在线观看 | 玩弄人妻少妇500系列视频 | 国产精品二区一区二区aⅴ污介绍 | 日欧一片内射va在线影院 | 无码精品国产va在线观看dvd | 人人妻人人澡人人爽精品欧美 | 又湿又紧又大又爽a视频国产 | 国产亚洲精品久久久闺蜜 | 久久人人爽人人爽人人片av高清 | 欧美熟妇另类久久久久久不卡 | 亚洲精品久久久久久一区二区 | 国产亚洲精品精品国产亚洲综合 | 福利一区二区三区视频在线观看 | 内射后入在线观看一区 | 又湿又紧又大又爽a视频国产 | 水蜜桃亚洲一二三四在线 | 国产精品资源一区二区 | 亚洲国产精品美女久久久久 | 日韩精品成人一区二区三区 | 亚洲小说图区综合在线 | 国产精品理论片在线观看 | 欧美精品在线观看 | 亚洲精品国产精品乱码视色 | 131美女爱做视频 | 精品人妻中文字幕有码在线 | 无码人妻久久一区二区三区不卡 | 性色av无码免费一区二区三区 | 久久久中文字幕日本无吗 | 亚洲人成人无码网www国产 | 午夜时刻免费入口 | 精品人妻人人做人人爽 | 少妇久久久久久人妻无码 | 国产精品手机免费 | 亚洲国产精品久久久久久 | 福利一区二区三区视频在线观看 | 亚洲成a人一区二区三区 | 自拍偷自拍亚洲精品被多人伦好爽 | 少妇人妻av毛片在线看 | 四虎4hu永久免费 | 18无码粉嫩小泬无套在线观看 | 亚洲の无码国产の无码影院 | 欧美 丝袜 自拍 制服 另类 | 亚洲精品午夜无码电影网 | 波多野结衣高清一区二区三区 | 久久精品中文闷骚内射 | 无码免费一区二区三区 | 亚洲熟女一区二区三区 | 中文字幕无码乱人伦 | 亚洲国产成人av在线观看 | 又紧又大又爽精品一区二区 | 人妻少妇精品久久 | 欧美第一黄网免费网站 | 性生交片免费无码看人 | 国产在线aaa片一区二区99 | 国产亚洲精品久久久久久久久动漫 | 国产肉丝袜在线观看 | 成人一区二区免费视频 | 天海翼激烈高潮到腰振不止 | 妺妺窝人体色www婷婷 | 午夜性刺激在线视频免费 | 国产精品二区一区二区aⅴ污介绍 | 欧美成人家庭影院 | 免费国产黄网站在线观看 | 中文字幕无码免费久久99 | 精品国产一区二区三区四区 | 欧美老妇与禽交 | 欧美国产日韩亚洲中文 | 中文字幕乱码亚洲无线三区 | 国产av一区二区精品久久凹凸 | 国产精品爱久久久久久久 | 国产成人精品无码播放 | 国产又爽又猛又粗的视频a片 | а√资源新版在线天堂 | 鲁大师影院在线观看 | 国产精品人妻一区二区三区四 | 国产热a欧美热a在线视频 | 日韩少妇内射免费播放 | 东京无码熟妇人妻av在线网址 | 亚洲综合伊人久久大杳蕉 | 日本精品人妻无码77777 天堂一区人妻无码 | 国产 浪潮av性色四虎 | 中文字幕乱码人妻二区三区 | 老头边吃奶边弄进去呻吟 | 久久婷婷五月综合色国产香蕉 | 国产三级精品三级男人的天堂 | 亚洲日韩精品欧美一区二区 | 精品日本一区二区三区在线观看 | 激情亚洲一区国产精品 | 黑人巨大精品欧美一区二区 | 无码人妻精品一区二区三区下载 | 久久无码中文字幕免费影院蜜桃 | 久久久久久九九精品久 | 300部国产真实乱 | 少妇久久久久久人妻无码 | 午夜男女很黄的视频 | 国产精品亚洲专区无码不卡 | 无码任你躁久久久久久久 | 欧美自拍另类欧美综合图片区 | 国产精品久久久 | 精品国产一区二区三区四区 | 欧美性生交活xxxxxdddd | 在线精品亚洲一区二区 | 国产69精品久久久久app下载 | 国产内射老熟女aaaa | 综合网日日天干夜夜久久 | 中国女人内谢69xxxxxa片 | 黑人玩弄人妻中文在线 | 亚洲精品美女久久久久久久 | 白嫩日本少妇做爰 | 精品偷拍一区二区三区在线看 | www国产亚洲精品久久久日本 | 免费观看激色视频网站 | 国产激情一区二区三区 | 51国偷自产一区二区三区 | 国产在线无码精品电影网 | 日日噜噜噜噜夜夜爽亚洲精品 | 中文字幕中文有码在线 | 国产亚洲精品久久久久久久久动漫 | 东京一本一道一二三区 | 欧美日韩一区二区三区自拍 | 日本高清一区免费中文视频 | 免费播放一区二区三区 | 国产成人综合在线女婷五月99播放 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 中文字幕人妻无码一区二区三区 | 久久久久免费看成人影片 | 国产成人精品优优av | 国产精品人人爽人人做我的可爱 | 国产精品亚洲lv粉色 | 国产成人无码午夜视频在线观看 | 一本大道伊人av久久综合 | 性欧美牲交在线视频 | 国内精品久久毛片一区二区 | 欧美日韩一区二区综合 | 成 人 网 站国产免费观看 | 国内精品人妻无码久久久影院 | 国产精品无套呻吟在线 | 亚洲欧美日韩综合久久久 | 亚洲一区二区三区 | 久久精品国产日本波多野结衣 | 九九综合va免费看 | 美女黄网站人色视频免费国产 | 国产在线无码精品电影网 | 亚洲熟妇色xxxxx欧美老妇 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 波多野结衣高清一区二区三区 | 成熟女人特级毛片www免费 | 久热国产vs视频在线观看 | 丰满人妻一区二区三区免费视频 | 国产精品人人妻人人爽 | 亚洲国产精品毛片av不卡在线 | 高清无码午夜福利视频 | 国产人妖乱国产精品人妖 | 日韩少妇白浆无码系列 | 最近中文2019字幕第二页 | 日产国产精品亚洲系列 | 久久精品人妻少妇一区二区三区 | 亚洲欧美日韩国产精品一区二区 | 国产精品99爱免费视频 | 色婷婷久久一区二区三区麻豆 | 色综合久久中文娱乐网 | 欧美精品免费观看二区 | 国产成人精品无码播放 | 中文字幕无码免费久久99 | 精品人妻av区 | 无套内谢的新婚少妇国语播放 | 亚洲国产欧美国产综合一区 | 巨爆乳无码视频在线观看 | 精品夜夜澡人妻无码av蜜桃 | 欧美老妇与禽交 | 免费观看的无遮挡av | 欧美日韩一区二区三区自拍 | 国产精品人妻一区二区三区四 | 免费男性肉肉影院 | 美女极度色诱视频国产 | 狠狠噜狠狠狠狠丁香五月 | 无码精品国产va在线观看dvd | 国内精品九九久久久精品 | 久久精品人人做人人综合 | 丰满人妻一区二区三区免费视频 | 欧美性生交活xxxxxdddd | 欧美激情内射喷水高潮 | 丰满肥臀大屁股熟妇激情视频 | 中文字幕av无码一区二区三区电影 | 国产手机在线αⅴ片无码观看 | 亚洲人亚洲人成电影网站色 | 午夜肉伦伦影院 | 精品无码av一区二区三区 | 高潮喷水的毛片 | 黑人巨大精品欧美黑寡妇 | 中文无码精品a∨在线观看不卡 | 欧美激情内射喷水高潮 | 男女猛烈xx00免费视频试看 | 久久国语露脸国产精品电影 | 国产成人av免费观看 | 亚洲国产精品久久人人爱 | 波多野结衣av一区二区全免费观看 | 国产办公室秘书无码精品99 | 无码人妻久久一区二区三区不卡 | 亚洲成a人片在线观看无码3d | 亚洲爆乳无码专区 | 精品国产精品久久一区免费式 | 亚洲va欧美va天堂v国产综合 | 欧美精品一区二区精品久久 | 一二三四在线观看免费视频 | 在线视频网站www色 | 欧美日韩一区二区三区自拍 | 亚洲色在线无码国产精品不卡 | 四虎影视成人永久免费观看视频 | 国产精品美女久久久久av爽李琼 | 日日麻批免费40分钟无码 | 狠狠色色综合网站 | 色窝窝无码一区二区三区色欲 | 午夜福利不卡在线视频 | 色婷婷久久一区二区三区麻豆 | 少妇被粗大的猛进出69影院 | 日韩亚洲欧美中文高清在线 | 国产激情无码一区二区 | 天下第一社区视频www日本 | 狠狠cao日日穞夜夜穞av | 国产精品对白交换视频 | 宝宝好涨水快流出来免费视频 | 国产精品国产三级国产专播 | 国产乱码精品一品二品 | 亚洲精品综合一区二区三区在线 | 久久人人爽人人爽人人片ⅴ | 亚洲欧美精品伊人久久 | 亚洲精品中文字幕久久久久 | 玩弄少妇高潮ⅹxxxyw | 亚洲国产精品美女久久久久 | 成人免费视频一区二区 | 亚洲熟妇自偷自拍另类 | 女人被爽到呻吟gif动态图视看 | 欧美精品国产综合久久 | 伊人久久大香线蕉av一区二区 | 国产农村乱对白刺激视频 | 欧美怡红院免费全部视频 | 日本丰满熟妇videos | 欧美猛少妇色xxxxx | 国产综合在线观看 | 国产人妻精品一区二区三区 | 久久婷婷五月综合色国产香蕉 | 精品人妻中文字幕有码在线 | 内射白嫩少妇超碰 | 日欧一片内射va在线影院 | 国产熟女一区二区三区四区五区 | 亚洲精品国偷拍自产在线麻豆 | 久久精品国产亚洲精品 | 国内揄拍国内精品少妇国语 | 在线播放无码字幕亚洲 | 四虎永久在线精品免费网址 | 亚洲の无码国产の无码影院 | 大屁股大乳丰满人妻 | 色综合久久88色综合天天 | 日本精品久久久久中文字幕 | 又大又紧又粉嫩18p少妇 | 亚洲日韩av片在线观看 | 色诱久久久久综合网ywww | 欧美老妇与禽交 | 欧美老人巨大xxxx做受 | 国产三级久久久精品麻豆三级 | 蜜桃视频插满18在线观看 | 日欧一片内射va在线影院 | 国产人妻久久精品二区三区老狼 | 亚洲色在线无码国产精品不卡 | 成人综合网亚洲伊人 | 亚洲乱亚洲乱妇50p | 国产激情无码一区二区app | 牛和人交xxxx欧美 | 亚洲欧美国产精品专区久久 | 久久久久99精品成人片 | 人妻体内射精一区二区三四 | 欧美xxxx黑人又粗又长 | 中文字幕无码人妻少妇免费 | 人人妻人人澡人人爽精品欧美 | 欧美激情内射喷水高潮 | 色综合久久久无码中文字幕 | 女人被男人爽到呻吟的视频 | 成年女人永久免费看片 | 思思久久99热只有频精品66 | 图片小说视频一区二区 | www国产精品内射老师 | 久久精品中文字幕大胸 | 欧美人妻一区二区三区 | 国产乱人伦偷精品视频 | 欧美丰满熟妇xxxx | 日本精品少妇一区二区三区 | 色窝窝无码一区二区三区色欲 | 国产熟妇高潮叫床视频播放 | aⅴ亚洲 日韩 色 图网站 播放 | 日韩精品成人一区二区三区 | 中文字幕日韩精品一区二区三区 | 国产 浪潮av性色四虎 | 亚洲中文字幕在线无码一区二区 | 久久久精品456亚洲影院 | 樱花草在线播放免费中文 | 又紧又大又爽精品一区二区 | 国产精品久久久 | 日韩精品乱码av一区二区 | 亚洲色欲久久久综合网东京热 | 欧美乱妇无乱码大黄a片 | 精品久久8x国产免费观看 | 熟妇人妻无乱码中文字幕 | 东京无码熟妇人妻av在线网址 | 人妻夜夜爽天天爽三区 | 小sao货水好多真紧h无码视频 | 欧美第一黄网免费网站 | 天堂一区人妻无码 | 国产亚洲精品久久久久久大师 | 久久久久se色偷偷亚洲精品av | 久久久亚洲欧洲日产国码αv | 午夜精品一区二区三区的区别 | 国内揄拍国内精品少妇国语 | 欧美freesex黑人又粗又大 | 亚洲va中文字幕无码久久不卡 | 熟妇人妻无乱码中文字幕 | 国语自产偷拍精品视频偷 | 久久aⅴ免费观看 | 亚洲精品久久久久久久久久久 | 无码一区二区三区在线观看 | 国产一区二区三区日韩精品 | 亚洲 激情 小说 另类 欧美 | 欧美日韩亚洲国产精品 | 免费乱码人妻系列无码专区 | 亚洲一区二区三区在线观看网站 | 日本在线高清不卡免费播放 | 一二三四在线观看免费视频 | 一本久道久久综合婷婷五月 | 免费男性肉肉影院 | 国产精品美女久久久网av | 日韩精品无码免费一区二区三区 | 日本一卡2卡3卡四卡精品网站 | 无码人妻精品一区二区三区不卡 | 男人和女人高潮免费网站 | 欧美乱妇无乱码大黄a片 | 人人澡人人透人人爽 | 成人片黄网站色大片免费观看 | 老熟女重囗味hdxx69 | 青草视频在线播放 | 久久精品国产一区二区三区肥胖 | 亚洲精品国偷拍自产在线麻豆 | 嫩b人妻精品一区二区三区 | 亚洲 日韩 欧美 成人 在线观看 | 久久精品国产日本波多野结衣 | 国内丰满熟女出轨videos | 国精产品一品二品国精品69xx | 7777奇米四色成人眼影 | 色婷婷欧美在线播放内射 | 久久天天躁夜夜躁狠狠 | 扒开双腿疯狂进出爽爽爽视频 | 鲁大师影院在线观看 | 熟妇人妻无码xxx视频 | 久久精品人人做人人综合 | 性色欲网站人妻丰满中文久久不卡 | 97夜夜澡人人爽人人喊中国片 | 亚洲国产综合无码一区 | 少妇被黑人到高潮喷出白浆 | 国产精品美女久久久 | 免费观看的无遮挡av | 亚洲人成人无码网www国产 | 国产精品99久久精品爆乳 | 色欲久久久天天天综合网精品 | 国产真实乱对白精彩久久 | 久久99精品久久久久久动态图 | 免费网站看v片在线18禁无码 | 亚洲国产成人a精品不卡在线 | 好爽又高潮了毛片免费下载 | 国产熟妇另类久久久久 | 久久zyz资源站无码中文动漫 | 1000部夫妻午夜免费 | 男人的天堂av网站 | 国产午夜亚洲精品不卡 | 高潮喷水的毛片 | 国产又爽又黄又刺激的视频 | 欧美野外疯狂做受xxxx高潮 | 98国产精品综合一区二区三区 | 男人和女人高潮免费网站 | 2020久久超碰国产精品最新 | 免费人成网站视频在线观看 | 欧美人与禽猛交狂配 | 99久久亚洲精品无码毛片 | 清纯唯美经典一区二区 | 久久99精品久久久久久动态图 | 国产一区二区三区影院 | 国产精品无码mv在线观看 | 亚洲精品成人福利网站 | av在线亚洲欧洲日产一区二区 | 亚洲精品美女久久久久久久 | 精品国产成人一区二区三区 | 狠狠色丁香久久婷婷综合五月 | 无码人妻av免费一区二区三区 | 欧美freesex黑人又粗又大 | 久久久久国色av免费观看性色 | 久久这里只有精品视频9 | 免费无码午夜福利片69 | 在教室伦流澡到高潮hnp视频 | 国产精品.xx视频.xxtv | 国产精品对白交换视频 | 中文字幕无线码免费人妻 | 国产超级va在线观看视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 欧美性黑人极品hd | 国产精品美女久久久久av爽李琼 | 99精品久久毛片a片 | 亚洲色www成人永久网址 | 一本色道久久综合狠狠躁 | 99riav国产精品视频 | 377p欧洲日本亚洲大胆 | 久久无码人妻影院 | 日韩欧美群交p片內射中文 | 国产av无码专区亚洲awww | 久久国产36精品色熟妇 | 亚洲中文字幕无码中文字在线 | 国产猛烈高潮尖叫视频免费 | 熟妇人妻激情偷爽文 | 亚洲色偷偷男人的天堂 | 俄罗斯老熟妇色xxxx | 露脸叫床粗话东北少妇 | 国产欧美亚洲精品a | 中文无码成人免费视频在线观看 | 亚洲精品午夜国产va久久成人 | 97夜夜澡人人双人人人喊 | 欧美日韩亚洲国产精品 | 丰满少妇高潮惨叫视频 | 兔费看少妇性l交大片免费 | 久久午夜夜伦鲁鲁片无码免费 | 少妇厨房愉情理9仑片视频 | 亚洲精品国产a久久久久久 | 无人区乱码一区二区三区 | 鲁鲁鲁爽爽爽在线视频观看 | 国产sm调教视频在线观看 | 99视频精品全部免费免费观看 | 国产精品爱久久久久久久 | 精品国产av色一区二区深夜久久 | 水蜜桃av无码 | 国产人妻大战黑人第1集 | 久久国产精品精品国产色婷婷 | 搡女人真爽免费视频大全 | 色婷婷久久一区二区三区麻豆 | 人妻无码久久精品人妻 | 熟妇人妻中文av无码 | 偷窥日本少妇撒尿chinese | 爱做久久久久久 | 性欧美大战久久久久久久 | 欧美老妇与禽交 | 成人无码视频在线观看网站 | 国产精品久久久久久亚洲影视内衣 | 久久久国产精品无码免费专区 | 性色欲网站人妻丰满中文久久不卡 | 国产精品高潮呻吟av久久 | 国产精品久久久久9999小说 | 在线看片无码永久免费视频 | 午夜福利电影 | 人妻无码αv中文字幕久久琪琪布 | 狠狠色噜噜狠狠狠狠7777米奇 | 麻豆人妻少妇精品无码专区 | 亚洲国产日韩a在线播放 | 亚洲人亚洲人成电影网站色 | 玩弄中年熟妇正在播放 | 中文字幕日韩精品一区二区三区 | 中文字幕无码免费久久99 | 亚洲综合无码久久精品综合 | 国内丰满熟女出轨videos | 麻花豆传媒剧国产免费mv在线 | 亚洲熟妇色xxxxx亚洲 | 亚洲乱码国产乱码精品精 | 国产熟女一区二区三区四区五区 | 久久 国产 尿 小便 嘘嘘 | 亚洲精品一区国产 | 精品偷拍一区二区三区在线看 | 日韩亚洲欧美中文高清在线 | 久久人人爽人人爽人人片ⅴ | 青青草原综合久久大伊人精品 | 国产无av码在线观看 | 日本xxxx色视频在线观看免费 | 国产真实夫妇视频 | 日本精品人妻无码77777 天堂一区人妻无码 | 澳门永久av免费网站 | 久久亚洲日韩精品一区二区三区 | 国产成人精品无码播放 | 人妻天天爽夜夜爽一区二区 | 一本大道久久东京热无码av | 亚洲熟女一区二区三区 | 大乳丰满人妻中文字幕日本 | 特黄特色大片免费播放器图片 | 国内少妇偷人精品视频 | 中文字幕无码人妻少妇免费 | 精品成在人线av无码免费看 | 国产精品福利视频导航 | 国产精品久免费的黄网站 | 岛国片人妻三上悠亚 | 亚洲男女内射在线播放 | 精品无码国产自产拍在线观看蜜 | 中文字幕无码av波多野吉衣 | 2019午夜福利不卡片在线 | 久久99精品国产.久久久久 | 波多野结衣 黑人 | 久久精品99久久香蕉国产色戒 | 狠狠噜狠狠狠狠丁香五月 | 人人妻人人澡人人爽欧美一区九九 | 国产无遮挡又黄又爽又色 | 亚洲成a人片在线观看无码3d | 午夜精品久久久久久久 | 久久国产精品萌白酱免费 | 日韩精品无码一本二本三本色 | 国产精品无码一区二区桃花视频 | 久久精品国产一区二区三区 | 西西人体www44rt大胆高清 | 色婷婷久久一区二区三区麻豆 | 国产9 9在线 | 中文 | 亚洲精品一区二区三区婷婷月 | 免费国产黄网站在线观看 | 国产另类ts人妖一区二区 | 97久久精品无码一区二区 | 国产偷抇久久精品a片69 | 日日鲁鲁鲁夜夜爽爽狠狠 | 成人影院yy111111在线观看 | 午夜精品久久久久久久 | 性开放的女人aaa片 | 熟妇激情内射com | 国产精品久久久 | а√天堂www在线天堂小说 | 中文字幕乱码亚洲无线三区 | 日日橹狠狠爱欧美视频 | 欧美放荡的少妇 | 国产在线一区二区三区四区五区 | 无码吃奶揉捏奶头高潮视频 | 久久亚洲精品中文字幕无男同 | 久久久久久a亚洲欧洲av冫 | 精品无码av一区二区三区 | 日韩精品无码一区二区中文字幕 | 亚洲色www成人永久网址 | 国产美女极度色诱视频www | 国产精品第一国产精品 | 久久天天躁狠狠躁夜夜免费观看 | 欧美高清在线精品一区 | 日韩成人一区二区三区在线观看 | 国产精品香蕉在线观看 | 久久人人爽人人爽人人片av高清 | 97资源共享在线视频 | 久久天天躁夜夜躁狠狠 | 国产精品永久免费视频 | 少妇无码吹潮 | 免费观看激色视频网站 | 久久精品成人欧美大片 | 精品国产乱码久久久久乱码 | 免费看少妇作爱视频 | 国产精品久久久久影院嫩草 | 高潮毛片无遮挡高清免费视频 | 蜜桃臀无码内射一区二区三区 | 久久久精品456亚洲影院 | 国产电影无码午夜在线播放 | 露脸叫床粗话东北少妇 | 中文字幕人妻无码一区二区三区 | 色欲人妻aaaaaaa无码 | 女人和拘做爰正片视频 | 少妇人妻偷人精品无码视频 | 亚洲男人av天堂午夜在 | 国产国产精品人在线视 | 人妻插b视频一区二区三区 | 激情内射亚州一区二区三区爱妻 | 无码国产乱人伦偷精品视频 | 亚洲精品综合五月久久小说 | 欧美变态另类xxxx | 无码国产乱人伦偷精品视频 | 久久亚洲中文字幕无码 | 午夜精品久久久久久久久 | 日本免费一区二区三区最新 | 一本久久a久久精品亚洲 | 伊在人天堂亚洲香蕉精品区 | 久久久久久九九精品久 | 国产内射老熟女aaaa | 亚洲综合精品香蕉久久网 | 免费男性肉肉影院 | 国产乱人伦偷精品视频 | 久久无码人妻影院 | 一本色道久久综合亚洲精品不卡 | 一个人免费观看的www视频 | 国内揄拍国内精品人妻 | 少妇性l交大片欧洲热妇乱xxx | 亚洲色大成网站www国产 | aⅴ在线视频男人的天堂 | 国精产品一品二品国精品69xx | 亚洲精品综合五月久久小说 | 国产欧美精品一区二区三区 | 国产精品爱久久久久久久 | 国产真实乱对白精彩久久 | 国产猛烈高潮尖叫视频免费 | 欧美野外疯狂做受xxxx高潮 | 国内精品一区二区三区不卡 | 蜜桃臀无码内射一区二区三区 | 欧美成人家庭影院 | 亚洲人成网站在线播放942 | 国产精品多人p群无码 | 狂野欧美性猛交免费视频 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 亚洲小说春色综合另类 | 人人妻人人澡人人爽精品欧美 | 欧美亚洲日韩国产人成在线播放 | 日本一区二区三区免费高清 | 天天躁日日躁狠狠躁免费麻豆 | 性史性农村dvd毛片 | 日本饥渴人妻欲求不满 | 在线视频网站www色 | 国产精品久久久久久亚洲毛片 | 成人免费视频视频在线观看 免费 | 国内丰满熟女出轨videos | 中文字幕无线码免费人妻 | 欧美丰满少妇xxxx性 | 亚洲中文字幕在线观看 | 精品久久综合1区2区3区激情 | 国产av无码专区亚洲a∨毛片 | 欧美人妻一区二区三区 | 久久久婷婷五月亚洲97号色 | 2020最新国产自产精品 | 奇米影视7777久久精品 | 国产精品久久国产三级国 | 青青久在线视频免费观看 | 日本熟妇乱子伦xxxx | 精品成在人线av无码免费看 | 欧美人与牲动交xxxx | 精品一区二区三区波多野结衣 | 日本一区二区更新不卡 | 一区二区传媒有限公司 | 亚洲国产精品久久久天堂 | 夜夜影院未满十八勿进 | 欧美性色19p | 大屁股大乳丰满人妻 | 一本久道久久综合婷婷五月 | 鲁一鲁av2019在线 | 国产精品无套呻吟在线 | 一个人看的视频www在线 | 少妇人妻偷人精品无码视频 | 午夜无码人妻av大片色欲 | 无套内谢的新婚少妇国语播放 | 亚洲 另类 在线 欧美 制服 | 亚洲春色在线视频 | 久久久国产精品无码免费专区 | 国产特级毛片aaaaaaa高清 | 久久综合色之久久综合 | 亚洲理论电影在线观看 | 无码国产色欲xxxxx视频 | 一本无码人妻在中文字幕免费 | 少妇性l交大片欧洲热妇乱xxx | 97夜夜澡人人爽人人喊中国片 | 一本色道久久综合狠狠躁 | 国产热a欧美热a在线视频 | 久久久精品成人免费观看 | 亚洲精品久久久久久久久久久 | 99er热精品视频 | 日日噜噜噜噜夜夜爽亚洲精品 | 欧美午夜特黄aaaaaa片 | 三级4级全黄60分钟 | 男女下面进入的视频免费午夜 | 天堂а√在线中文在线 | 又大又黄又粗又爽的免费视频 | 偷窥日本少妇撒尿chinese | 国产精品久久久午夜夜伦鲁鲁 | 亚洲天堂2017无码中文 | 波多野结衣aⅴ在线 | 国产精品美女久久久网av | 日产精品99久久久久久 | 日韩欧美中文字幕在线三区 | 午夜无码区在线观看 | 天天拍夜夜添久久精品 | 欧美 日韩 亚洲 在线 | 无码精品国产va在线观看dvd | 蜜臀aⅴ国产精品久久久国产老师 | 亚洲成a人一区二区三区 | 特黄特色大片免费播放器图片 | 宝宝好涨水快流出来免费视频 | 一个人看的www免费视频在线观看 | 人人爽人人澡人人高潮 | 日日摸夜夜摸狠狠摸婷婷 | 亚洲第一无码av无码专区 | 无码一区二区三区在线观看 | 国产精品无码永久免费888 | 国产人妻人伦精品 | 国产农村乱对白刺激视频 | 久久久中文字幕日本无吗 | 日韩无套无码精品 | 亚洲综合无码一区二区三区 | 中文字幕av日韩精品一区二区 | 九九在线中文字幕无码 | 网友自拍区视频精品 | 日本大乳高潮视频在线观看 | 四虎国产精品一区二区 | 亚洲日韩中文字幕在线播放 | 亚洲s色大片在线观看 | 偷窥日本少妇撒尿chinese | 丝袜足控一区二区三区 | 国产成人综合美国十次 | 亚洲午夜久久久影院 | 一本精品99久久精品77 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲 a v无 码免 费 成 人 a v | 国产xxx69麻豆国语对白 | 久久精品成人欧美大片 | 久久国产精品精品国产色婷婷 | 国产成人无码a区在线观看视频app | 久久99精品国产麻豆 | 纯爱无遮挡h肉动漫在线播放 | 色婷婷香蕉在线一区二区 | 又粗又大又硬毛片免费看 | 国产精品人妻一区二区三区四 | 免费无码午夜福利片69 | 沈阳熟女露脸对白视频 | 色诱久久久久综合网ywww | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 大胆欧美熟妇xx | 精品一区二区三区无码免费视频 | 亚洲色欲色欲天天天www | 高潮毛片无遮挡高清免费视频 | 国产乱码精品一品二品 | 少妇太爽了在线观看 | 国产一区二区三区精品视频 | 学生妹亚洲一区二区 | 性开放的女人aaa片 | 国精品人妻无码一区二区三区蜜柚 | 亚洲经典千人经典日产 | 国内综合精品午夜久久资源 | 成人av无码一区二区三区 | 精品一区二区不卡无码av | 国产亚洲精品精品国产亚洲综合 | 色噜噜亚洲男人的天堂 | 亚洲大尺度无码无码专区 | 精品久久久久香蕉网 | 日本高清一区免费中文视频 | 国产绳艺sm调教室论坛 | 国产三级久久久精品麻豆三级 | 色一情一乱一伦一区二区三欧美 | 久久国产精品萌白酱免费 | 无码国产激情在线观看 | 免费无码肉片在线观看 | 欧美老熟妇乱xxxxx | 国产猛烈高潮尖叫视频免费 | 久久久久成人精品免费播放动漫 | 国产av剧情md精品麻豆 | 成人无码视频在线观看网站 | 人妻少妇精品无码专区二区 | 国产精品久久久久久亚洲毛片 | 六月丁香婷婷色狠狠久久 | 无码国产色欲xxxxx视频 | 人人妻人人澡人人爽精品欧美 | 免费国产黄网站在线观看 | 亚洲熟妇色xxxxx亚洲 | 中文无码精品a∨在线观看不卡 | 九九在线中文字幕无码 | 人人超人人超碰超国产 | 高潮喷水的毛片 | 久久精品人妻少妇一区二区三区 | 成人欧美一区二区三区黑人免费 | 色婷婷综合中文久久一本 | 国产亚洲精品久久久久久久久动漫 | 国产熟女一区二区三区四区五区 | 1000部夫妻午夜免费 | 99久久精品日本一区二区免费 | 精品厕所偷拍各类美女tp嘘嘘 | 狠狠色色综合网站 | 人人妻人人澡人人爽欧美一区 | 粉嫩少妇内射浓精videos | 亚洲精品一区二区三区四区五区 | 精品无码国产一区二区三区av | 99久久精品午夜一区二区 | 午夜精品久久久久久久久 | 99久久久无码国产精品免费 | 国产乱子伦视频在线播放 | 国产精品第一国产精品 | 亚洲精品久久久久中文第一幕 | 无码免费一区二区三区 | 国产精品va在线播放 | 国产亚洲欧美日韩亚洲中文色 | 午夜时刻免费入口 | 精品无人国产偷自产在线 | 天天做天天爱天天爽综合网 | 亚洲精品一区三区三区在线观看 | 久久婷婷五月综合色国产香蕉 | 天天爽夜夜爽夜夜爽 | 亚洲综合久久一区二区 | 娇妻被黑人粗大高潮白浆 | 牲欲强的熟妇农村老妇女视频 | 亚洲欧美综合区丁香五月小说 | 国产成人无码a区在线观看视频app | 300部国产真实乱 | 久久亚洲中文字幕精品一区 | 亚洲精品美女久久久久久久 | 免费播放一区二区三区 | 成 人 网 站国产免费观看 | 国产无遮挡又黄又爽免费视频 | 国产精品自产拍在线观看 | 国产激情无码一区二区app | 国产亲子乱弄免费视频 | 人人妻人人澡人人爽欧美一区 | 午夜精品一区二区三区在线观看 | 久久婷婷五月综合色国产香蕉 | 老头边吃奶边弄进去呻吟 | 国产口爆吞精在线视频 | 少妇性俱乐部纵欲狂欢电影 | 久久99精品久久久久婷婷 | 精品亚洲成av人在线观看 | 99riav国产精品视频 | 国产欧美亚洲精品a | 一本大道久久东京热无码av | 永久免费观看国产裸体美女 | 亚洲国产精品无码一区二区三区 | ass日本丰满熟妇pics | 国产精品爱久久久久久久 | 亚洲成a人片在线观看无码 | 国产精品美女久久久网av | 麻豆精品国产精华精华液好用吗 | 国产偷国产偷精品高清尤物 | 黑人巨大精品欧美一区二区 | 久久97精品久久久久久久不卡 | 成人免费视频在线观看 | 又紧又大又爽精品一区二区 | 激情五月综合色婷婷一区二区 | 国产精品亚洲专区无码不卡 | 国产精品成人av在线观看 | 日韩人妻无码一区二区三区久久99 | 日本一区二区三区免费高清 | 国产成人无码av在线影院 | 欧美zoozzooz性欧美 | 黑森林福利视频导航 | 婷婷五月综合激情中文字幕 | 精品国产一区av天美传媒 | 国产成人精品必看 | 欧美一区二区三区 | 欧美 日韩 亚洲 在线 | 国语自产偷拍精品视频偷 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 丰满岳乱妇在线观看中字无码 | 欧美怡红院免费全部视频 | 国产人妻久久精品二区三区老狼 | 欧美变态另类xxxx | 黑人巨大精品欧美一区二区 | 亚洲午夜福利在线观看 | 国精产品一品二品国精品69xx | 国产精品高潮呻吟av久久 | 国产人成高清在线视频99最全资源 | 亚洲一区二区三区偷拍女厕 | 18禁止看的免费污网站 | 国产激情无码一区二区app | 乱码av麻豆丝袜熟女系列 | 无码任你躁久久久久久久 | 自拍偷自拍亚洲精品10p | 伊人久久婷婷五月综合97色 | 中文字幕中文有码在线 | 精品aⅴ一区二区三区 | 国产av人人夜夜澡人人爽麻豆 | 天天av天天av天天透 | 大屁股大乳丰满人妻 | 欧美午夜特黄aaaaaa片 | 免费网站看v片在线18禁无码 | 日韩少妇内射免费播放 | 国产成人精品优优av | 桃花色综合影院 | 成年女人永久免费看片 | 天天综合网天天综合色 | 国产乡下妇女做爰 | 亚洲第一网站男人都懂 | 亚洲综合精品香蕉久久网 | 国产在热线精品视频 | 蜜桃臀无码内射一区二区三区 | 老子影院午夜伦不卡 | 国产成人精品久久亚洲高清不卡 | 午夜免费福利小电影 | 国产免费久久久久久无码 | 国产人妻大战黑人第1集 | 亚洲精品一区二区三区四区五区 | 欧美丰满少妇xxxx性 | 自拍偷自拍亚洲精品被多人伦好爽 | 久久99精品国产.久久久久 | 国产av人人夜夜澡人人爽麻豆 | 久久国产精品精品国产色婷婷 | 亚洲色欲色欲天天天www | 熟妇女人妻丰满少妇中文字幕 | 亚洲啪av永久无码精品放毛片 | 国产人妻精品一区二区三区 | 国产精品毛片一区二区 | 波多野结衣高清一区二区三区 | a片免费视频在线观看 | 国产精品a成v人在线播放 | 日日夜夜撸啊撸 | 国产精品视频免费播放 | 任你躁在线精品免费 | 六月丁香婷婷色狠狠久久 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 少妇一晚三次一区二区三区 | 久久久久久av无码免费看大片 | 亚洲一区av无码专区在线观看 | 伊人久久婷婷五月综合97色 | 狂野欧美激情性xxxx | 日本一卡2卡3卡四卡精品网站 | 欧美三级不卡在线观看 | 日韩视频 中文字幕 视频一区 | 国产成人亚洲综合无码 | 国产精品无码久久av | 日韩精品无码免费一区二区三区 | 99精品国产综合久久久久五月天 | 国产麻豆精品一区二区三区v视界 | 国产精品无码久久av | 成 人 免费观看网站 | 好男人社区资源 | 国产精品二区一区二区aⅴ污介绍 | 性色av无码免费一区二区三区 | 久久精品国产精品国产精品污 | 亚洲男女内射在线播放 | 久精品国产欧美亚洲色aⅴ大片 | 99久久无码一区人妻 | 男人的天堂av网站 | 亚洲 激情 小说 另类 欧美 | 成人欧美一区二区三区黑人 | 国产九九九九九九九a片 | 国精产品一区二区三区 | 欧美老妇交乱视频在线观看 | 国产特级毛片aaaaaaa高清 | 超碰97人人做人人爱少妇 | 久久精品成人欧美大片 | 国产国语老龄妇女a片 | 国产成人精品三级麻豆 | 98国产精品综合一区二区三区 | 丰满少妇女裸体bbw | 日产国产精品亚洲系列 | 300部国产真实乱 | 亚洲成色www久久网站 | 女人被男人躁得好爽免费视频 | 老头边吃奶边弄进去呻吟 | 国产精品久久国产精品99 | 蜜臀av无码人妻精品 | 精品国产一区二区三区四区 | 99久久久国产精品无码免费 | 真人与拘做受免费视频一 | 女高中生第一次破苞av | 无码av免费一区二区三区试看 | 国产97人人超碰caoprom | 精品偷自拍另类在线观看 | 午夜精品一区二区三区在线观看 | 无码人妻精品一区二区三区下载 | 国产真人无遮挡作爱免费视频 | 黑人粗大猛烈进出高潮视频 | 正在播放老肥熟妇露脸 | 欧美丰满少妇xxxx性 | 黑森林福利视频导航 | 欧美肥老太牲交大战 | 激情综合激情五月俺也去 | 婷婷色婷婷开心五月四房播播 | 天天躁日日躁狠狠躁免费麻豆 | 国产尤物精品视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产人妻久久精品二区三区老狼 | 免费国产黄网站在线观看 | 领导边摸边吃奶边做爽在线观看 | 亚洲综合另类小说色区 | 日日橹狠狠爱欧美视频 | www成人国产高清内射 | 成人免费视频视频在线观看 免费 | 丰满妇女强制高潮18xxxx | 亚洲七七久久桃花影院 | 国产成人精品必看 | 日本xxxx色视频在线观看免费 | 少妇人妻偷人精品无码视频 | 国产精品久久久久无码av色戒 | 国产成人无码av一区二区 | 真人与拘做受免费视频 | 久久国产精品偷任你爽任你 | 久久久久久av无码免费看大片 | 午夜免费福利小电影 | 精品无码成人片一区二区98 | 四虎永久在线精品免费网址 | 性色欲情网站iwww九文堂 | 色 综合 欧美 亚洲 国产 | 一个人免费观看的www视频 | 国精产品一区二区三区 | 精品偷拍一区二区三区在线看 | 国产凸凹视频一区二区 | 欧美乱妇无乱码大黄a片 | 亚洲欧美国产精品专区久久 | 国产精品毛片一区二区 | 最新国产乱人伦偷精品免费网站 | 狠狠色欧美亚洲狠狠色www | 日韩视频 中文字幕 视频一区 | 国产三级久久久精品麻豆三级 | 国产精品亚洲一区二区三区喷水 | 日韩精品无码免费一区二区三区 | 狠狠色噜噜狠狠狠7777奇米 | 国产情侣作爱视频免费观看 | 六十路熟妇乱子伦 | 一二三四在线观看免费视频 | 久久婷婷五月综合色国产香蕉 | 亚洲 高清 成人 动漫 | 久久视频在线观看精品 | 在线播放亚洲第一字幕 | 亚洲精品久久久久久久久久久 | 国产激情精品一区二区三区 | 麻豆国产人妻欲求不满 | 人人妻人人澡人人爽欧美精品 | 亚洲色成人中文字幕网站 | 无码一区二区三区在线观看 | 国产成人av免费观看 | 黑人巨大精品欧美一区二区 | 18精品久久久无码午夜福利 | 又紧又大又爽精品一区二区 | 丰满人妻一区二区三区免费视频 | 亚洲日本va午夜在线电影 | 日本高清一区免费中文视频 | 俄罗斯老熟妇色xxxx | 欧美三级不卡在线观看 | 国产精品理论片在线观看 | 亚无码乱人伦一区二区 | 亚洲国产综合无码一区 | 国产内射爽爽大片视频社区在线 | 国产精品久久精品三级 | 国产成人精品三级麻豆 | 激情爆乳一区二区三区 | 免费无码的av片在线观看 | 久久午夜无码鲁丝片秋霞 | 国精品人妻无码一区二区三区蜜柚 | 精品一区二区三区无码免费视频 | 帮老师解开蕾丝奶罩吸乳网站 | 日本一区二区三区免费播放 | 极品嫩模高潮叫床 | 亚洲中文无码av永久不收费 | 大色综合色综合网站 | 亚洲の无码国产の无码影院 | 鲁鲁鲁爽爽爽在线视频观看 | 伊在人天堂亚洲香蕉精品区 | 国产电影无码午夜在线播放 | 四虎国产精品免费久久 | 亚欧洲精品在线视频免费观看 | 精品成在人线av无码免费看 | 兔费看少妇性l交大片免费 | 东北女人啪啪对白 | 亚洲日韩av片在线观看 | 精品国产成人一区二区三区 | 无码一区二区三区在线 | 99久久精品无码一区二区毛片 | 伊人久久婷婷五月综合97色 | 婷婷丁香六月激情综合啪 | av人摸人人人澡人人超碰下载 | 亚洲欧洲无卡二区视頻 | 中文字幕乱码中文乱码51精品 | 中文字幕精品av一区二区五区 | 亚洲国产精品成人久久蜜臀 | 日韩精品无码免费一区二区三区 | av人摸人人人澡人人超碰下载 | 又紧又大又爽精品一区二区 | 国产农村妇女高潮大叫 | 日韩精品a片一区二区三区妖精 | 中文字幕无码日韩专区 | 美女毛片一区二区三区四区 | 国产人妻大战黑人第1集 | 婷婷五月综合缴情在线视频 | 东京热男人av天堂 | 麻豆国产丝袜白领秘书在线观看 | 亚洲国产综合无码一区 | 成人片黄网站色大片免费观看 | 国产黑色丝袜在线播放 | 男人和女人高潮免费网站 | 少妇性俱乐部纵欲狂欢电影 | 女人被男人躁得好爽免费视频 | 日本免费一区二区三区最新 | 日韩av无码中文无码电影 | 青春草在线视频免费观看 | 日韩亚洲欧美中文高清在线 | 亚洲熟妇色xxxxx欧美老妇 | 人妻少妇精品无码专区二区 | 精品国产国产综合精品 | 久久久婷婷五月亚洲97号色 | 亚洲a无码综合a国产av中文 | 久久精品丝袜高跟鞋 | 成人精品视频一区二区 | 久久久久成人精品免费播放动漫 | 国产精品自产拍在线观看 | 亚洲国产精品成人久久蜜臀 | 国产卡一卡二卡三 | 精品成人av一区二区三区 | 丰满肥臀大屁股熟妇激情视频 | 亚洲精品国偷拍自产在线观看蜜桃 | 免费人成在线观看网站 | 免费无码的av片在线观看 | 人妻少妇精品无码专区二区 | 黑人巨大精品欧美黑寡妇 | 性生交大片免费看l | 欧美国产日产一区二区 | 玩弄中年熟妇正在播放 | 欧美丰满老熟妇xxxxx性 | 日日鲁鲁鲁夜夜爽爽狠狠 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 最新国产乱人伦偷精品免费网站 | 久久久久久亚洲精品a片成人 | 日韩av无码一区二区三区 | 精品国偷自产在线视频 | 好男人社区资源 | 精品国产精品久久一区免费式 | 人妻少妇精品无码专区动漫 | 又色又爽又黄的美女裸体网站 | 亚洲欧美精品伊人久久 | 亚洲精品美女久久久久久久 | 性做久久久久久久久 | 亚洲理论电影在线观看 | 老头边吃奶边弄进去呻吟 | 亚洲精品久久久久avwww潮水 | 日本欧美一区二区三区乱码 | 国产无套粉嫩白浆在线 | 亚洲国产精品美女久久久久 | 亚洲国产精品一区二区第一页 | 精品国产精品久久一区免费式 | 狂野欧美性猛交免费视频 | 中文字幕日产无线码一区 | 少妇高潮喷潮久久久影院 | 又粗又大又硬毛片免费看 | 草草网站影院白丝内射 | 99久久人妻精品免费一区 | 亚洲乱码中文字幕在线 | 美女极度色诱视频国产 | 日本精品人妻无码免费大全 | 日韩亚洲欧美精品综合 | 妺妺窝人体色www在线小说 | 欧美 日韩 人妻 高清 中文 | 亚洲伊人久久精品影院 | 青青草原综合久久大伊人精品 | 午夜福利一区二区三区在线观看 | 99久久久国产精品无码免费 | 丰满少妇熟乱xxxxx视频 | 亚洲色欲久久久综合网东京热 | 亚洲理论电影在线观看 | 国产人妻久久精品二区三区老狼 | 波多野结衣av一区二区全免费观看 | 男人的天堂2018无码 | 天天拍夜夜添久久精品 | 日日摸日日碰夜夜爽av | 精品一区二区三区无码免费视频 | 成年美女黄网站色大免费视频 | 永久黄网站色视频免费直播 | 人人妻人人澡人人爽欧美一区九九 | 激情亚洲一区国产精品 | 国产av一区二区精品久久凹凸 | 久久99国产综合精品 | 东京一本一道一二三区 | 欧美亚洲日韩国产人成在线播放 | 欧美日韩在线亚洲综合国产人 | 国产午夜无码视频在线观看 | 乱码午夜-极国产极内射 | 日韩人妻系列无码专区 | 学生妹亚洲一区二区 | 国产成人精品久久亚洲高清不卡 | 少妇无码av无码专区在线观看 | 2019nv天堂香蕉在线观看 | 中文字幕 人妻熟女 | 日日摸夜夜摸狠狠摸婷婷 | 国产成人精品久久亚洲高清不卡 | 欧洲精品码一区二区三区免费看 | 狂野欧美性猛交免费视频 | 精品久久8x国产免费观看 | 欧美丰满熟妇xxxx性ppx人交 | 欧美猛少妇色xxxxx | 久久婷婷五月综合色国产香蕉 | 亚洲色偷偷偷综合网 | 少妇被黑人到高潮喷出白浆 | 国产婷婷色一区二区三区在线 | 无码任你躁久久久久久久 | 97精品人妻一区二区三区香蕉 | 欧美成人免费全部网站 | 国产亚洲美女精品久久久2020 | 一个人看的www免费视频在线观看 | 亚洲人成影院在线无码按摩店 | 国产精品欧美成人 | 亚洲国产欧美日韩精品一区二区三区 | 久久综合色之久久综合 | 亚洲国产精品久久久久久 | 亚洲成a人片在线观看无码3d | 嫩b人妻精品一区二区三区 | 午夜嘿嘿嘿影院 | 亚洲国产成人a精品不卡在线 | 丰满护士巨好爽好大乳 | 婷婷六月久久综合丁香 | 亚洲人亚洲人成电影网站色 | 久久综合狠狠综合久久综合88 | 99久久婷婷国产综合精品青草免费 | 亚洲中文字幕无码一久久区 | 亚洲国产精品毛片av不卡在线 | 成人综合网亚洲伊人 | 亚洲国产精品成人久久蜜臀 | 中文无码精品a∨在线观看不卡 | 亚洲熟悉妇女xxx妇女av | 亚洲国产精品久久久久久 | 老熟妇仑乱视频一区二区 | 亚洲va中文字幕无码久久不卡 | 真人与拘做受免费视频一 | 国产精品毛多多水多 | 亚洲欧美日韩国产精品一区二区 | 无码福利日韩神码福利片 | 国产精品第一国产精品 | 亚洲国产高清在线观看视频 | 少妇无套内谢久久久久 | 无码人妻丰满熟妇区五十路百度 | ass日本丰满熟妇pics | 欧美老妇交乱视频在线观看 | 东京热无码av男人的天堂 | 国产成人av免费观看 | 国产成人综合美国十次 | 一个人免费观看的www视频 | 国产精品福利视频导航 | 免费观看黄网站 | 亚洲欧美国产精品久久 | 中文字幕av伊人av无码av | 无码中文字幕色专区 | 日日摸夜夜摸狠狠摸婷婷 | 欧美性生交xxxxx久久久 | 300部国产真实乱 | 国产成人无码一二三区视频 | 奇米影视7777久久精品 | 永久黄网站色视频免费直播 | 亚洲阿v天堂在线 | 精品人妻人人做人人爽夜夜爽 | 国产偷自视频区视频 | 丰满妇女强制高潮18xxxx | 亚洲国产精华液网站w | 亚洲欧洲日本无在线码 | 婷婷丁香六月激情综合啪 | 中文无码精品a∨在线观看不卡 | 亚洲精品久久久久久久久久久 | 国产精品久久久一区二区三区 | 国产激情无码一区二区 | 亚洲日韩av一区二区三区中文 | 熟女俱乐部五十路六十路av | 亚洲色欲色欲欲www在线 | 18无码粉嫩小泬无套在线观看 | 国产av久久久久精东av | 人妻少妇精品视频专区 | 国产乱子伦视频在线播放 | 亚洲精品一区二区三区在线观看 | √天堂中文官网8在线 | 亚洲va中文字幕无码久久不卡 | 丰满护士巨好爽好大乳 | 98国产精品综合一区二区三区 | 99精品久久毛片a片 | 18黄暴禁片在线观看 | 亚洲人成影院在线无码按摩店 | √天堂中文官网8在线 | 久久综合网欧美色妞网 | 一本大道久久东京热无码av | 日日碰狠狠丁香久燥 | 国产午夜精品一区二区三区嫩草 | 久久久中文字幕日本无吗 | 日本一区二区三区免费播放 | 极品嫩模高潮叫床 | 免费网站看v片在线18禁无码 | 露脸叫床粗话东北少妇 | 国产一区二区三区四区五区加勒比 | 一本无码人妻在中文字幕免费 | 精品乱码久久久久久久 | 中文字幕无码人妻少妇免费 | 无码午夜成人1000部免费视频 | 成人片黄网站色大片免费观看 | 女人和拘做爰正片视频 | 香蕉久久久久久av成人 | 国产精品亚洲lv粉色 | 午夜精品久久久内射近拍高清 | 久久综合网欧美色妞网 | 亚洲色在线无码国产精品不卡 | 国产精品-区区久久久狼 | 欧美第一黄网免费网站 | 国产熟妇高潮叫床视频播放 | 无码人妻av免费一区二区三区 | 少妇无套内谢久久久久 | 亚洲性无码av中文字幕 | 婷婷六月久久综合丁香 | 中文字幕无码免费久久9一区9 | 欧美黑人乱大交 | www一区二区www免费 | 一本大道伊人av久久综合 | 国产成人久久精品流白浆 | 又紧又大又爽精品一区二区 | 内射后入在线观看一区 | 欧美人与善在线com | 正在播放东北夫妻内射 | 国产又爽又猛又粗的视频a片 | 国产卡一卡二卡三 | 精品人妻中文字幕有码在线 | 亚洲色大成网站www国产 | 99er热精品视频 | 欧美三级a做爰在线观看 | 色情久久久av熟女人妻网站 | 精品一区二区三区无码免费视频 | 亚洲区小说区激情区图片区 | 99riav国产精品视频 | 激情国产av做激情国产爱 | 久久久久免费精品国产 | 美女毛片一区二区三区四区 | 国产精品久久久久久久9999 | 2020久久超碰国产精品最新 | 国产特级毛片aaaaaa高潮流水 | 久久五月精品中文字幕 | 乱码av麻豆丝袜熟女系列 | 亚洲国产精品成人久久蜜臀 | 亚洲色无码一区二区三区 | 亚洲精品综合一区二区三区在线 | 日日橹狠狠爱欧美视频 | 亚洲欧洲中文日韩av乱码 | 亚洲色欲色欲天天天www | 日本www一道久久久免费榴莲 | 国产又爽又黄又刺激的视频 | 国产精品国产自线拍免费软件 | 波多野结衣乳巨码无在线观看 | 中文字幕无码视频专区 | 色一情一乱一伦一视频免费看 | 欧美日韩久久久精品a片 | 国产精品毛片一区二区 | 牲欲强的熟妇农村老妇女视频 | 国产热a欧美热a在线视频 | 久久综合九色综合97网 | 精品一区二区不卡无码av | 无码精品国产va在线观看dvd | 午夜福利试看120秒体验区 | 丰满少妇弄高潮了www | 亚洲精品成人福利网站 | 综合激情五月综合激情五月激情1 | 亚洲人成影院在线无码按摩店 | 老子影院午夜精品无码 | 日韩人妻无码中文字幕视频 | 色狠狠av一区二区三区 | 少妇愉情理伦片bd | 国产成人无码区免费内射一片色欲 | 丁香啪啪综合成人亚洲 | 中文字幕亚洲情99在线 | 中文亚洲成a人片在线观看 | 日日天日日夜日日摸 | 人人妻人人藻人人爽欧美一区 | 精品无码成人片一区二区98 | 久久精品国产99精品亚洲 | 成人无码视频在线观看网站 | 亚洲欧美综合区丁香五月小说 | 中文字幕+乱码+中文字幕一区 | 日韩视频 中文字幕 视频一区 | 少妇一晚三次一区二区三区 | 无码国产激情在线观看 | 乱码av麻豆丝袜熟女系列 | 国产熟女一区二区三区四区五区 | 性色欲网站人妻丰满中文久久不卡 | 久久精品成人欧美大片 | 亚洲日本一区二区三区在线 | 亚洲精品欧美二区三区中文字幕 | 99er热精品视频 | 日日碰狠狠躁久久躁蜜桃 | 又黄又爽又色的视频 | 亚洲午夜久久久影院 | 国产人妖乱国产精品人妖 | 欧美亚洲国产一区二区三区 | 久久精品国产精品国产精品污 | 亚洲国产午夜精品理论片 | 骚片av蜜桃精品一区 | 中国女人内谢69xxxxxa片 | 黑森林福利视频导航 | 乱人伦人妻中文字幕无码久久网 | 2020久久香蕉国产线看观看 | 双乳奶水饱满少妇呻吟 | 色噜噜亚洲男人的天堂 | 日韩亚洲欧美精品综合 | 亚洲色欲久久久综合网东京热 | 免费无码的av片在线观看 | а√资源新版在线天堂 | 国产乱人伦av在线无码 | 欧美日韩在线亚洲综合国产人 | 亚洲中文字幕成人无码 | 亚洲精品一区二区三区婷婷月 | 国产人成高清在线视频99最全资源 | 男女性色大片免费网站 | 中文字幕无码av激情不卡 | 免费国产黄网站在线观看 | 国产真人无遮挡作爱免费视频 | 无码精品国产va在线观看dvd | 又大又黄又粗又爽的免费视频 | 亚洲人成人无码网www国产 | 久久人人爽人人爽人人片av高清 | 亚洲精品一区二区三区大桥未久 | 亚洲国产欧美日韩精品一区二区三区 | 国产亲子乱弄免费视频 | yw尤物av无码国产在线观看 | 日日摸天天摸爽爽狠狠97 | 大胆欧美熟妇xx | 麻豆蜜桃av蜜臀av色欲av | 男女作爱免费网站 | 色爱情人网站 | 人人妻人人澡人人爽欧美一区九九 | 国产女主播喷水视频在线观看 | 久久久久久a亚洲欧洲av冫 | 亚洲理论电影在线观看 | 九月婷婷人人澡人人添人人爽 | 久久久中文字幕日本无吗 | 国产婷婷色一区二区三区在线 | 久久人人爽人人爽人人片av高清 | 3d动漫精品啪啪一区二区中 | 欧美 日韩 人妻 高清 中文 | 日韩精品久久久肉伦网站 | 亚洲精品一区三区三区在线观看 | а√资源新版在线天堂 | 国产内射老熟女aaaa | 麻豆精产国品 | 久久99精品国产麻豆蜜芽 | 欧美日韩在线亚洲综合国产人 | 国产精品无码永久免费888 | 午夜嘿嘿嘿影院 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲一区二区三区四区 | 中文字幕精品av一区二区五区 | 久久国产36精品色熟妇 | 中文字幕乱码人妻二区三区 | 欧美兽交xxxx×视频 | 1000部夫妻午夜免费 | 久久久亚洲欧洲日产国码αv | 国产网红无码精品视频 | 国产农村乱对白刺激视频 | 丰满妇女强制高潮18xxxx | 国产9 9在线 | 中文 | 亚洲成a人片在线观看日本 | 少妇人妻大乳在线视频 | 国产三级精品三级男人的天堂 | 波多野结衣乳巨码无在线观看 | 少妇人妻大乳在线视频 | 国产综合色产在线精品 | 无码免费一区二区三区 | 欧美性猛交xxxx富婆 | 天天综合网天天综合色 | 国产超碰人人爽人人做人人添 | 欧美熟妇另类久久久久久不卡 | 5858s亚洲色大成网站www | 欧美激情一区二区三区成人 | 亚洲日韩精品欧美一区二区 | 成人三级无码视频在线观看 | 久久久久亚洲精品中文字幕 | а√资源新版在线天堂 | a在线亚洲男人的天堂 | 成人片黄网站色大片免费观看 | 精品国产一区av天美传媒 | 中文字幕精品av一区二区五区 | av无码不卡在线观看免费 | 又黄又爽又色的视频 | 男女爱爱好爽视频免费看 | 亚洲精品国产第一综合99久久 | 国产精品无码久久av | 国产成人精品无码播放 | 伊人久久大香线蕉av一区二区 | 国产精品内射视频免费 | 欧美激情一区二区三区成人 | 日韩欧美群交p片內射中文 | 无码播放一区二区三区 | 久久婷婷五月综合色国产香蕉 | 蜜臀aⅴ国产精品久久久国产老师 | 高潮毛片无遮挡高清免费 | 国产成人无码a区在线观看视频app | 99精品国产综合久久久久五月天 | 一本久道高清无码视频 | 精品偷自拍另类在线观看 | 国产精品对白交换视频 | 国色天香社区在线视频 | 国产精品美女久久久网av | 精品日本一区二区三区在线观看 |