久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

实时分析系统--SparkStreaming

發布時間:2023/12/13 综合教程 31 生活家
生活随笔 收集整理的這篇文章主要介紹了 实时分析系统--SparkStreaming 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

第1章SparkStreaming概述

1.1Spark Streaming是什么

  Spark Streaming用于流式數據的處理。Spark Streaming支持的數據輸入源很多,例如:Kafka、Flume、Twitter、ZeroMQ和簡單的TCP套接字等等。數據輸入后可以用Spark的高度抽象原語如:map、reduce、join、window等進行運算。而結果也能保存在很多地方,如HDFS,數據庫等。

  和Spark基于RDD的概念很相似,Spark Streaming使用離散化流(discretized stream)作為抽象表示,叫作DStream。DStream 是隨時間推移而收到的數據的序列。在內部,每個時間區間收到的數據都作為 RDD 存在,而DStream是由這些RDD所組成的序列(因此得名“離散化”)。所以簡單來將,DStream就是對RDD在實時數據處理場景的一種封裝。

1.2Spark Streaming的特點

易用

容錯

易整合到Spark體系

1.3Spark Streaming架構

1.3.1架構圖

整體架構圖

SparkStreaming架構圖

1.3.2背壓機制

  Spark 1.5以前版本,用戶如果要限制Receiver的數據接收速率,可以通過設置靜態配制參數“spark.streaming.receiver.maxRate”的值來實現,此舉雖然可以通過限制接收速率,來適配當前的處理能力,防止內存溢出,但也會引入其它問題。比如:producer數據生產高于maxRate,當前集群處理能力也高于maxRate,這就會造成資源利用率下降等問題。

  為了更好的協調數據接收速率與資源處理能力,1.5版本開始Spark Streaming可以動態控制數據接收速率來適配集群數據處理能力。背壓機制(即Spark Streaming Backpressure): 根據JobScheduler反饋作業的執行信息來動態調整Receiver數據接收率。

  通過屬性“spark.streaming.backpressure.enabled”來控制是否啟用backpressure機制,默認值false,即不啟用。

第2章 Dstream入門

2.1 WordCount案例實操

需求:使用netcat工具向3333端口不斷的發送數據,通過SparkStreaming讀取端口數據并統計不同單詞出現的次數

  1)添加依賴

<!-- https://mvnrepository.com/artifact/org.apache.spark/spark-streaming -->
<dependency>
    <groupId>org.apache.spark</groupId>
    <artifactId>spark-streaming_2.12</artifactId>
    <version>3.0.1</version>
</dependency>

  2)添加log4j.properties

log4j.rootCategory=ERROR, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n

  3)編寫代碼

package com.yuange.sparkstreaming

package com.yuange.sparkstreaming

import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/2 17:02
 */
object WordCount {

  def main(args: Array[String]): Unit = {
    // ①創建編程入口,StreamingContext
    val streamingContext = new StreamingContext("local[2]","wc",Seconds(4))
    //②創建編程模型: DStream  根據不同的數據源創建不同的DS
    val ds: ReceiverInputDStream[String] = streamingContext.socketTextStream("hadoop103",3333)
    // ③調用DS中的方法進行運算
    val result: DStream[(String, Int)] = ds.flatMap(_.split(" ")).map((_,1)).reduceByKey(_ + _)
    // ④調用行動算子,例如輸出,打印等
    result.print(1000)
    // ⑤真正的計算,會在啟動了app之后運行
    streamingContext.start()
    // ⑥流式應用,需要一直運行(類似agent) 不能讓main運行完,阻塞main
    streamingContext.awaitTermination()
  }
}

  4)啟動程序并通過netcat發送數據:

nc -lk 3333

2.2 WordCount解析

  Discretized Stream是Spark Streaming的基礎抽象,代表持續性的數據流和經過各種Spark原語操作后的結果數據流。在內部實現上,DStream是一系列連續的RDD來表示。每個RDD含有一段時間間隔內的數據。

  對數據的操作也是按照RDD為單位來進行的

  計算過程由Spark Engine來完成

第3章 DStream創建

3.1 RDD隊列

3.1.1 用法及說明

  測試過程中,可以通過使用ssc.queueStream(queueOfRDDs)來創建DStream,每一個推送到這個隊列中的RDD,都會作為一個DStream處理。

3.1.2 案例實操

需求:循環創建幾個RDD,將RDD放入隊列。通過SparkStream創建Dstream,計算WordCount

  1)編寫代碼

package com.yuange.sparkstreaming

import org.apache.spark.SparkConf
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.{Seconds, StreamingContext}

import scala.collection.mutable

/**
 * @作者:袁哥
 * @時間:2021/7/2 19:26
 */
object RDDStream {

  def main(args: Array[String]): Unit = {
    //初始化Spark配置信息
    val conf = new SparkConf().setMaster("local[*]").setAppName("RDDStream")
    //初始化SparkStreamingContext
    val ssc = new StreamingContext(conf,Seconds(4))
    //創建RDD隊列
    val rddQueue = new mutable.Queue[RDD[Int]]()
    //創建QueueInputDStream
    val inputStream = ssc.queueStream(rddQueue,oneAtATime = false)
    //處理隊列中的RDD數據
    val reducedStream = inputStream.map((_,1)).reduceByKey(_ + _)
    //打印結果
    reducedStream.print()
    //啟動任務
    ssc.start()
    //循環創建并向RDD隊列中放入RDD
    for (i <- 1 to 4){
      rddQueue += ssc.sparkContext.makeRDD(1 to 300,10)
      Thread.sleep(1500)
    }
    ssc.awaitTermination()
  }
}

  2)結果展示

3.2 自定義數據源

3.2.1 用法及說明

  需要繼承Receiver,并實現onStart、onStop方法來自定義數據源采集。

3.2.2 案例實操

  需求:自定義數據源,實現監控某個端口號,獲取該端口號內容。

  1)自定義數據源

package com.yuange.sparkstreaming

import java.io.{BufferedReader, InputStreamReader}
import java.net.Socket
import java.nio.charset.StandardCharsets

import org.apache.spark.storage.StorageLevel
import org.apache.spark.streaming.receiver.Receiver

/**
 * @作者:袁哥
 * @時間:2021/7/2 19:42
 */
class CustomerReceiver(host: String,port: Int) extends Receiver[String](StorageLevel.MEMORY_ONLY){
    //最初啟動的時候,調用該方法,作用為:讀數據并將數據發送給Spark
    override def onStart(): Unit = {
      new Thread("Socket Receiver") {
        override def run() {
          receive()
        }
      }.start()
    }

    //讀數據并將數據發送給Spark
    def receive(): Unit = {
      //創建一個Socket
      var socket: Socket = new Socket(host,port)
      //定義一個變量,用來接收端口傳過來的數據
      var input: String = null
      //創建一個BufferedReader用于讀取端口傳來的數據

      val reader = new BufferedReader(new InputStreamReader(socket.getInputStream, StandardCharsets.UTF_8))
      //讀取數據
      input = reader.readLine()

      //當receiver沒有關閉并且輸入數據不為空,則循環發送數據給Spark
      while (!isStopped() && input != null) {
        store(input)
        input = reader.readLine()
      }

      //跳出循環則關閉資源
      reader.close()
      socket.close()
    }

    override def onStop(): Unit = {}
}

  2)使用自定義的數據源采集數據

package com.yuange.sparkstreaming

import org.apache.spark.SparkConf
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/2 19:54
 */
object FileStream {

  def main(args: Array[String]): Unit = {
    //初始化Spark配置信息
    val sparkConf = new SparkConf().setMaster("local[*]").setAppName("StreamWordCount")
    //初始化SparkStreamingContext
    val ssc = new StreamingContext(sparkConf,Seconds(4))
    //創建自定義的receiver的Streaming
    val lineStream = ssc.receiverStream(new CustomerReceiver("hadoop103", 3333))
    //將每行數據做切分,形成一個個單詞
    val wordStream = lineStream.flatMap(_.split("	"))
    //將單詞映射為元組
    val wordAndOneStream = wordStream.map((_,1))
    //6.將相同的單詞次數做統計
    val wordAndCountStream = wordAndOneStream.reduceByKey(_ + _)
    //7.打印
    wordAndCountStream.print()
    //8.啟動SparkStreamingContext
    ssc.start()
    ssc.awaitTermination()
  }

}

3.3 Kafka數據源

  ReceiverAPI(Receiver 模式):需要一個專門的Executor去接收數據,然后發送給其他的Executor做計算。存在的問題,接收數據的Executor和計算的Executor速度會有所不同,特別在接收數據的Executor速度大于計算的Executor速度,會導致計算數據的節點內存溢出。早期版本中提供此方式,當前版本不適用

  DirectAPI(Direct模式(推薦)):是由計算的Executor來主動消費Kafka的數據,速度由自身控制

  官方文檔:http://spark.apache.org/docs/latest/streaming-kafka-0-10-integration.html

3.3.1Direct模式官網版

  1)代碼

package com.yuange.kafka

import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.kafka010._

/**
 * @作者:袁哥
 * @時間:2021/7/3 14:00
 */
object KafkaDirectModeDemo {

  def main(args: Array[String]): Unit = {

    val streamingContext = new StreamingContext("local[2]","wc",Seconds(5))

    //配置消費者信息
    val kafkaParams = Map[String, Object](
      "bootstrap.servers" -> "hadoop102:9092,hadoop103:9092,hadoop104:9092",  //集群地址
      "key.deserializer" -> classOf[StringDeserializer],    //Key-value的反序列化器
      "value.deserializer" -> classOf[StringDeserializer],
      "group.id" -> "yuange", //消費者組id
      "auto.offset.reset" -> "latest",  //消費者id(可選)
      "enable.auto.commit" -> "true"  //是否自動提交offset,如果要自動提交,多久自動提交1次
    )

    //指定消費主題
    val topics = Array("topicA")

    // 使用提供的API,從kafka中獲取一個DS
    val ds = KafkaUtils.createDirectStream[String, String](
      streamingContext,
      /*
       *    位置策略:  指 Task允許的Executor 和 kafka的broker 的網絡拓撲關系
       *            大部分情況, LocationStrategies.PreferConsistent
       *                            PreferConsistent : 大部分情況,公司用
       *                            PreferBrokers:  executor和broker在同一臺機器
       *                            PreferFixed: 自定義
       */
      LocationStrategies.PreferConsistent,
      /*
       *     消費策略
       *              獨立消費者:       不需要借助Kafka集群保存Offset
       *                                      assign
       *              非獨立消費者(大部分):      需要kafka集群,采取分配策略為消費者組的每個消費者分配分區!
       *                                    需要借助kafka集群保存offset
       *                                      subscribe
       */
      ConsumerStrategies.Subscribe[String, String](topics, kafkaParams)
    )

    val ds1 = ds.map(recored => recored.value())
    ds1.print()

    streamingContext.start()
    streamingContext.awaitTermination()
  }
}

  2)啟動kafka生產者線程生產數據

bin/kafka-console-producer.sh --broker-list hadoop104:9092 --topic topicA

  3)查看結果

3.3.2Direct模式演示丟失數據

  1)代碼

package com.yuange.kafka

import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.kafka010.{ConsumerStrategies, KafkaUtils, LocationStrategies}

/**
 * @作者:袁哥
 * @時間:2021/7/3 22:32
 *
 *     數據處理語義:
 *            at least once : 至少一次,可以是 1次或多次,存在重復處理!
 *            at most once(沒人用) :  至多一次,可以是0次或1次, 存在丟數據風險!
 *            eaxctly once :  精確一次,不多不少
 *                    at least once  + 去重  = eaxctly once
 *     目前是自動提交offset,因此程序運行到49時,只是從kafka消費到了數據,還沒有進行計算,就已經自動提交了offset!
 *     無論發生什么情況,都只能從提交的offset后,再消費,如果程序異常,異常期間的那批數據,也無法在程序重啟后,再次消費到!
 */
object KafkaDirectLoseDataTest {

  def main(args: Array[String]): Unit = {
    val streamingContext = new StreamingContext("local[2]","wc",Seconds(5))

    //配置消費者信息
    val kafkaParams = Map[String, Object](
      "bootstrap.servers" -> "hadoop102:9092,hadoop103:9092,hadoop104:9092",  //集群地址
      "key.deserializer" -> classOf[StringDeserializer],    //Key-value的反序列化器
      "value.deserializer" -> classOf[StringDeserializer],
      "group.id" -> "yuange", //消費者組id
      "auto.offset.reset" -> "latest",  //消費者id(可選)
      "enable.auto.commit" -> "true"  //是否自動提交offset,如果要自動提交,多久自動提交1次
    )

    //指定消費主題
    val topics = Array("topicA")

    // 使用提供的API,從kafka中獲取一個DS
    val ds = KafkaUtils.createDirectStream[String, String](
      streamingContext,
      /*
       *    位置策略:  指 Task允許的Executor 和 kafka的broker 的網絡拓撲關系
       *      大部分情況, LocationStrategies.PreferConsistent
       *           PreferConsistent : 大部分情況,公司用
       *           PreferBrokers:  executor和broker在同一臺機器
       *           PreferFixed: 自定義
       */
      LocationStrategies.PreferConsistent,
      /*
       * 消費策略
       *   獨立消費者-->assign:不需要借助Kafka集群保存Offset
       *   非獨立消費者(大部分)-->subscribe:需要kafka集群,采取分配策略為消費者組的每個消費者分配分區!需要借助kafka集群保存offset
       */
      ConsumerStrategies.Subscribe[String, String](topics, kafkaParams)
    )

    //程序的運算邏輯
    val ds1 = ds.map(record =>{
      //模擬異常
      if (record.value().equals("d"))  1 / 0
      record.value()
    })
    ds1.print()

    streamingContext.start()
    streamingContext.awaitTermination()
  }
}

  2)測試

bin/kafka-console-producer.sh --topic topicA --broker-list hadoop102:9092

  3)結果

3.3.3Direct模式使用Checkpoint維護offset

  1)代碼

package com.yuange.kafka

import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.{Seconds, StreamingContext}
import org.apache.spark.streaming.kafka010.{ConsumerStrategies, KafkaUtils, LocationStrategies}

/**
 * @作者:袁哥
 * @時間:2021/7/3 22:40
 *   不能自動提交offset,需要自己維護offset!
 *   如何自己維護?
 *        三種方式:①Checkpoints   ②Kafka itself   ③Your own data store
 *    Checkpoints:  checkpoint本質是一個持久化的文件系統!將kafka的偏移量存儲在 spark提供的ck目錄中,下次程序重啟時,會從ck目錄獲取上次消費的offset,繼續消費!
 *    操作: ①設置ck目錄:streamingContext.checkpoint("kafkack")
 *           ②設置故障的時候,讓Driver從ck目錄恢復:
 *                  def getActiveOrCreate(
 *                        checkpointPath: String,       //ck目錄
 *                        creatingFunc: () => StreamingContext  // 一個空參的函數,要求返回StreamingContext,函數要求把計算邏輯也放入次函數
 *                  ): StreamingContext
 *           ③取消自動提交offset:"enable.auto.commit" -> "false"
 *    Checkpoints的弊端:
 *          ①一般的異常,會catch住,繼續運行,不給你異常后,從異常位置繼續往后消費的機會
 *          ②重啟后,會從上次ck目錄記錄的時間戳,一直按照 slide時間,提交Job,到啟動的時間
 *          ③會產生大量的小文件
 *    結論:不推薦使用!因為不能保證精確一次!
 */
object KafkaDirectCKTest {

  val ckPath:String ="kafkack"

  def main(args: Array[String]): Unit = {

    def creatingStreamingContextFunc(): StreamingContext = {
      val streamingContext = new StreamingContext("local[2]","wc",Seconds(5))
      //設置ck目錄
      streamingContext.checkpoint(ckPath)

      //配置消費者信息
      val kafkaParams = Map[String, Object](
        "bootstrap.servers" -> "hadoop102:9092,hadoop103:9092,hadoop104:9092",  //集群地址
        "key.deserializer" -> classOf[StringDeserializer],    //Key-value的反序列化器
        "value.deserializer" -> classOf[StringDeserializer],
        "group.id" -> "yuange", //消費者組id
        "auto.offset.reset" -> "latest",  //消費者id(可選)
        "enable.auto.commit" -> "false"  //是否自動提交offset,如果要自動提交,多久自動提交1次
      )

      //指定消費主題
      val topics = Array("topicA")

      // 使用提供的API,從kafka中獲取一個DS
      val ds = KafkaUtils.createDirectStream[String, String](
        streamingContext,
        /*
         *    位置策略:  指 Task允許的Executor 和 kafka的broker 的網絡拓撲關系
         *      大部分情況, LocationStrategies.PreferConsistent
         *           PreferConsistent : 大部分情況,公司用
         *           PreferBrokers:  executor和broker在同一臺機器
         *           PreferFixed: 自定義
         */
        LocationStrategies.PreferConsistent,
        /*
         * 消費策略
         *   獨立消費者-->assign:不需要借助Kafka集群保存Offset
         *   非獨立消費者(大部分)-->subscribe:需要kafka集群,采取分配策略為消費者組的每個消費者分配分區!需要借助kafka集群保存offset
         */
        ConsumerStrategies.Subscribe[String, String](topics, kafkaParams)
      )

      //程序的運算邏輯
      val ds1 = ds.map(record =>{
        //模擬異常
        if (record.value().equals("d"))  throw new UnknownError("故障了!求你停下來吧!")
        record.value()
      })
      ds1.print()
      streamingContext
    }

    // 要么直接創建,要么從ck目錄中恢復一個StreamingContext
    val context: StreamingContext = StreamingContext.getActiveOrCreate(ckPath,creatingStreamingContextFunc)

    context.start()
    context.awaitTermination()
  }
}

  2)測試

bin/kafka-console-producer.sh --topic topicA --broker-list hadoop102:9092

  3)結果

  4)將模擬異常的代碼注釋掉,然后再次啟動,發現重啟后,程序會從上次ck目錄記錄的時間戳,一直按照 slide時間,提交Job,到啟動的時間

3.3.4Direct模式使用Kafka維護offset

  1)代碼

package com.yuange.kafka

import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.kafka010.{CanCommitOffsets, ConsumerStrategies, HasOffsetRanges, KafkaUtils, LocationStrategies, OffsetRange}
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/5 8:19
 *    借助kafka提供的api,手動將offset存儲到kafka的__consumer_offsets中
 *        ①取消自動提交offset
 *        ②獲取當前消費到的這批數據的offset信息
 *        ③進行計算和輸出
 *        ④計算和輸出完全完成后,再手動提交offset
 **/
object KafkaDirectStoreOffsetToKafka {

  def main(args: Array[String]): Unit = {
    val streamingContext = new StreamingContext("local[2]","wc",Seconds(5))

    //配置消費者信息
    val kafkaParams = Map[String, Object](
      "bootstrap.servers" -> "hadoop102:9092,hadoop103:9092,hadoop104:9092",  //集群地址
      "key.deserializer" -> classOf[StringDeserializer],    //Key-value的反序列化器
      "value.deserializer" -> classOf[StringDeserializer],
      "group.id" -> "yuange", //消費者組id
      "auto.offset.reset" -> "latest",  //消費者id(可選)
      "enable.auto.commit" -> "false"  //是否自動提交offset,如果要自動提交,多久自動提交1次
    )

    //指定消費主題
    val topics = Array("topicA")

    // 使用提供的API,從kafka中獲取一個DS
    val ds = KafkaUtils.createDirectStream[String, String](
      streamingContext,
      /*
       *    位置策略:  指 Task允許的Executor 和 kafka的broker 的網絡拓撲關系
       *      大部分情況, LocationStrategies.PreferConsistent
       *           PreferConsistent : 大部分情況,公司用
       *           PreferBrokers:  executor和broker在同一臺機器
       *           PreferFixed: 自定義
       */
      LocationStrategies.PreferConsistent,
      /*
       * 消費策略
       *   獨立消費者-->assign:不需要借助Kafka集群保存Offset
       *   非獨立消費者(大部分)-->subscribe:需要kafka集群,采取分配策略為消費者組的每個消費者分配分區!需要借助kafka集群保存offset
       */
      ConsumerStrategies.Subscribe[String, String](topics, kafkaParams)
    )

    ds.foreachRDD { rdd =>
      //判斷當前RDD是不是KafkaRDD,如果是,獲取其中的偏移量信息
      val offsetRanges: Array[OffsetRange] = rdd.asInstanceOf[HasOffsetRanges].offsetRanges
      //在Driver端中的foreachRDD,只有RDD的算子,才在Executor端運行
      //計算邏輯:如果有冪等操作,此時是 精確一次,如果沒有冪等操作,此時就是 最少一次
      rdd.map(record => {
        //模擬異常
        //if (record.value().equals("d"))  1 / 0
        // 將數據寫到redis或hbase,保證寫N次,結果不變
        (record.value(),1)
      }).reduceByKey(_ + _).collect().foreach(println(_))

      //手動提交offset
      ds.asInstanceOf[CanCommitOffsets].commitAsync(offsetRanges)
    }

    streamingContext.start()
    streamingContext.awaitTermination()
  }
}

  2)測試

  3)結果

3.3.5Direct模式自己維護offset

  1)創建數據庫

CREATE TABLE `offsets` (
  `groupid` varchar(100) DEFAULT NULL,
  `topic` varchar(100) DEFAULT NULL,
  `partitionid` int(5) DEFAULT NULL,
  `offset` bigint(11) DEFAULT NULL
) ENGINE=InnoDB DEFAULT CHARSET=utf8;
CREATE TABLE `wordcount` (
  `word` varchar(200) NOT NULL,
  `count` int(11) DEFAULT NULL,
  PRIMARY KEY (`word`)
) ENGINE=InnoDB DEFAULT CHARSET=utf8;

  2)在idea中新建db.properties

jdbc.datasource.size=10
jdbc.url=jdbc:mysql://hadoop102:3306/test?useUnicode=true&characterEncoding=utf8&rewriteBatchedStatements=true
jdbc.user=root
jdbc.password=root123
jdbc.driver.name=com.mysql.jdbc.Driver

kafka.broker.list=hadoop102:9092,hadoop103:9092,hadoop104:9092

  3)新建JDBCUtil 工具類

package com.yuange.utils

import java.sql.Connection

import com.alibaba.druid.pool.DruidDataSourceFactory
import javax.sql.DataSource

/**
 * @作者:袁哥
 * @時間:2021/7/5 9:11
 */
object JDBCUtil {

  // 創建連接池對象
  var dataSource:DataSource = init()

  // 連接池的初始化
  def init():DataSource = {

    val paramMap = new java.util.HashMap[String, String]()
    paramMap.put("driverClassName", PropertiesUtil.getValue("jdbc.driver.name"))
    paramMap.put("url", PropertiesUtil.getValue("jdbc.url"))
    paramMap.put("username", PropertiesUtil.getValue("jdbc.user"))
    paramMap.put("password", PropertiesUtil.getValue("jdbc.password"))
    paramMap.put("maxActive", PropertiesUtil.getValue("jdbc.datasource.size"))

    // 使用Druid連接池對象
    DruidDataSourceFactory.createDataSource(paramMap)
  }

  // 從連接池中獲取連接對象
  def getConnection(): Connection = {
    dataSource.getConnection
  }

  def main(args: Array[String]): Unit = {
    println(getConnection())
  }
}

  4)新建PropertiesUtil 工具類

package com.yuange.utils

import java.util.ResourceBundle

/**
 * @作者:袁哥
 * @時間:2021/7/5 9:12
 */
object PropertiesUtil {

  // 綁定配置文件
  // ResourceBundle專門用于讀取配置文件,所以讀取時,不需要增加擴展名
  // 國際化 = I18N => Properties
  val resourceFile: ResourceBundle = ResourceBundle.getBundle("db")

  def getValue( key : String ): String = {
    resourceFile.getString(key)
  }

  def main(args: Array[String]): Unit = {
    println(getValue("jdbc.user"))
  }
}

  5)代碼

package com.yuange.kafka

import java.sql.{Connection, PreparedStatement, ResultSet}

import com.yuange.utils.JDBCUtil
import org.apache.kafka.clients.consumer.ConsumerRecord
import org.apache.kafka.common.TopicPartition
import org.apache.kafka.common.serialization.StringDeserializer
import org.apache.spark.streaming.dstream.InputDStream
import org.apache.spark.streaming.kafka010.{ConsumerStrategies, HasOffsetRanges, KafkaUtils, LocationStrategies, OffsetRange}
import org.apache.spark.streaming.{Seconds, StreamingContext}

import scala.collection.mutable

/**
 * @作者:袁哥
 * @時間:2021/7/5 8:36
 *    自己維護offset:①取消自動提交offset
 *                    ②在程序開始計算之前,先從 mysql中讀取上次提交的offsets
 *                    ③基于上次提交的offsets,構造一個DS,這個DS從上次提交的offsets位置向后消費的數據流
 *                          def SubscribePattern[K, V](
 *                                pattern: ju.regex.Pattern,
 *                                kafkaParams: collection.Map[String, Object],
 *                                offsets: collection.Map[TopicPartition, Long]): ConsumerStrategy[K, V]
 *                     ④需要將結果,收集到Driver端,和offsets信息,組合為一個事務,一起寫入數據庫(若成功,提交,失敗,就回滾?。? *    Mysql中表的設計:
 *        運算的結果:單詞統計 -->  result(單詞 varchar, count int)
 *        offsets:offsets(group_id varchar, topic varchar, partition int , offset bigint)
 *    精準一次,借助事務
 */
object KafkaDirectStoreOffsetToMysql {

  val groupId:String ="yuange"
  val streamingContext = new StreamingContext("local[2]", "wc", Seconds(5))

  def main(args: Array[String]): Unit = {
    // 消費者的配置
    val kafkaParams = Map[String, Object](
      "bootstrap.servers" -> "hadoop102:9092,hadoop103:9092,hadoop104:9092",
      "key.deserializer" -> classOf[StringDeserializer],
      "value.deserializer" -> classOf[StringDeserializer],
      "group.id" -> groupId,
      "auto.offset.reset" -> "latest",
      "enable.auto.commit" -> "false"
    )

    // 查詢之前已經在mysql中保存的offset
    val offsetsMap: Map[TopicPartition, Long] = readHitoryOffsetsFromMysql(groupId)
    //指定消費主題
    val topics = Array("topicA")
    // 基于上次提交的offsets,構造一個DS,這個DS從上次提交的offsets位置向后消費的數據流
    val ds: InputDStream[ConsumerRecord[String, String]] = KafkaUtils.createDirectStream[String, String](
      streamingContext,
      LocationStrategies.PreferConsistent,
      ConsumerStrategies.Subscribe[String, String](topics, kafkaParams,offsetsMap)
    )
    ds.foreachRDD { rdd =>
      //消費到了數據
      if (!rdd.isEmpty()){
        val offsetRanges: Array[OffsetRange] = rdd.asInstanceOf[HasOffsetRanges].offsetRanges
        offsetRanges.foreach(println)
        //計算邏輯
        val result: Array[(String, Int)] = rdd.map(record => (record.value(), 1)).reduceByKey(_ + _).collect()
        // 開啟事務,和offsets一起寫入mysql
        writeResultAndOffsetsToMysql(result,offsetRanges)
      }
    }
    streamingContext.start()
    streamingContext.awaitTermination()
  }

  //從Mysql讀取歷史偏移量
  def readHitoryOffsetsFromMysql(groupId: String) : Map[TopicPartition, Long] = {
    val offsetsMap: mutable.Map[TopicPartition, Long] = mutable.Map[TopicPartition, Long]()

    var conn:Connection=null
    var ps:PreparedStatement=null
    var rs:ResultSet=null

    val sql:String=
      """
        |SELECT
        |  `topic`,`partitionid`,`offset`
        |FROM `offsets`
        |WHERE `groupid`=?
        |
        |""".stripMargin
    try {
      conn=JDBCUtil.getConnection()
      ps=conn.prepareStatement(sql)
      ps.setString(1,groupId)
      rs= ps.executeQuery()
      while(rs.next()){
        val topic: String = rs.getString("topic")
        val partitionid: Int = rs.getInt("partitionid")
        val offset: Long = rs.getLong("offset")
        val topicPartition = new TopicPartition(topic, partitionid)
        offsetsMap.put(topicPartition,offset)
      }
    }catch {
      case e:Exception =>
        e.printStackTrace()
        throw new RuntimeException("查詢偏移量出錯!")

    }finally {
      if (rs != null){
        rs.close()
      }
      if (ps != null){
        ps.close()
      }
      if (conn != null){
        conn.close()
      }
    }
    //將可變map轉為不可變map
    offsetsMap.toMap
  }

  //在一個事務中,寫入結果和偏移量
  def writeResultAndOffsetsToMysql(result: Array[(String, Int)], offsetRanges: Array[OffsetRange]): Unit = {
    val  sql1:String =
      """
        |INSERT INTO
        |    `wordcount` VALUES(?,?)
        |ON DUPLICATE KEY UPDATE `count`= COUNT + VALUES(COUNT)
        |
        |""".stripMargin

    val sql2:String =
      """
        |INSERT INTO
        |   `offsets` VALUES(?,?,?,?)
        |   ON DUPLICATE KEY UPDATE `offset`= VALUES(OFFSET)
        |
        |""".stripMargin
    var conn:Connection=null
    var ps1:PreparedStatement=null
    var ps2:PreparedStatement=null
    try {
      conn=JDBCUtil.getConnection()
      //取消事務的自動提交 ,只有取消了自動提交,才能將多次寫操作組合為一個事務,手動提交
      conn.setAutoCommit(false)
      ps1=conn.prepareStatement(sql1)
      ps2=conn.prepareStatement(sql2)
      for ((word, count) <- result) {
        ps1.setString(1,word)
        ps1.setInt(2,count)
        ps1.addBatch()
      }
      //一批insert執行一次
      ps1.executeBatch()
      //模擬異常
      //1 / 0
      for (offsetRange <- offsetRanges) {
        ps2.setString(1,groupId)
        ps2.setString(2,offsetRange.topic)
        ps2.setInt(3,offsetRange.partition)
        ps2.setLong(4,offsetRange.untilOffset)
        ps2.addBatch()
      }
      ps2.executeBatch()
      //手動提交事務
      conn.commit()
    }catch {
      case e:Exception =>
        e.printStackTrace()
        //回滾事務
        conn.rollback()
        //重啟app ,暫時以停止代替
        streamingContext.stop(true)
    }finally {
      if (ps1 != null){
        ps1.close()
      }
      if (ps2 != null){
        ps2.close()
      }
      if (conn != null){
        conn.close()
      }
    }
  }
}

  6)測試

bin/kafka-console-producer.sh --topic topicA --broker-list hadoop102:9092

  7)結果

4章 DStream轉換

  DStream上的操作與RDD的類似,分為Transformations(轉換)和Output Operations(輸出)兩種,此外轉換操作中還有一些比較特殊的原語,如:updateStateByKey()、transform()以及各種Window相關的原語。

4.1 無狀態轉化操作

  無狀態轉化操作就是把簡單的RDD轉化操作應用到每個批次上,也就是轉化DStream中的每一個RDD。部分無狀態轉化操作列在了下表中。注意,針對鍵值對的DStream轉化操作(比如 reduceByKey())要添加import StreamingContext._才能在Scala中使用。

  需要記住的是,盡管這些函數看起來像作用在整個流上一樣,但事實上每個DStream在內部是由許多RDD(批次)組成,且無狀態轉化操作是分別應用到每個RDD上的。

  例如:reduceByKey()會歸約每個時間區間中的數據,但不會歸約不同區間之間的數據。

4.1.1 Transform

  Transform允許DStream上執行任意的RDD-to-RDD函數。即使這些函數并沒有在DStream的API中暴露出來,通過該函數可以方便的擴展Spark API。該函數每一批次調度一次。其實也就是對DStream中的RDD應用轉換。

package com.yuange.sparkstreaming

import org.apache.spark.SparkConf
import org.apache.spark.rdd.RDD
import org.apache.spark.streaming.dstream.ReceiverInputDStream
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/2 21:34
 */
object Transform {

  def main(args: Array[String]): Unit = {
    //創建SparkConf
    val sparkConf: SparkConf = new SparkConf().setMaster("local[*]").setAppName("WordCount")
    //創建StreamingContext
    val ssc = new StreamingContext(sparkConf,Seconds(4))
    //創建DStream
    val ds: ReceiverInputDStream[String] = ssc.socketTextStream("hadoop103",3333)
    //轉化為RDD
    ds.transform(rdd => {
      val words: RDD[String] = rdd.flatMap(_.split("	"))
      val wordAndOne: RDD[(String,Int)] = words.map((_ , 1))
      val values: RDD[(String,Int)] = wordAndOne.reduceByKey(_ + _)
      values
    })
    //打印
    ds.print()
    //啟動
    ssc.start()
    ssc.awaitTermination()
  }
}

4.1.2 Join

  兩個流之間的join需要兩個流的批次大小一致,這樣才能做到同時觸發計算。計算過程就是對當前批次的兩個流中各自的RDD進行join,與兩個RDD的join效果相同。

package com.yuange.sparkstreaming

import org.apache.spark.streaming.dstream.{DStream, ReceiverInputDStream}
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/2 21:51
 */
object JoinTest {

  def main(args: Array[String]): Unit = {
    val streamingContext = new StreamingContext("local[*]", "wc", Seconds(5))
    val ds1: ReceiverInputDStream[String] = streamingContext.socketTextStream("hadoop103", 3333)
    val ds2: ReceiverInputDStream[String] = streamingContext.socketTextStream("hadoop103", 3334)
    //轉換為K-V類型
    val ds3: DStream[(String, Int)] = ds1.map((_, 1))
    val ds4: DStream[(String, Int)] = ds2.map((_, 2))
    // 只能Join同一個批次的兩個RDD中的數據
    val ds5: DStream[(String, (Int, Int))] = ds3.join(ds4)
    ds5.print(1000)
    // ⑤真正的計算,會在啟動了app之后運行
    streamingContext.start()
    // ⑥流式應用,需要一直運行(類似agent) 不能讓main運行完,阻塞main
    streamingContext.awaitTermination()
  }
}

4.2 有狀態轉化操作

4.2.1 UpdateStateByKey

  UpdateStateByKey原語用于記錄歷史記錄,有時,我們需要在DStream中跨批次維護狀態(例如流計算中累加wordcount)。針對這種情況,updateStateByKey()為我們提供了對一個狀態變量的訪問,用于鍵值對形式的DStream。給定一個由(鍵,事件)對構成的 DStream,并傳遞一個指定如何根據新的事件更新每個鍵對應狀態的函數,它可以構建出一個新的 DStream,其內部數據為(鍵,狀態) 對。

  updateStateByKey() 的結果會是一個新的DStream,其內部的RDD 序列是由每個時間區間對應的(鍵,狀態)對組成的。

  updateStateByKey操作使得我們可以在用新信息進行更新時保持任意的狀態。為使用這個功能,需要做下面兩步:

    1. 定義狀態,狀態可以是一個任意的數據類型。

    2. 定義狀態更新函數,用此函數闡明如何使用之前的狀態和來自輸入流的新值對狀態進行更新。

  使用updateStateByKey需要對檢查點目錄進行配置,會使用檢查點來保存狀態。

  1)編寫代碼

package com.yuange.sparkstreaming

import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/2 22:30
 */
object UpdateStateByKeyTest {

  def main(args: Array[String]): Unit = {
    // 定義更新狀態方法,參數values為當前批次單詞頻度,state為以往批次單詞頻度
    val updateFunc = (values: Seq[Int], state: Option[Int]) => {
      val currentCount = values.foldLeft(0)(_ + _)
      val previousCount = state.getOrElse(0)
      Some(currentCount + previousCount)
    }
    val ssc = new StreamingContext("local[*]","UpdateStateByKeyTest",Seconds(5))
    ssc.checkpoint("./ck")

    val word = ssc.socketTextStream("hadoop103",3333)
    // 使用updateStateByKey來更新狀態,統計從運行開始以來單詞總的次數
    val stateDS = word.flatMap(_.split(" ")).map(r => (r,1)).updateStateByKey[Int](updateFunc)
    stateDS.print()
    ssc.start()
    ssc.awaitTermination()
  }
}

  2)啟動程序并向3333端口發送數據

nc -lk 3333
Hello World
Hello Scala

  3)結果展示

4.2.2 WindowOperations

  Window Operations可以設置窗口的大小和滑動窗口的間隔來動態的獲取當前Steaming的允許狀態。所有基于窗口的操作都需要兩個參數,分別為窗口時長以及滑動步長。

窗口時長:計算內容的時間范圍;
滑動步長:隔多久觸發一次計算。

  注意:這兩者都必須為采集周期大小的整數倍。

  WordCount第三版:3秒一個批次,窗口12秒,滑步6秒。

package com.yuange.sparkstreaming

import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/2 22:41
 */
object WindowOperations {

  def main(args: Array[String]): Unit = {
    val ssc = new StreamingContext("local[*]","WindowOperations",Seconds(3))
    ssc.checkpoint("./ck")
    val word = ssc.socketTextStream("hadoop103",3333)
    val word2 = word.flatMap(_.split(" ")).map(r => (r,1)).reduceByKeyAndWindow((a: Int,b: Int) => (a+b),Seconds(12),Seconds(6))
    word2.print()
    ssc.start()
    ssc.awaitTermination()
  }
}

  關于Window的操作還有如下方法:

   ?。?)window(windowLength,slideInterval): 基于對源DStream窗化的批次進行計算返回一個新的Dstream;

    (2)countByWindow(windowLength,slideInterval): 返回一個滑動窗口計數流中的元素個數;

   ?。?)reduceByWindow(func,windowLength,slideInterval): 通過使用自定義函數整合滑動區間流元素來創建一個新的單元素流;

    (4)reduceByKeyAndWindow(func,windowLength,slideInterval, [numTasks]): 當在一個(K,V)對的DStream上調用此函數,會返回一個新(K,V)對的DStream,此處通過對滑動窗口中批次數據使用reduce函數來整合每個key的value值。

   ?。?)reduceByKeyAndWindow(func,invFunc,windowLength,slideInterval, [numTasks]): 這個函數是上述函數的變化版本,每個窗口的reduce值都是通過用前一個窗的reduce值來遞增計算。通過reduce進入到滑動窗口數據并”反向reduce”離開窗口的舊數據來實現這個操作。一個例子是隨著窗口滑動對keys的“加”“減”計數。通過前邊介紹可以想到,這個函數只適用于”可逆的reduce函數”,也就是這些reduce函數有相應的”反reduce”函數(以參數invFunc形式傳入)。如前述函數,reduce任務的數量通過可選參數來配置。

val ipDStream = accessLogsDStream.map(logEntry => (logEntry.getIpAddress(), 1))
val ipCountDStream = ipDStream.reduceByKeyAndWindow(
  {(x, y) => x + y},
  {(x, y) => x - y},
  Seconds(30),
  Seconds(10))
  //加上新進入窗口的批次中的元素 //移除離開窗口的老批次中的元素 //窗口時長// 滑動步長

  countByWindow()和countByValueAndWindow()作為對數據進行計數操作的簡寫。countByWindow()返回一個表示每個窗口中元素個數的DStream,而countByValueAndWindow()返回的DStream則包含窗口中每個值的個數。

val ipDStream = accessLogsDStream.map{entry => entry.getIpAddress()}
val ipAddressRequestCount = ipDStream.countByValueAndWindow(Seconds(30), Seconds(10)) 
val requestCount = accessLogsDStream.countByWindow(Seconds(30), Seconds(10))

第5章 DStream輸出

  輸出操作指定了對流數據經轉化操作得到的數據所要執行的操作(例如把結果推入外部數據庫或輸出到屏幕上)。與RDD中的惰性求值類似,如果一個DStream及其派生出的DStream都沒有被執行輸出操作,那么這些DStream就都不會被求值。如果StreamingContext中沒有設定輸出操作,整個context就都不會啟動。

輸出操作如下:

print():在運行流程序的驅動結點上打印DStream中每一批次數據的最開始10個元素。這用于開發和調試。在Python API中,同樣的操作叫print()。
saveAsTextFiles(prefix, [suffix]):以text文件形式存儲這個DStream的內容。每一批次的存儲文件名基于參數中的prefix和suffix?!眕refix-Time_IN_MS[.suffix]”。
saveAsObjectFiles(prefix, [suffix]):以Java對象序列化的方式將Stream中的數據保存為 SequenceFiles. 每一批次的存儲文件名基于參數中的為"prefix-TIME_IN_MS[.suffix]".Python中目前不可用。
saveAsHadoopFiles(prefix, [suffix]):將Stream中的數據保存為 Hadoop files. 每一批次的存儲文件名基于參數中的為"prefix-TIME_IN_MS[.suffix]"。Python API中目前不可用。
foreachRDD(func):這是最通用的輸出操作,即將函數 func 用于產生于 stream的每一個RDD。其中參數傳入的函數func應該實現將每一個RDD中數據推送到外部系統,如將RDD存入文件或者通過網絡將其寫入數據庫。

  通用的輸出操作foreachRDD(),它用來對DStream中的RDD運行任意計算。這和transform() 有些類似,都可以讓我們訪問任意RDD。在foreachRDD()中,可以重用我們在Spark中實現的所有行動操作。比如,常見的用例之一是把數據寫到諸如MySQL的外部數據庫中。

  注意:

    1)連接不能寫在driver層面(序列化)

    2)如果寫在foreach則每個RDD中的每一條數據都創建,得不償失;

    3)增加foreachPartition,在分區創建(獲取)。

第6章 優雅關閉

  流式任務需要7*24小時執行,但是有時涉及到升級代碼需要主動停止程序,但是分布式程序,沒辦法做到一個個進程去殺死,所有配置優雅的關閉就顯得至關重要了。

  使用外部文件系統來控制內部程序關閉。

  1)MonitorStop

package com.yuange.sparkstreaming


import java.net.URI

import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.{FileSystem, Path}
import org.apache.spark.streaming.{StreamingContext, StreamingContextState}

/**
 * @作者:袁哥
 * @時間:2021/7/3 11:28
 */
class MonitorStop(ssc: StreamingContext) extends Runnable{
  override def run(): Unit = {
    val fs: FileSystem = FileSystem.get(new URI("hdfs://hadoop102:8020"),new Configuration(),"atguigu")
    while (true) {
      try{
        Thread.sleep(5000)
      }catch {
        case e: Exception => {
          e.printStackTrace()
        }
      }
      val state: StreamingContextState = ssc.getState
      val bool: Boolean = fs.exists(new Path("hdfs://hadoop102:8020/stopSpark"))

      if (bool){
        if (state == StreamingContextState.ACTIVE){
          ssc.stop(stopSparkContext = true,stopGracefully = true)
          System.exit(0)
        }
      }
    }
  }
}

  2)SparkTest

package com.yuange.sparkstreaming

import org.apache.spark.SparkConf
import org.apache.spark.streaming.dstream.ReceiverInputDStream
import org.apache.spark.streaming.{Seconds, StreamingContext}

/**
 * @作者:袁哥
 * @時間:2021/7/3 11:38
 */
object SparkTest {

  def createSSC(): _root_.org.apache.spark.streaming.StreamingContext = {
    val update: (Seq[Int], Option[Int]) => Some[Int] = (values: Seq[Int],status: Option[Int]) => {
      //當前批次的內容
      val sum: Int = values.sum
      //取出狀態信息中上一次狀態
      val lastStatu: Int = status.getOrElse(0)
      Some(sum + lastStatu)
    }
    val sparkConf: SparkConf = new SparkConf().setMaster("local[4]").setAppName("SparkTest")
    //設置優雅的關閉
    sparkConf.set("spark.streaming.stopGracefullyOnShutdown", "true")
    val ssc = new StreamingContext(sparkConf,Seconds(5))
    ssc.checkpoint("./ck")

    val word: ReceiverInputDStream[String] = ssc.socketTextStream("hadoop103",3333)

    val word2 = word.flatMap(_.split(" ")).map((_,1)).updateStateByKey(update)
    word2.print()
    ssc
  }

  def main(args: Array[String]): Unit = {
    val ssc: StreamingContext = StreamingContext.getActiveOrCreate("./ck",() => createSSC())

    new Thread(new MonitorStop(ssc)).start()

    ssc.start()
    ssc.awaitTermination()
  }
}

總結

以上是生活随笔為你收集整理的实时分析系统--SparkStreaming的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

亚洲 a v无 码免 费 成 人 a v | 玩弄少妇高潮ⅹxxxyw | 综合激情五月综合激情五月激情1 | 日韩成人一区二区三区在线观看 | av无码电影一区二区三区 | 亚洲国产精品无码一区二区三区 | 日韩精品乱码av一区二区 | 精品偷拍一区二区三区在线看 | 九月婷婷人人澡人人添人人爽 | 乌克兰少妇性做爰 | 国产精品亚洲综合色区韩国 | 日韩欧美成人免费观看 | 人妻少妇精品久久 | 国产人妻人伦精品 | 九九热爱视频精品 | 欧美freesex黑人又粗又大 | 我要看www免费看插插视频 | 牲欲强的熟妇农村老妇女 | 一本色道婷婷久久欧美 | 99久久久无码国产aaa精品 | 无码免费一区二区三区 | 人人澡人摸人人添 | 在线成人www免费观看视频 | 伦伦影院午夜理论片 | 未满小14洗澡无码视频网站 | 久久婷婷五月综合色国产香蕉 | 欧美三级不卡在线观看 | 丰满少妇弄高潮了www | 欧美日韩视频无码一区二区三 | a国产一区二区免费入口 | 久久亚洲日韩精品一区二区三区 | 麻豆md0077饥渴少妇 | 欧美第一黄网免费网站 | 精品国产一区二区三区四区 | 久久天天躁狠狠躁夜夜免费观看 | 国产精品久久久久影院嫩草 | 国产成人精品久久亚洲高清不卡 | 综合网日日天干夜夜久久 | 亚洲一区二区三区无码久久 | 久久亚洲中文字幕无码 | 亚洲色www成人永久网址 | 中文字幕av无码一区二区三区电影 | 女人被男人躁得好爽免费视频 | 久久久www成人免费毛片 | 亚洲国产欧美在线成人 | 中文字幕人妻无码一夲道 | 亚洲s色大片在线观看 | 中文精品无码中文字幕无码专区 | 99精品久久毛片a片 | 狠狠亚洲超碰狼人久久 | 午夜不卡av免费 一本久久a久久精品vr综合 | 国产婷婷色一区二区三区在线 | 亚洲中文字幕乱码av波多ji | 国产香蕉97碰碰久久人人 | 88国产精品欧美一区二区三区 | 丝袜美腿亚洲一区二区 | 久久人人爽人人人人片 | 中文字幕 亚洲精品 第1页 | 无遮挡啪啪摇乳动态图 | 玩弄少妇高潮ⅹxxxyw | 领导边摸边吃奶边做爽在线观看 | 久久精品一区二区三区四区 | 欧美精品一区二区精品久久 | 女人被男人爽到呻吟的视频 | www国产亚洲精品久久网站 | 国产免费久久精品国产传媒 | 丰满人妻翻云覆雨呻吟视频 | 玩弄少妇高潮ⅹxxxyw | 国产人妻人伦精品1国产丝袜 | 亚洲 欧美 激情 小说 另类 | 国产真实乱对白精彩久久 | 国产精品丝袜黑色高跟鞋 | 亚洲成av人综合在线观看 | 黄网在线观看免费网站 | 成 人 网 站国产免费观看 | 人妻插b视频一区二区三区 | 国产精品久久久久影院嫩草 | 女人被爽到呻吟gif动态图视看 | 成 人 网 站国产免费观看 | 天天躁夜夜躁狠狠是什么心态 | 亚洲综合无码久久精品综合 | 久久五月精品中文字幕 | 中文毛片无遮挡高清免费 | 国内精品人妻无码久久久影院 | 久久99精品久久久久久动态图 | 曰本女人与公拘交酡免费视频 | 国产精品欧美成人 | 成在人线av无码免观看麻豆 | 97精品人妻一区二区三区香蕉 | 狠狠色欧美亚洲狠狠色www | 亚洲日本在线电影 | 国产精品丝袜黑色高跟鞋 | 又色又爽又黄的美女裸体网站 | 欧美黑人巨大xxxxx | 鲁大师影院在线观看 | 欧美zoozzooz性欧美 | 国产成人人人97超碰超爽8 | 成人一在线视频日韩国产 | 精品夜夜澡人妻无码av蜜桃 | 久久99精品久久久久久 | 久久五月精品中文字幕 | 欧美丰满少妇xxxx性 | 久久无码专区国产精品s | 中文字幕中文有码在线 | 性史性农村dvd毛片 | 午夜精品久久久久久久 | 精品亚洲成av人在线观看 | 亚洲成a人片在线观看日本 | 黑人巨大精品欧美一区二区 | 久久99精品久久久久婷婷 | 精品一区二区三区无码免费视频 | 成人动漫在线观看 | 粉嫩少妇内射浓精videos | 99久久精品午夜一区二区 | 一本大道伊人av久久综合 | 亚洲人成网站色7799 | 国产成人精品三级麻豆 | 我要看www免费看插插视频 | 伊在人天堂亚洲香蕉精品区 | 精品欧美一区二区三区久久久 | 大肉大捧一进一出好爽视频 | 日韩少妇内射免费播放 | 日日天日日夜日日摸 | 国内少妇偷人精品视频 | 精品人妻av区 | 永久免费观看国产裸体美女 | 国产精品毛片一区二区 | 国精产品一区二区三区 | 狠狠色噜噜狠狠狠7777奇米 | 在线观看国产一区二区三区 | 欧美35页视频在线观看 | 76少妇精品导航 | 牛和人交xxxx欧美 | 国产av剧情md精品麻豆 | 俺去俺来也www色官网 | 国产精品视频免费播放 | 日本熟妇人妻xxxxx人hd | 亚洲一区av无码专区在线观看 | 日本丰满护士爆乳xxxx | 亚洲va欧美va天堂v国产综合 | 欧美人与动性行为视频 | 久久婷婷五月综合色国产香蕉 | 欧美性色19p | 亚洲色欲色欲欲www在线 | 人妻人人添人妻人人爱 | 熟妇激情内射com | 任你躁国产自任一区二区三区 | 国产乱子伦视频在线播放 | 国产精品第一区揄拍无码 | 成人一在线视频日韩国产 | 一本色道久久综合亚洲精品不卡 | 人妻有码中文字幕在线 | 天堂亚洲2017在线观看 | 亚洲成av人综合在线观看 | 日韩在线不卡免费视频一区 | 成 人 免费观看网站 | 无码一区二区三区在线 | 久久综合网欧美色妞网 | 精品人人妻人人澡人人爽人人 | 久久久久成人精品免费播放动漫 | 2019午夜福利不卡片在线 | 亚洲中文字幕av在天堂 | 色婷婷久久一区二区三区麻豆 | 国产成人精品必看 | 九九综合va免费看 | 久久综合给久久狠狠97色 | 久久久久亚洲精品男人的天堂 | 午夜精品久久久久久久 | 国产肉丝袜在线观看 | 麻豆md0077饥渴少妇 | 男女猛烈xx00免费视频试看 | 99久久人妻精品免费二区 | 日本熟妇乱子伦xxxx | 日本xxxx色视频在线观看免费 | 亚洲大尺度无码无码专区 | 无码人妻精品一区二区三区下载 | 午夜精品久久久久久久久 | 成熟妇人a片免费看网站 | 国产激情综合五月久久 | 女人被男人爽到呻吟的视频 | 日韩精品无码一本二本三本色 | 日韩欧美中文字幕公布 | 一二三四在线观看免费视频 | 欧美日韩一区二区免费视频 | 免费无码av一区二区 | 97久久精品无码一区二区 | 在线精品国产一区二区三区 | 亚洲中文字幕久久无码 | 麻豆md0077饥渴少妇 | 玩弄中年熟妇正在播放 | 98国产精品综合一区二区三区 | 中文精品久久久久人妻不卡 | 大肉大捧一进一出视频出来呀 | 在教室伦流澡到高潮hnp视频 | 日产精品高潮呻吟av久久 | 国产无遮挡吃胸膜奶免费看 | 国产又爽又黄又刺激的视频 | 日日摸夜夜摸狠狠摸婷婷 | 少妇被黑人到高潮喷出白浆 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲日本一区二区三区在线 | 亚洲国产欧美国产综合一区 | 亚无码乱人伦一区二区 | 亚洲国产日韩a在线播放 | 日日摸天天摸爽爽狠狠97 | 久久99精品久久久久久 | 久久人人爽人人爽人人片av高清 | 中文字幕无码av波多野吉衣 | 国产热a欧美热a在线视频 | 2019nv天堂香蕉在线观看 | 激情五月综合色婷婷一区二区 | 帮老师解开蕾丝奶罩吸乳网站 | 免费无码肉片在线观看 | 亚洲精品欧美二区三区中文字幕 | 麻豆果冻传媒2021精品传媒一区下载 | 天下第一社区视频www日本 | 国产麻豆精品一区二区三区v视界 | 亚洲gv猛男gv无码男同 | 女人被男人爽到呻吟的视频 | 国产成人无码av在线影院 | 国产精品久久久久无码av色戒 | 国产97色在线 | 免 | 国产精品国产三级国产专播 | 国产精品高潮呻吟av久久4虎 | 国产亚洲tv在线观看 | 牲欲强的熟妇农村老妇女视频 | 国产人妻久久精品二区三区老狼 | 国产精品理论片在线观看 | 欧美国产日韩久久mv | 国产猛烈高潮尖叫视频免费 | 欧美丰满少妇xxxx性 | 欧美亚洲日韩国产人成在线播放 | 日日摸夜夜摸狠狠摸婷婷 | 97夜夜澡人人双人人人喊 | 国产99久久精品一区二区 | 亚洲国产精华液网站w | 亚洲经典千人经典日产 | 女人和拘做爰正片视频 | 全黄性性激高免费视频 | 国产尤物精品视频 | 大色综合色综合网站 | 精品一区二区三区波多野结衣 | 亚洲va欧美va天堂v国产综合 | 天下第一社区视频www日本 | 性色av无码免费一区二区三区 | 久久午夜无码鲁丝片午夜精品 | 高潮毛片无遮挡高清免费 | 天堂在线观看www | 欧洲精品码一区二区三区免费看 | 女人被男人爽到呻吟的视频 | 国产麻豆精品一区二区三区v视界 | 又紧又大又爽精品一区二区 | 国产精品-区区久久久狼 | 人人妻人人澡人人爽欧美一区九九 | 美女极度色诱视频国产 | 中文字幕av日韩精品一区二区 | 日韩av激情在线观看 | 欧美成人高清在线播放 | 欧美兽交xxxx×视频 | 国内精品人妻无码久久久影院蜜桃 | 99er热精品视频 | 亚洲人成网站免费播放 | 国产精品久久久久9999小说 | 国产精品久久久 | 亚洲性无码av中文字幕 | 国产精品人人爽人人做我的可爱 | 欧美精品国产综合久久 | 性生交大片免费看女人按摩摩 | 中文字幕日韩精品一区二区三区 | 乱码午夜-极国产极内射 | 蜜桃av抽搐高潮一区二区 | 好屌草这里只有精品 | 欧美性生交活xxxxxdddd | 3d动漫精品啪啪一区二区中 | 免费观看黄网站 | 色爱情人网站 | 乱人伦中文视频在线观看 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 欧美喷潮久久久xxxxx | 亚洲成色在线综合网站 | 一本色道久久综合狠狠躁 | 国产区女主播在线观看 | 永久免费观看国产裸体美女 | 国产精品国产三级国产专播 | 国产超碰人人爽人人做人人添 | 久久精品国产99精品亚洲 | 日产国产精品亚洲系列 | 国产精品国产三级国产专播 | 久久99久久99精品中文字幕 | 国产欧美精品一区二区三区 | 亚洲精品成人福利网站 | 在线亚洲高清揄拍自拍一品区 | 日韩av无码一区二区三区不卡 | 久久精品国产日本波多野结衣 | 色窝窝无码一区二区三区色欲 | 欧美熟妇另类久久久久久不卡 | 美女黄网站人色视频免费国产 | 在线精品国产一区二区三区 | 免费观看黄网站 | 久久国产劲爆∧v内射 | 亚洲第一无码av无码专区 | 亚洲理论电影在线观看 | 欧美国产日韩久久mv | 国语精品一区二区三区 | 亚洲精品一区二区三区在线 | 精品少妇爆乳无码av无码专区 | 东北女人啪啪对白 | 国产亚洲美女精品久久久2020 | 日韩av无码一区二区三区 | 国产舌乚八伦偷品w中 | 国产亲子乱弄免费视频 | 久久亚洲中文字幕精品一区 | 极品尤物被啪到呻吟喷水 | av在线亚洲欧洲日产一区二区 | 3d动漫精品啪啪一区二区中 | 55夜色66夜色国产精品视频 | 久9re热视频这里只有精品 | 中文字幕无码日韩专区 | 久青草影院在线观看国产 | 免费人成在线视频无码 | 中文字幕av伊人av无码av | 久久天天躁狠狠躁夜夜免费观看 | 国语自产偷拍精品视频偷 | 波多野结衣一区二区三区av免费 | 无码乱肉视频免费大全合集 | 国内揄拍国内精品人妻 | 日本xxxx色视频在线观看免费 | 亚洲色偷偷偷综合网 | 蜜桃av抽搐高潮一区二区 | 精品人妻人人做人人爽夜夜爽 | 特黄特色大片免费播放器图片 | 国产精品无码mv在线观看 | 又紧又大又爽精品一区二区 | 亚洲欧美色中文字幕在线 | 特黄特色大片免费播放器图片 | 亚洲中文无码av永久不收费 | 成人欧美一区二区三区黑人免费 | 无码国产色欲xxxxx视频 | 偷窥村妇洗澡毛毛多 | 日本乱人伦片中文三区 | 国精品人妻无码一区二区三区蜜柚 | 久久99精品久久久久久 | 亚洲aⅴ无码成人网站国产app | 搡女人真爽免费视频大全 | 欧美精品无码一区二区三区 | 成熟人妻av无码专区 | 中文字幕无码av波多野吉衣 | 无码毛片视频一区二区本码 | 内射爽无广熟女亚洲 | 色五月五月丁香亚洲综合网 | 精品一二三区久久aaa片 | 日本爽爽爽爽爽爽在线观看免 | 99视频精品全部免费免费观看 | 久久精品视频在线看15 | 国产亚洲日韩欧美另类第八页 | 亚洲国产精品一区二区美利坚 | 免费国产成人高清在线观看网站 | 两性色午夜免费视频 | 亚洲区小说区激情区图片区 | 天天拍夜夜添久久精品大 | 中文字幕无码免费久久9一区9 | 熟妇人妻激情偷爽文 | 亚洲日韩av一区二区三区中文 | 亚洲伊人久久精品影院 | 大色综合色综合网站 | 欧美性生交xxxxx久久久 | 国产亚洲精品久久久闺蜜 | 久久久精品成人免费观看 | 日本欧美一区二区三区乱码 | 午夜性刺激在线视频免费 | 日韩 欧美 动漫 国产 制服 | 国产亚洲日韩欧美另类第八页 | 欧美黑人巨大xxxxx | 日欧一片内射va在线影院 | 麻豆精产国品 | 婷婷六月久久综合丁香 | 东京一本一道一二三区 | 亚洲男人av香蕉爽爽爽爽 | 美女扒开屁股让男人桶 | 亚洲国精产品一二二线 | 日欧一片内射va在线影院 | 成熟女人特级毛片www免费 | 东京热男人av天堂 | 日日夜夜撸啊撸 | 一本久道高清无码视频 | 男人的天堂2018无码 | 蜜桃av抽搐高潮一区二区 | 国产另类ts人妖一区二区 | 亚洲日韩中文字幕在线播放 | 精品乱子伦一区二区三区 | www国产亚洲精品久久网站 | 午夜免费福利小电影 | 欧美丰满熟妇xxxx | 国产成人人人97超碰超爽8 | 国产猛烈高潮尖叫视频免费 | 又色又爽又黄的美女裸体网站 | 扒开双腿吃奶呻吟做受视频 | 亚洲精品一区二区三区在线 | 久久精品国产大片免费观看 | 久久人人爽人人人人片 | 国内精品人妻无码久久久影院 | 欧美国产日韩亚洲中文 | 天天摸天天透天天添 | 麻豆蜜桃av蜜臀av色欲av | 久久久久av无码免费网 | 欧美成人高清在线播放 | 国产一区二区三区四区五区加勒比 | 国产成人精品一区二区在线小狼 | 国模大胆一区二区三区 | 娇妻被黑人粗大高潮白浆 | 波多野结衣一区二区三区av免费 | 精品国产精品久久一区免费式 | 国产av无码专区亚洲awww | 亚洲第一无码av无码专区 | 夜夜高潮次次欢爽av女 | 成人免费视频视频在线观看 免费 | 成 人 网 站国产免费观看 | 日本大乳高潮视频在线观看 | 国产精品亚洲五月天高清 | 亚洲熟悉妇女xxx妇女av | 亚洲欧美精品aaaaaa片 | 久久综合给合久久狠狠狠97色 | 免费乱码人妻系列无码专区 | 成人无码精品1区2区3区免费看 | 色一情一乱一伦一区二区三欧美 | www国产亚洲精品久久网站 | 亚洲欧美日韩综合久久久 | 思思久久99热只有频精品66 | 高潮毛片无遮挡高清免费 | 国产精品无码一区二区桃花视频 | 国产精品久久久久久亚洲毛片 | 人妻互换免费中文字幕 | 女人高潮内射99精品 | 久久国产精品萌白酱免费 | 国产亚洲视频中文字幕97精品 | 久久精品女人的天堂av | 亚洲爆乳精品无码一区二区三区 | 人妻夜夜爽天天爽三区 | 熟女俱乐部五十路六十路av | 国产精品免费大片 | 精品一二三区久久aaa片 | 无码av最新清无码专区吞精 | 极品尤物被啪到呻吟喷水 | 国产精品18久久久久久麻辣 | 人妻尝试又大又粗久久 | 四虎国产精品免费久久 | 女人和拘做爰正片视频 | 欧美成人免费全部网站 | 大肉大捧一进一出好爽视频 | 永久免费观看国产裸体美女 | 免费人成在线观看网站 | 午夜熟女插插xx免费视频 | 亚洲理论电影在线观看 | 中国女人内谢69xxxx | 国产艳妇av在线观看果冻传媒 | 国产三级精品三级男人的天堂 | 亚洲午夜久久久影院 | 少女韩国电视剧在线观看完整 | 国产精品无码久久av | 波多野42部无码喷潮在线 | 久久伊人色av天堂九九小黄鸭 | 未满成年国产在线观看 | 欧美国产日韩久久mv | 国产乱人偷精品人妻a片 | 欧美熟妇另类久久久久久不卡 | 又大又黄又粗又爽的免费视频 | 中文字幕无线码免费人妻 | 粗大的内捧猛烈进出视频 | 大屁股大乳丰满人妻 | 亚洲欧美国产精品专区久久 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 无码中文字幕色专区 | 国产高清不卡无码视频 | 美女扒开屁股让男人桶 | 99国产欧美久久久精品 | 亚洲一区二区三区 | 一本大道久久东京热无码av | 久在线观看福利视频 | 亚洲日韩av一区二区三区中文 | 国产艳妇av在线观看果冻传媒 | 性生交大片免费看l | 午夜无码人妻av大片色欲 | 人妻aⅴ无码一区二区三区 | 无码av免费一区二区三区试看 | 中文精品久久久久人妻不卡 | 免费观看又污又黄的网站 | 蜜桃av抽搐高潮一区二区 | 欧美 日韩 人妻 高清 中文 | 国产午夜亚洲精品不卡下载 | 少妇人妻偷人精品无码视频 | 国产色xx群视频射精 | 露脸叫床粗话东北少妇 | 亚洲爆乳精品无码一区二区三区 | 亚洲男人av香蕉爽爽爽爽 | 日韩精品无码一本二本三本色 | 亚洲aⅴ无码成人网站国产app | 亚洲精品中文字幕乱码 | 日产精品高潮呻吟av久久 | 亚洲另类伦春色综合小说 | 人人澡人人透人人爽 | 牛和人交xxxx欧美 | 色噜噜亚洲男人的天堂 | 国产两女互慰高潮视频在线观看 | 亚洲精品国偷拍自产在线麻豆 | 精品国产aⅴ无码一区二区 | 一区二区三区乱码在线 | 欧洲 | 欧美国产日产一区二区 | 无码午夜成人1000部免费视频 | 国产香蕉97碰碰久久人人 | 成人精品天堂一区二区三区 | 55夜色66夜色国产精品视频 | 大地资源中文第3页 | 亚洲乱码国产乱码精品精 | aa片在线观看视频在线播放 | 六月丁香婷婷色狠狠久久 | 久久天天躁狠狠躁夜夜免费观看 | 国产亚洲精品久久久ai换 | 亚洲精品国产第一综合99久久 | 十八禁视频网站在线观看 | 中国大陆精品视频xxxx | 国产乱码精品一品二品 | 亚洲人成网站在线播放942 | 在线精品国产一区二区三区 | 日本www一道久久久免费榴莲 | 亚洲另类伦春色综合小说 | 日本大乳高潮视频在线观看 | 最新国产乱人伦偷精品免费网站 | 久久国产精品_国产精品 | 亚洲中文字幕va福利 | 爆乳一区二区三区无码 | 成 人 免费观看网站 | 亚洲一区二区三区播放 | 亚洲 激情 小说 另类 欧美 | 国产激情一区二区三区 | 99视频精品全部免费免费观看 | 俺去俺来也在线www色官网 | 十八禁真人啪啪免费网站 | 日本精品人妻无码77777 天堂一区人妻无码 | 国内揄拍国内精品少妇国语 | 爱做久久久久久 | 国产精品igao视频网 | 1000部啪啪未满十八勿入下载 | 日韩av无码一区二区三区 | 老司机亚洲精品影院无码 | 日日摸天天摸爽爽狠狠97 | 精品国产青草久久久久福利 | 女人被爽到呻吟gif动态图视看 | 亚洲性无码av中文字幕 | 亚洲性无码av中文字幕 | 成人一在线视频日韩国产 | 日产国产精品亚洲系列 | 久久天天躁狠狠躁夜夜免费观看 | 国产成人精品三级麻豆 | 久久人人爽人人爽人人片ⅴ | 国产综合久久久久鬼色 | 波多野结衣av一区二区全免费观看 | 色婷婷综合中文久久一本 | 天天爽夜夜爽夜夜爽 | 久久精品女人天堂av免费观看 | 日日摸夜夜摸狠狠摸婷婷 | 中文无码精品a∨在线观看不卡 | 日韩精品无码免费一区二区三区 | 国产三级久久久精品麻豆三级 | 亚洲色在线无码国产精品不卡 | 亚洲の无码国产の无码步美 | 日本熟妇人妻xxxxx人hd | 最近中文2019字幕第二页 | 黑人巨大精品欧美一区二区 | 精品少妇爆乳无码av无码专区 | 久久亚洲a片com人成 | 国产av无码专区亚洲awww | 精品人妻人人做人人爽 | 999久久久国产精品消防器材 | 人妻无码久久精品人妻 | 久热国产vs视频在线观看 | 欧美肥老太牲交大战 | 亚洲国产精品美女久久久久 | 伊人久久大香线蕉亚洲 | 日日碰狠狠躁久久躁蜜桃 | 日韩精品一区二区av在线 | 真人与拘做受免费视频一 | 亚洲国产欧美在线成人 | 国产成人无码专区 | 男女爱爱好爽视频免费看 | 西西人体www44rt大胆高清 | 久久 国产 尿 小便 嘘嘘 | 特黄特色大片免费播放器图片 | 强伦人妻一区二区三区视频18 | 无码帝国www无码专区色综合 | 久久精品国产99精品亚洲 | av人摸人人人澡人人超碰下载 | 成年美女黄网站色大免费视频 | 中文字幕+乱码+中文字幕一区 | 国产成人久久精品流白浆 | 天天拍夜夜添久久精品 | 天天躁夜夜躁狠狠是什么心态 | 两性色午夜免费视频 | 高中生自慰www网站 | 国内精品久久久久久中文字幕 | 蜜桃无码一区二区三区 | 四虎永久在线精品免费网址 | 99久久精品国产一区二区蜜芽 | 国产另类ts人妖一区二区 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲日韩精品欧美一区二区 | 国産精品久久久久久久 | 亚洲男人av香蕉爽爽爽爽 | 国产成人无码av在线影院 | 给我免费的视频在线观看 | 丰满肥臀大屁股熟妇激情视频 | 一个人看的www免费视频在线观看 | www一区二区www免费 | 天天躁日日躁狠狠躁免费麻豆 | 蜜桃臀无码内射一区二区三区 | 亚洲人成影院在线无码按摩店 | 色 综合 欧美 亚洲 国产 | 亚拍精品一区二区三区探花 | 樱花草在线社区www | www一区二区www免费 | 狠狠色欧美亚洲狠狠色www | 国内精品人妻无码久久久影院 | 日本一卡二卡不卡视频查询 | 欧洲欧美人成视频在线 | 久久国产精品_国产精品 | 国产激情一区二区三区 | 日韩av激情在线观看 | 色婷婷综合激情综在线播放 | √天堂中文官网8在线 | 久久久成人毛片无码 | 国产成人av免费观看 | 亚洲综合另类小说色区 | 成年女人永久免费看片 | 2020最新国产自产精品 | 国产精品亚洲一区二区三区喷水 | 精品无码av一区二区三区 | 久久婷婷五月综合色国产香蕉 | 久久天天躁狠狠躁夜夜免费观看 | 亚拍精品一区二区三区探花 | 日本一区二区三区免费播放 | 中文字幕无码人妻少妇免费 | 少妇人妻av毛片在线看 | 国产精品无码永久免费888 | 人人妻人人澡人人爽精品欧美 | 少妇被黑人到高潮喷出白浆 | 国产av无码专区亚洲a∨毛片 | 精品乱码久久久久久久 | 亚洲色欲久久久综合网东京热 | 久久五月精品中文字幕 | 久久精品国产日本波多野结衣 | 丰满人妻精品国产99aⅴ | 国产精品无码mv在线观看 | 免费乱码人妻系列无码专区 | 妺妺窝人体色www在线小说 | 麻豆果冻传媒2021精品传媒一区下载 | 欧美日韩一区二区免费视频 | 正在播放东北夫妻内射 | 欧美第一黄网免费网站 | aⅴ亚洲 日韩 色 图网站 播放 | 无码精品人妻一区二区三区av | 88国产精品欧美一区二区三区 | 国产三级久久久精品麻豆三级 | 成人精品视频一区二区三区尤物 | 爽爽影院免费观看 | 狠狠噜狠狠狠狠丁香五月 | 青青青手机频在线观看 | 国产三级久久久精品麻豆三级 | 激情亚洲一区国产精品 | 日本饥渴人妻欲求不满 | 又紧又大又爽精品一区二区 | 亚洲精品国产品国语在线观看 | 亚洲成熟女人毛毛耸耸多 | 中文字幕无码人妻少妇免费 | 国产成人精品一区二区在线小狼 | 久久综合久久自在自线精品自 | 人妻少妇精品无码专区动漫 | 国产无套内射久久久国产 | 久久这里只有精品视频9 | 狠狠cao日日穞夜夜穞av | 无码人妻av免费一区二区三区 | 九月婷婷人人澡人人添人人爽 | 亚洲 激情 小说 另类 欧美 | 国产免费无码一区二区视频 | 国产精品久久久久影院嫩草 | 婷婷丁香五月天综合东京热 | 久久综合九色综合欧美狠狠 | 少妇邻居内射在线 | 亚洲精品一区三区三区在线观看 | 人人爽人人爽人人片av亚洲 | 日本精品高清一区二区 | 国内精品人妻无码久久久影院蜜桃 | 精品国产一区二区三区四区 | 国产成人av免费观看 | 国产免费无码一区二区视频 | 欧美自拍另类欧美综合图片区 | 色一情一乱一伦一视频免费看 | 曰韩少妇内射免费播放 | 国产亚洲美女精品久久久2020 | 日欧一片内射va在线影院 | 日韩成人一区二区三区在线观看 | 丁香花在线影院观看在线播放 | 四虎国产精品免费久久 | 一本一道久久综合久久 | 亚洲人成影院在线观看 | √天堂中文官网8在线 | 99久久精品日本一区二区免费 | 377p欧洲日本亚洲大胆 | 国产无套内射久久久国产 | 夫妻免费无码v看片 | 亚洲欧美日韩成人高清在线一区 | 久久综合久久自在自线精品自 | 色欲综合久久中文字幕网 | 国产精品视频免费播放 | 曰韩少妇内射免费播放 | 精品国产成人一区二区三区 | 男女作爱免费网站 | av人摸人人人澡人人超碰下载 | 宝宝好涨水快流出来免费视频 | 亚洲熟熟妇xxxx | 国产美女极度色诱视频www | 给我免费的视频在线观看 | 亚洲天堂2017无码中文 | 久久国内精品自在自线 | 天下第一社区视频www日本 | 中文字幕无码av波多野吉衣 | 中文字幕无码免费久久9一区9 | 宝宝好涨水快流出来免费视频 | 日本一区二区更新不卡 | 久久天天躁夜夜躁狠狠 | 亚洲熟熟妇xxxx | 装睡被陌生人摸出水好爽 | 成人av无码一区二区三区 | 噜噜噜亚洲色成人网站 | 人人妻人人藻人人爽欧美一区 | 午夜福利不卡在线视频 | 成人无码视频在线观看网站 | 欧美 亚洲 国产 另类 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产明星裸体无码xxxx视频 | 久久亚洲中文字幕精品一区 | a片免费视频在线观看 | 国产av一区二区精品久久凹凸 | 国精产品一品二品国精品69xx | 欧美日韩人成综合在线播放 | 亚洲一区二区三区偷拍女厕 | 久久人人爽人人人人片 | 亚洲国产成人av在线观看 | 亚洲欧美日韩国产精品一区二区 | 中文字幕日韩精品一区二区三区 | 久久亚洲精品成人无码 | 1000部夫妻午夜免费 | 亚洲一区二区三区偷拍女厕 | 国产亚洲欧美日韩亚洲中文色 | 成人性做爰aaa片免费看不忠 | 国产人妻精品午夜福利免费 | 中文字幕中文有码在线 | 无码中文字幕色专区 | 性欧美牲交xxxxx视频 | 老司机亚洲精品影院 | 日韩亚洲欧美精品综合 | 99视频精品全部免费免费观看 | 中文无码伦av中文字幕 | 日本精品久久久久中文字幕 | 亚洲啪av永久无码精品放毛片 | 国产无套内射久久久国产 | 国产肉丝袜在线观看 | 亚洲欧美日韩综合久久久 | 一二三四在线观看免费视频 | 巨爆乳无码视频在线观看 | 在线精品国产一区二区三区 | 日日摸日日碰夜夜爽av | 国产成人无码av一区二区 | 国产精品久久精品三级 | 99久久精品午夜一区二区 | 欧美人与物videos另类 | 青青久在线视频免费观看 | 少妇一晚三次一区二区三区 | 欧美国产日产一区二区 | 丰满护士巨好爽好大乳 | 露脸叫床粗话东北少妇 | 啦啦啦www在线观看免费视频 | 老子影院午夜伦不卡 | 美女极度色诱视频国产 | 亚洲性无码av中文字幕 | 国产性生大片免费观看性 | 在线精品国产一区二区三区 | 伊人久久大香线焦av综合影院 | 欧洲美熟女乱又伦 | 精品国产福利一区二区 | 高清不卡一区二区三区 | 亚洲日本一区二区三区在线 | 国产av一区二区三区最新精品 | 性欧美疯狂xxxxbbbb | 亚洲一区二区三区在线观看网站 | 激情内射日本一区二区三区 | 久久精品女人天堂av免费观看 | 一本色道久久综合亚洲精品不卡 | 高清无码午夜福利视频 | 国产精品igao视频网 | 人妻插b视频一区二区三区 | 精品久久综合1区2区3区激情 | 99久久精品日本一区二区免费 | 熟妇人妻无乱码中文字幕 | 日本精品少妇一区二区三区 | 日韩人妻无码一区二区三区久久99 | 久久久久久九九精品久 | 精品亚洲成av人在线观看 | 综合激情五月综合激情五月激情1 | 国产精品无套呻吟在线 | 麻豆果冻传媒2021精品传媒一区下载 | 国产精品第一国产精品 | 国产成人精品一区二区在线小狼 | 中文无码精品a∨在线观看不卡 | 88国产精品欧美一区二区三区 | 国产乱人偷精品人妻a片 | 国产成人综合在线女婷五月99播放 | 国产精品资源一区二区 | 在线精品国产一区二区三区 | 久久国产自偷自偷免费一区调 | 国产一区二区不卡老阿姨 | 18精品久久久无码午夜福利 | 久久精品国产一区二区三区 | 婷婷丁香五月天综合东京热 | 久久无码中文字幕免费影院蜜桃 | av香港经典三级级 在线 | 久久国产自偷自偷免费一区调 | 精品久久久无码中文字幕 | 性欧美熟妇videofreesex | 日产国产精品亚洲系列 | 成在人线av无码免费 | 亚洲一区二区三区偷拍女厕 | 亚洲中文字幕在线观看 | 亚洲爆乳无码专区 | 成人免费视频在线观看 | 人妻体内射精一区二区三四 | 啦啦啦www在线观看免费视频 | 噜噜噜亚洲色成人网站 | 免费看少妇作爱视频 | 国产在线一区二区三区四区五区 | 真人与拘做受免费视频一 | 内射老妇bbwx0c0ck | 国产免费无码一区二区视频 | 国产无套粉嫩白浆在线 | 国产av人人夜夜澡人人爽麻豆 | 日产国产精品亚洲系列 | 免费人成在线观看网站 | 一区二区三区高清视频一 | 无码av最新清无码专区吞精 | 中文字幕乱码人妻二区三区 | 男人的天堂av网站 | 无码人妻黑人中文字幕 | 国内老熟妇对白xxxxhd | 日本熟妇大屁股人妻 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 麻豆国产人妻欲求不满谁演的 | 一本久久伊人热热精品中文字幕 | 伊人久久大香线蕉亚洲 | 亚洲国产午夜精品理论片 | 日韩 欧美 动漫 国产 制服 | 久久成人a毛片免费观看网站 | 男人扒开女人内裤强吻桶进去 | 福利一区二区三区视频在线观看 | 熟女俱乐部五十路六十路av | 亚洲の无码国产の无码步美 | 国产亲子乱弄免费视频 | 最新国产麻豆aⅴ精品无码 | 老熟妇乱子伦牲交视频 | 国产成人无码av片在线观看不卡 | 丰满护士巨好爽好大乳 | 熟女少妇人妻中文字幕 | 特级做a爰片毛片免费69 | 小泽玛莉亚一区二区视频在线 | 亚洲精品中文字幕乱码 | 精品一区二区三区无码免费视频 | 久久成人a毛片免费观看网站 | 色老头在线一区二区三区 | √天堂中文官网8在线 | 熟妇人妻无码xxx视频 | 99久久人妻精品免费二区 | 亚洲国产日韩a在线播放 | 国产亚洲精品久久久久久大师 | 亚洲一区二区三区 | 久久国产精品_国产精品 | 漂亮人妻洗澡被公强 日日躁 | 国产精品美女久久久 | 1000部啪啪未满十八勿入下载 | 4hu四虎永久在线观看 | 黑人粗大猛烈进出高潮视频 | 熟女少妇人妻中文字幕 | 无码人妻黑人中文字幕 | 97色伦图片97综合影院 | 久久久无码中文字幕久... | 国产精品亚洲一区二区三区喷水 | 免费男性肉肉影院 | 精品国产成人一区二区三区 | 国产亚洲欧美日韩亚洲中文色 | 国产sm调教视频在线观看 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 久久伊人色av天堂九九小黄鸭 | 中文字幕av无码一区二区三区电影 | 亚洲日韩一区二区 | 日韩精品久久久肉伦网站 | 无码人妻av免费一区二区三区 | a片免费视频在线观看 | 在线播放免费人成毛片乱码 | 欧美日韩综合一区二区三区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 亚洲熟女一区二区三区 | 国产成人av免费观看 | 一本久道高清无码视频 | 亚洲成a人片在线观看无码3d | 97久久精品无码一区二区 | 强奷人妻日本中文字幕 | 日日天日日夜日日摸 | 精品无人国产偷自产在线 | 久久成人a毛片免费观看网站 | 成 人影片 免费观看 | 人人妻人人澡人人爽欧美精品 | 国产精品爱久久久久久久 | 亚洲精品国偷拍自产在线观看蜜桃 | 久久久国产一区二区三区 | 波多野结衣av在线观看 | 亚洲一区av无码专区在线观看 | 97久久精品无码一区二区 | 人妻互换免费中文字幕 | 欧美午夜特黄aaaaaa片 | 97夜夜澡人人爽人人喊中国片 | 国产艳妇av在线观看果冻传媒 | 亚洲欧美日韩成人高清在线一区 | 欧美丰满熟妇xxxx | 天堂а√在线中文在线 | 亚洲精品鲁一鲁一区二区三区 | 欧洲欧美人成视频在线 | 无码乱肉视频免费大全合集 | 中文字幕色婷婷在线视频 | 极品嫩模高潮叫床 | 成人影院yy111111在线观看 | 国产乱人伦av在线无码 | 久久99精品久久久久婷婷 | 国产成人综合色在线观看网站 | 青草视频在线播放 | 成熟妇人a片免费看网站 | 欧美 日韩 人妻 高清 中文 | 曰本女人与公拘交酡免费视频 | 夜夜夜高潮夜夜爽夜夜爰爰 | 人妻aⅴ无码一区二区三区 | 成熟女人特级毛片www免费 | 午夜福利不卡在线视频 | 夜夜影院未满十八勿进 | 婷婷色婷婷开心五月四房播播 | 精品国产精品久久一区免费式 | 色综合久久中文娱乐网 | 欧美日韩一区二区免费视频 | 国语精品一区二区三区 | 中文字幕日产无线码一区 | 亚洲七七久久桃花影院 | 天海翼激烈高潮到腰振不止 | 亚洲国产精品无码一区二区三区 | 99久久精品午夜一区二区 | 国语自产偷拍精品视频偷 | 亚洲色欲色欲欲www在线 | 一本色道久久综合亚洲精品不卡 | 国产在线无码精品电影网 | 日韩欧美中文字幕在线三区 | 国产色视频一区二区三区 | 成人欧美一区二区三区黑人免费 | 久久精品国产一区二区三区肥胖 | 人妻aⅴ无码一区二区三区 | 亚洲国产精品一区二区美利坚 | 国内精品久久毛片一区二区 | 日韩欧美成人免费观看 | 色综合久久久久综合一本到桃花网 | 国产精品亚洲а∨无码播放麻豆 | a片免费视频在线观看 | 欧洲美熟女乱又伦 | 成人aaa片一区国产精品 | 国产成人精品必看 | 亚洲成a人片在线观看日本 | 亚洲自偷自拍另类第1页 | 丁香啪啪综合成人亚洲 | 亚洲熟妇色xxxxx欧美老妇 | 欧美zoozzooz性欧美 | 色噜噜亚洲男人的天堂 | 国产成人精品一区二区在线小狼 | 福利一区二区三区视频在线观看 | 亚洲精品一区二区三区在线观看 | 国产精品久久久一区二区三区 | 18禁止看的免费污网站 | 成人一在线视频日韩国产 | 免费人成在线观看网站 | 亚洲爆乳大丰满无码专区 | 一本久久伊人热热精品中文字幕 | 国产精品久久久久久久9999 | 亚洲大尺度无码无码专区 | www国产亚洲精品久久网站 | 黑人大群体交免费视频 | 午夜福利试看120秒体验区 | 中文字幕无线码免费人妻 | 免费国产成人高清在线观看网站 | 亚洲aⅴ无码成人网站国产app | 国产午夜福利亚洲第一 | 少女韩国电视剧在线观看完整 | 麻豆国产人妻欲求不满谁演的 | 日韩亚洲欧美中文高清在线 | 国产精品毛片一区二区 | 欧美精品无码一区二区三区 | 青青久在线视频免费观看 | 人妻无码αv中文字幕久久琪琪布 | 国产精品va在线播放 | 玩弄中年熟妇正在播放 | 国内丰满熟女出轨videos | 久久综合给合久久狠狠狠97色 | 国产精品18久久久久久麻辣 | 高清不卡一区二区三区 | 性生交大片免费看l | 午夜福利不卡在线视频 | 亚洲中文字幕无码中字 | 国产三级久久久精品麻豆三级 | 精品乱码久久久久久久 | 亚洲一区二区三区 | 亚洲高清偷拍一区二区三区 | 国产亚洲精品精品国产亚洲综合 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲乱亚洲乱妇50p | 日欧一片内射va在线影院 | 久久99精品久久久久婷婷 | 精品 日韩 国产 欧美 视频 | 国产精品无码一区二区桃花视频 | 亚洲成a人片在线观看日本 | 午夜丰满少妇性开放视频 | 久久久亚洲欧洲日产国码αv | 成人精品视频一区二区三区尤物 | 玩弄中年熟妇正在播放 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 亚洲精品一区二区三区在线 | 色一情一乱一伦一区二区三欧美 | 国产精品久久久久久无码 | 东京一本一道一二三区 | 精品成人av一区二区三区 | 人妻无码久久精品人妻 | 波多野42部无码喷潮在线 | 人妻体内射精一区二区三四 | 国产麻豆精品精东影业av网站 | 久久99精品久久久久久 | 免费国产成人高清在线观看网站 | 乱人伦中文视频在线观看 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 亚洲综合精品香蕉久久网 | 亚洲va欧美va天堂v国产综合 | 欧美怡红院免费全部视频 | 亚洲国产欧美国产综合一区 | 人妻少妇精品视频专区 | 无码中文字幕色专区 | 色综合久久久无码中文字幕 | 久久综合九色综合欧美狠狠 | 成年美女黄网站色大免费视频 | 日韩精品无码一本二本三本色 | 中文字幕乱妇无码av在线 | 亚洲欧洲日本无在线码 | 国产在线精品一区二区高清不卡 | 国产无套粉嫩白浆在线 | 国产偷抇久久精品a片69 | 中文字幕av无码一区二区三区电影 | 亚洲成av人影院在线观看 | 东京热无码av男人的天堂 | 思思久久99热只有频精品66 | 亚洲日本一区二区三区在线 | 无遮无挡爽爽免费视频 | yw尤物av无码国产在线观看 | 欧美日韩色另类综合 | 97久久精品无码一区二区 | 成人免费视频视频在线观看 免费 | 精品欧洲av无码一区二区三区 | 国产精品国产三级国产专播 | 欧美国产日韩久久mv | 一区二区三区乱码在线 | 欧洲 | 成人无码影片精品久久久 | 国产熟女一区二区三区四区五区 | 国产精品福利视频导航 | 国产精品无码mv在线观看 | 亚洲欧美日韩国产精品一区二区 | 日韩无码专区 | 无码午夜成人1000部免费视频 | 亚洲精品午夜国产va久久成人 | 扒开双腿疯狂进出爽爽爽视频 | 国产精品亚洲五月天高清 | 国产三级久久久精品麻豆三级 | 丰满人妻精品国产99aⅴ | 成人欧美一区二区三区黑人免费 | 久久精品国产亚洲精品 | 午夜精品久久久久久久久 | 亚洲狠狠色丁香婷婷综合 | 日日碰狠狠躁久久躁蜜桃 | 性史性农村dvd毛片 | 亚洲熟女一区二区三区 | 久久国产劲爆∧v内射 | 日韩无套无码精品 | 久久国产精品偷任你爽任你 | 久久亚洲中文字幕无码 | 国产精品久免费的黄网站 | 中文字幕久久久久人妻 | a国产一区二区免费入口 | 日日碰狠狠丁香久燥 | 亚洲成a人片在线观看无码3d | 国产精品二区一区二区aⅴ污介绍 | 久久精品人妻少妇一区二区三区 | 精品人人妻人人澡人人爽人人 | 日本熟妇乱子伦xxxx | 蜜臀aⅴ国产精品久久久国产老师 | 久久久久久九九精品久 | 性开放的女人aaa片 | 亚洲中文字幕无码中字 | 2019午夜福利不卡片在线 | 亚洲一区二区三区在线观看网站 | 国产人妻精品一区二区三区不卡 | 成人精品视频一区二区 | 久久99精品国产.久久久久 | 中文精品无码中文字幕无码专区 | 美女毛片一区二区三区四区 | 亚洲天堂2017无码中文 | 亚洲精品国产精品乱码视色 | 天堂久久天堂av色综合 | 人妻与老人中文字幕 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 午夜精品久久久久久久 | 国产xxx69麻豆国语对白 | 波多野结衣一区二区三区av免费 | 领导边摸边吃奶边做爽在线观看 | 国产精品第一区揄拍无码 | 亚洲成av人片天堂网无码】 | 九九久久精品国产免费看小说 | 国产一区二区三区精品视频 | 波多野结衣av一区二区全免费观看 | 国产综合久久久久鬼色 | 久久亚洲日韩精品一区二区三区 | 国产在线精品一区二区三区直播 | 精品国产精品久久一区免费式 | 国产69精品久久久久app下载 | 日韩成人一区二区三区在线观看 | 精品国偷自产在线视频 | 国产激情艳情在线看视频 | 国产偷自视频区视频 | 无码人妻av免费一区二区三区 | 久久精品一区二区三区四区 | 久久天天躁夜夜躁狠狠 | 成人av无码一区二区三区 | 久青草影院在线观看国产 | 又大又硬又黄的免费视频 | 久久 国产 尿 小便 嘘嘘 | 欧美日韩色另类综合 | 亚洲色在线无码国产精品不卡 | 亚洲人成网站在线播放942 | 国产精品无码mv在线观看 | 青青青手机频在线观看 | 亚洲国产高清在线观看视频 | 欧美日韩综合一区二区三区 | 亚洲国产精品无码久久久久高潮 | 亚洲精品一区二区三区大桥未久 | 国产一区二区三区精品视频 | 18精品久久久无码午夜福利 | 精品无码国产自产拍在线观看蜜 | 亚洲a无码综合a国产av中文 | 任你躁在线精品免费 | 自拍偷自拍亚洲精品被多人伦好爽 | 女人被爽到呻吟gif动态图视看 | 中文字幕+乱码+中文字幕一区 | 久久精品视频在线看15 | 免费无码一区二区三区蜜桃大 | 东京热一精品无码av | 88国产精品欧美一区二区三区 | 久久国产自偷自偷免费一区调 | 国内综合精品午夜久久资源 | 欧美性生交活xxxxxdddd | 中文字幕无码免费久久9一区9 | 国产精品人人爽人人做我的可爱 | 亚洲色成人中文字幕网站 | 国产亚洲精品久久久久久久 | 无套内谢的新婚少妇国语播放 | 欧美色就是色 | 亚洲综合无码一区二区三区 | 成人三级无码视频在线观看 | 国产绳艺sm调教室论坛 | 少妇愉情理伦片bd | 亚欧洲精品在线视频免费观看 | 日本精品高清一区二区 | 香港三级日本三级妇三级 | 日韩无套无码精品 | 天干天干啦夜天干天2017 | 亚洲一区二区三区国产精华液 | 欧美freesex黑人又粗又大 | 国产后入清纯学生妹 | 永久免费精品精品永久-夜色 | 国产精品久免费的黄网站 | 亚洲精品www久久久 | 国产亚洲日韩欧美另类第八页 | 亚洲狠狠婷婷综合久久 | 十八禁视频网站在线观看 | 捆绑白丝粉色jk震动捧喷白浆 | 成人欧美一区二区三区黑人免费 | 妺妺窝人体色www婷婷 | 婷婷丁香五月天综合东京热 | 98国产精品综合一区二区三区 | 一区二区三区乱码在线 | 欧洲 | 欧美国产日韩亚洲中文 | 国产香蕉尹人视频在线 | 在线看片无码永久免费视频 | 亚洲大尺度无码无码专区 | 亚洲精品中文字幕 | 强开小婷嫩苞又嫩又紧视频 | 亚洲熟妇色xxxxx亚洲 | 人人澡人人妻人人爽人人蜜桃 | 日本熟妇乱子伦xxxx | 无码人妻av免费一区二区三区 | 国产午夜无码精品免费看 | 国产亚av手机在线观看 | 丰满肥臀大屁股熟妇激情视频 | 国产成人精品优优av | 夜夜躁日日躁狠狠久久av | 久久亚洲中文字幕精品一区 | 国产人妖乱国产精品人妖 | 国产精品怡红院永久免费 | 国产av一区二区三区最新精品 | 呦交小u女精品视频 | 国产麻豆精品一区二区三区v视界 | 久久久国产精品无码免费专区 | 曰韩无码二三区中文字幕 | 久久久久久av无码免费看大片 | 中文字幕+乱码+中文字幕一区 | 好屌草这里只有精品 | 色一情一乱一伦一区二区三欧美 | 一区二区传媒有限公司 | 捆绑白丝粉色jk震动捧喷白浆 | 成人三级无码视频在线观看 | 国内揄拍国内精品人妻 | 最新国产乱人伦偷精品免费网站 | 久久久久av无码免费网 | 亚洲爆乳大丰满无码专区 | 中文字幕乱妇无码av在线 | 国精产品一区二区三区 | 人人爽人人澡人人人妻 | 久久久久久九九精品久 | 最新国产乱人伦偷精品免费网站 | 无码午夜成人1000部免费视频 | 国产精品二区一区二区aⅴ污介绍 | 久久精品国产99精品亚洲 | 成人免费视频在线观看 | 东京热无码av男人的天堂 | 欧美一区二区三区 | 亚洲精品一区三区三区在线观看 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 樱花草在线社区www | 日日夜夜撸啊撸 | 色诱久久久久综合网ywww | 日本熟妇大屁股人妻 | 久久久精品456亚洲影院 | 永久黄网站色视频免费直播 | 国产精品.xx视频.xxtv | 狠狠色欧美亚洲狠狠色www | 夫妻免费无码v看片 | 人妻无码久久精品人妻 | 日日摸夜夜摸狠狠摸婷婷 | 国产成人一区二区三区在线观看 | 激情内射日本一区二区三区 | 又粗又大又硬又长又爽 | 久久久久免费精品国产 | 久久国产劲爆∧v内射 | 狠狠亚洲超碰狼人久久 | 久久人人爽人人爽人人片av高清 | 纯爱无遮挡h肉动漫在线播放 | 亚洲日韩av片在线观看 | 国产精品亚洲lv粉色 | 婷婷丁香五月天综合东京热 | 自拍偷自拍亚洲精品10p | 久久99精品久久久久久动态图 | 免费观看激色视频网站 | 日韩人妻无码中文字幕视频 | 久久视频在线观看精品 | www国产亚洲精品久久网站 | 人妻体内射精一区二区三四 | 久久精品国产日本波多野结衣 | 久久久久久国产精品无码下载 | 中文字幕人妻无码一区二区三区 | 午夜福利不卡在线视频 | 婷婷丁香六月激情综合啪 | 在线观看免费人成视频 | 奇米影视7777久久精品人人爽 | 日本xxxx色视频在线观看免费 | 色综合久久88色综合天天 | 欧美乱妇无乱码大黄a片 | av无码电影一区二区三区 | 国产成人一区二区三区在线观看 | 欧美精品国产综合久久 | 国产 浪潮av性色四虎 | 精品无码一区二区三区的天堂 | 无码精品国产va在线观看dvd | 亚洲精品一区三区三区在线观看 | 国产欧美精品一区二区三区 | 国产精品国产三级国产专播 | 国产精品永久免费视频 | 久久久成人毛片无码 | 日本爽爽爽爽爽爽在线观看免 | 日本精品人妻无码免费大全 | 人妻与老人中文字幕 | 亚洲精品欧美二区三区中文字幕 | 又大又硬又爽免费视频 | 草草网站影院白丝内射 | 无码av免费一区二区三区试看 | 亚洲欧洲无卡二区视頻 | 国产 精品 自在自线 | 欧美乱妇无乱码大黄a片 | 亚洲人成影院在线无码按摩店 | 2020最新国产自产精品 | 国产精品美女久久久久av爽李琼 | 久久综合九色综合97网 | 女人高潮内射99精品 | 亚洲色www成人永久网址 | aⅴ在线视频男人的天堂 | 日本高清一区免费中文视频 | 日本护士毛茸茸高潮 | 天堂а√在线中文在线 | 亚洲精品国产精品乱码不卡 | 无套内谢老熟女 | 欧美丰满少妇xxxx性 | 精品日本一区二区三区在线观看 | 少妇性l交大片 | 国产片av国语在线观看 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 风流少妇按摩来高潮 | 人妻夜夜爽天天爽三区 | 国精产品一品二品国精品69xx | av在线亚洲欧洲日产一区二区 | 国产精品va在线播放 | 精品亚洲韩国一区二区三区 | 给我免费的视频在线观看 | 国产成人久久精品流白浆 | 国产午夜亚洲精品不卡下载 | 亚洲国产精品一区二区美利坚 | 久久久久av无码免费网 | 中文字幕乱码中文乱码51精品 | 免费乱码人妻系列无码专区 | 少妇厨房愉情理9仑片视频 | 九九在线中文字幕无码 | 国产av无码专区亚洲a∨毛片 | 亚洲综合精品香蕉久久网 | 男女性色大片免费网站 | 67194成是人免费无码 | 久久亚洲精品中文字幕无男同 | 99久久久无码国产精品免费 | 性生交大片免费看女人按摩摩 | 亚洲爆乳精品无码一区二区三区 | 99久久久无码国产aaa精品 | 成年美女黄网站色大免费全看 | 国产午夜无码精品免费看 | 成人性做爰aaa片免费看不忠 | 一二三四在线观看免费视频 | 国产精品国产自线拍免费软件 | 熟女体下毛毛黑森林 | 精品人妻中文字幕有码在线 | 人妻与老人中文字幕 | 一本久久伊人热热精品中文字幕 | 国产性生交xxxxx无码 | 久久99精品国产.久久久久 | 人妻中文无码久热丝袜 | 国产美女极度色诱视频www | 欧美国产日产一区二区 | 亚洲天堂2017无码 | 黑人巨大精品欧美一区二区 | 久久99久久99精品中文字幕 | 丰满少妇弄高潮了www | 国产国产精品人在线视 | 在线а√天堂中文官网 | 精品欧美一区二区三区久久久 | 国产精品嫩草久久久久 | 欧美喷潮久久久xxxxx | 人人爽人人澡人人高潮 | 丰满人妻一区二区三区免费视频 | 狠狠亚洲超碰狼人久久 | 国产午夜无码视频在线观看 | 免费无码一区二区三区蜜桃大 | 狠狠cao日日穞夜夜穞av | 亚洲精品国产第一综合99久久 | 永久免费观看美女裸体的网站 | 激情国产av做激情国产爱 | 无码吃奶揉捏奶头高潮视频 | 日本精品人妻无码77777 天堂一区人妻无码 | 18无码粉嫩小泬无套在线观看 | 色欲久久久天天天综合网精品 | 国产内射老熟女aaaa | 丝袜美腿亚洲一区二区 | 免费国产黄网站在线观看 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 无套内谢的新婚少妇国语播放 | 久在线观看福利视频 | 国产真实夫妇视频 | 无码任你躁久久久久久久 | 亚洲综合在线一区二区三区 | 大肉大捧一进一出视频出来呀 | 亚洲性无码av中文字幕 | 无遮无挡爽爽免费视频 | 亚洲国产精品久久人人爱 | 精品国产青草久久久久福利 | 又湿又紧又大又爽a视频国产 | 国产av无码专区亚洲a∨毛片 | 少妇厨房愉情理9仑片视频 | 一个人看的视频www在线 | 天干天干啦夜天干天2017 | 蜜桃视频插满18在线观看 | 亚洲 日韩 欧美 成人 在线观看 | 国产亚洲精品精品国产亚洲综合 | 丝袜人妻一区二区三区 | 嫩b人妻精品一区二区三区 | 久久无码中文字幕免费影院蜜桃 | 亚洲熟妇色xxxxx亚洲 | 沈阳熟女露脸对白视频 | 图片小说视频一区二区 | 兔费看少妇性l交大片免费 | 精品无码一区二区三区的天堂 | 性史性农村dvd毛片 | 亚洲综合无码久久精品综合 | 图片区 小说区 区 亚洲五月 | 狠狠色丁香久久婷婷综合五月 | 成人精品天堂一区二区三区 | 亚洲色欲色欲天天天www | 亚洲综合色区中文字幕 | 亚洲午夜无码久久 | 激情亚洲一区国产精品 | 国产精品igao视频网 | 大肉大捧一进一出好爽视频 | 亚洲成a人片在线观看无码 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲乱码国产乱码精品精 | 亚洲国产成人a精品不卡在线 | 亚洲の无码国产の无码步美 | 国产偷国产偷精品高清尤物 | 亚洲成a人片在线观看日本 | 性啪啪chinese东北女人 | 国产情侣作爱视频免费观看 | 午夜福利试看120秒体验区 | 牲欲强的熟妇农村老妇女视频 | 中文字幕无码免费久久99 | √8天堂资源地址中文在线 | 免费网站看v片在线18禁无码 | 黑人玩弄人妻中文在线 | 高清国产亚洲精品自在久久 | 久激情内射婷内射蜜桃人妖 | 日本精品少妇一区二区三区 | 国产人妖乱国产精品人妖 | 亚洲高清偷拍一区二区三区 | 亚洲日韩av一区二区三区中文 | 亚洲另类伦春色综合小说 | 人人爽人人澡人人人妻 | 久久久成人毛片无码 | 亚洲一区二区三区无码久久 | 最近的中文字幕在线看视频 | 内射爽无广熟女亚洲 | 久久精品国产亚洲精品 | 天海翼激烈高潮到腰振不止 | 国产国语老龄妇女a片 | 黑人巨大精品欧美一区二区 | 国产网红无码精品视频 | 亚洲精品久久久久久久久久久 | 对白脏话肉麻粗话av | 国产精品久久久久7777 | 国产精品第一国产精品 | 波多野结衣aⅴ在线 | 国产激情无码一区二区app | 67194成是人免费无码 | 日本爽爽爽爽爽爽在线观看免 | 呦交小u女精品视频 | 亚洲国产av精品一区二区蜜芽 | 一个人看的视频www在线 | 国产suv精品一区二区五 | 久久久久se色偷偷亚洲精品av | 国产无套内射久久久国产 | 一本久久a久久精品亚洲 | 亚洲午夜福利在线观看 | 日日躁夜夜躁狠狠躁 | 少妇愉情理伦片bd | 国产成人无码a区在线观看视频app | 国产精品无套呻吟在线 | 大屁股大乳丰满人妻 | 久久婷婷五月综合色国产香蕉 | 亚洲人成影院在线无码按摩店 | 99麻豆久久久国产精品免费 | 55夜色66夜色国产精品视频 | 久久久久免费看成人影片 | 国产一区二区三区影院 | 麻豆国产人妻欲求不满谁演的 | 无码午夜成人1000部免费视频 | 国产在线精品一区二区三区直播 | 国产精品无码一区二区三区不卡 | 精品乱子伦一区二区三区 | 300部国产真实乱 | 久久伊人色av天堂九九小黄鸭 | 国产精品沙发午睡系列 | 国产后入清纯学生妹 | 日本一区二区更新不卡 | 国产av一区二区三区最新精品 | 亚洲欧美日韩成人高清在线一区 | 亚洲欧美色中文字幕在线 | 亚洲成a人片在线观看日本 | 久久亚洲a片com人成 | 亚洲国产一区二区三区在线观看 | 亚洲国产精品无码久久久久高潮 | 无遮挡啪啪摇乳动态图 | 学生妹亚洲一区二区 | 国产网红无码精品视频 | 国精产品一品二品国精品69xx | 久久精品国产精品国产精品污 | 欧美freesex黑人又粗又大 | 麻豆国产丝袜白领秘书在线观看 | 亚洲日韩一区二区三区 | 国产精品久久精品三级 | 成人欧美一区二区三区 | 丰满少妇人妻久久久久久 | 99久久精品午夜一区二区 | 午夜精品久久久内射近拍高清 | 日本在线高清不卡免费播放 | 亚洲色无码一区二区三区 | 久久人妻内射无码一区三区 | 欧美人与禽猛交狂配 | 最近免费中文字幕中文高清百度 | 久久亚洲精品成人无码 | 无码国产激情在线观看 | 日韩欧美中文字幕公布 | 日韩视频 中文字幕 视频一区 | 性欧美疯狂xxxxbbbb | 99久久亚洲精品无码毛片 | 玩弄人妻少妇500系列视频 | 亚洲最大成人网站 | 久久国产精品_国产精品 | 成人精品一区二区三区中文字幕 | 少妇无码av无码专区在线观看 | 久久久久久久久888 | 无码av最新清无码专区吞精 | 亚洲精品综合五月久久小说 | 国産精品久久久久久久 | 久久视频在线观看精品 | 精品水蜜桃久久久久久久 | 欧美喷潮久久久xxxxx | 欧美激情内射喷水高潮 | 无码午夜成人1000部免费视频 | 亚洲中文字幕在线无码一区二区 | 成人影院yy111111在线观看 | 欧美日韩色另类综合 | 中文精品无码中文字幕无码专区 | 99久久久无码国产aaa精品 | 亚洲成色www久久网站 | 亚洲区小说区激情区图片区 | 色欲久久久天天天综合网精品 | 人妻插b视频一区二区三区 | 少妇一晚三次一区二区三区 | 久久99精品国产.久久久久 | 国产成人无码午夜视频在线观看 | 人人妻人人澡人人爽人人精品浪潮 | 自拍偷自拍亚洲精品10p | 国产女主播喷水视频在线观看 | 97人妻精品一区二区三区 | 日本一区二区三区免费播放 | 欧美人与牲动交xxxx | 亚洲а∨天堂久久精品2021 | 国产高清不卡无码视频 | 奇米影视888欧美在线观看 | 国产精品多人p群无码 | 国产两女互慰高潮视频在线观看 | 国内揄拍国内精品人妻 | 强辱丰满人妻hd中文字幕 | 扒开双腿吃奶呻吟做受视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 中文字幕人妻无码一夲道 | 欧洲美熟女乱又伦 | 乱人伦人妻中文字幕无码久久网 | 999久久久国产精品消防器材 | 久久99久久99精品中文字幕 | 国产舌乚八伦偷品w中 | 亚洲国产综合无码一区 | 亚洲精品一区二区三区婷婷月 | 成人亚洲精品久久久久软件 | 性色欲网站人妻丰满中文久久不卡 | 人妻人人添人妻人人爱 | 欧美午夜特黄aaaaaa片 | 暴力强奷在线播放无码 | 久久人人爽人人爽人人片av高清 | 日本爽爽爽爽爽爽在线观看免 | 精品一二三区久久aaa片 | 久久久精品456亚洲影院 | 国产人妻久久精品二区三区老狼 | 日本熟妇人妻xxxxx人hd | 国产精品亚洲一区二区三区喷水 | 极品嫩模高潮叫床 | 蜜臀aⅴ国产精品久久久国产老师 | 久久久精品欧美一区二区免费 | 亚洲人成人无码网www国产 | 亚洲s码欧洲m码国产av | 国产后入清纯学生妹 | 狠狠色噜噜狠狠狠7777奇米 | 日日摸天天摸爽爽狠狠97 | 国产成人综合在线女婷五月99播放 | 岛国片人妻三上悠亚 | 男女作爱免费网站 | 亚洲熟妇色xxxxx欧美老妇 | 日本熟妇大屁股人妻 | 日本爽爽爽爽爽爽在线观看免 | 亚洲精品国产第一综合99久久 | 亚洲中文字幕无码中文字在线 | 少妇人妻av毛片在线看 | 色婷婷av一区二区三区之红樱桃 | 国模大胆一区二区三区 | 熟妇人妻激情偷爽文 | 最近的中文字幕在线看视频 | 日本一卡二卡不卡视频查询 | 成人亚洲精品久久久久软件 | 97精品人妻一区二区三区香蕉 | 人人妻人人澡人人爽欧美精品 | 国产农村乱对白刺激视频 | 国产精品久久久久9999小说 | 亚洲人成网站免费播放 | 中文字幕无码视频专区 | 国产真人无遮挡作爱免费视频 | 日韩成人一区二区三区在线观看 | 乱中年女人伦av三区 | 亚洲乱亚洲乱妇50p | 无码吃奶揉捏奶头高潮视频 | 欧美zoozzooz性欧美 | 婷婷丁香六月激情综合啪 | 国产 精品 自在自线 | 国产性生大片免费观看性 | 精品无码一区二区三区爱欲 | 熟妇女人妻丰满少妇中文字幕 | av小次郎收藏 | 欧美 日韩 亚洲 在线 | 亚洲精品国产精品乱码不卡 | 国产精品亚洲а∨无码播放麻豆 | 激情内射亚州一区二区三区爱妻 | 国产亚洲日韩欧美另类第八页 | 在线成人www免费观看视频 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产性生交xxxxx无码 | 18无码粉嫩小泬无套在线观看 | 噜噜噜亚洲色成人网站 | 麻豆av传媒蜜桃天美传媒 | 国产九九九九九九九a片 | 伊人色综合久久天天小片 | 永久免费观看美女裸体的网站 | 任你躁在线精品免费 | 伊人色综合久久天天小片 | 中文字幕无码日韩欧毛 | 波多野结衣av一区二区全免费观看 | www国产亚洲精品久久网站 | 久激情内射婷内射蜜桃人妖 | 国产精品亚洲专区无码不卡 | 久久人人97超碰a片精品 | 狠狠亚洲超碰狼人久久 | 国产性生大片免费观看性 | 国产另类ts人妖一区二区 | 亚洲日本va中文字幕 | 蜜桃视频韩日免费播放 | 在线观看国产一区二区三区 | 丰满人妻被黑人猛烈进入 | 国产国语老龄妇女a片 | 特黄特色大片免费播放器图片 | 国产人妖乱国产精品人妖 | 午夜福利试看120秒体验区 | 色婷婷欧美在线播放内射 | 99在线 | 亚洲 | 国产成人久久精品流白浆 | 日韩精品成人一区二区三区 | 国产两女互慰高潮视频在线观看 | 欧美 丝袜 自拍 制服 另类 | 日本一区二区三区免费播放 | 国产精品亚洲综合色区韩国 | 高潮毛片无遮挡高清免费 | 国产人妻久久精品二区三区老狼 | 高中生自慰www网站 | 精品无码成人片一区二区98 | 97精品人妻一区二区三区香蕉 | 免费观看的无遮挡av |