久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

Spark RDD概念学习系列之rdd持久化、广播、累加器(十八)

發布時間:2025/4/16 编程问答 22 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Spark RDD概念学习系列之rdd持久化、广播、累加器(十八) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

?

?

1、rdd持久化

2、廣播

3、累加器

?

?

1、rdd持久化

  通過spark-shell,可以快速的驗證我們的想法和操作!

?

啟動hdfs集群

spark@SparkSingleNode:/usr/local/hadoop/hadoop-2.6.0$ sbin/start-dfs.sh

?

啟動spark集群

spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6$ sbin/start-all.sh

?

?啟動spark-shell

spark@SparkSingleNode:/usr/local/spark/spark-1.5.2-bin-hadoop2.6/bin$?./spark-shell --master spark://SparkSingleNode:7077 --executor-memory 1g

?

reduce

scala> sc
res0: org.apache.spark.SparkContext = org.apache.spark.SparkContext@3bcc8f13

scala> val numbers = sc.parallelize
<console>:21: error: missing arguments for method parallelize in class SparkContext;
follow this method with `_' if you want to treat it as a partially applied function
val numbers = sc.parallelize
^

scala> val numbers = sc.parallelize(1 to 100)
numbers: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:21

scala> numbers.reduce(_+_)

?

took 11.790246 s
res1: Int = 5050

可見,reduce是個action。

?

scala> val result = numbers.map(2*_)
result: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[1] at map at <console>:23

scala> val data = result.collect

?

reduce源碼

/**
* Reduces the elements of this RDD using the specified commutative and
* associative binary operator.
*/
def reduce(f: (T, T) => T): T = withScope {
val cleanF = sc.clean(f)
val reducePartition: Iterator[T] => Option[T] = iter => {
if (iter.hasNext) {
Some(iter.reduceLeft(cleanF))
} else {
None
}
}
var jobResult: Option[T] = None
val mergeResult = (index: Int, taskResult: Option[T]) => {
if (taskResult.isDefined) {
jobResult = jobResult match {
case Some(value) => Some(f(value, taskResult.get))
case None => taskResult
}
}
}
sc.runJob(this, reducePartition, mergeResult)
// Get the final result out of our Option, or throw an exception if the RDD was empty
jobResult.getOrElse(throw new UnsupportedOperationException("empty collection"))
} 可見,這也是一個action操作。

?

collect

data: Array[Int] = Array(2, 4, 6, 8, 10, 12, 14, 16, 18, 20, 22, 24, 26, 28, 30, 32, 34, 36, 38, 40, 42, 44, 46, 48, 50, 52, 54, 56, 58, 60, 62, 64, 66, 68, 70, 72, 74, 76, 78, 80, 82, 84, 86, 88, 90, 92, 94, 96, 98, 100, 102, 104, 106, 108, 110, 112, 114, 116, 118, 120, 122, 124, 126, 128, 130, 132, 134, 136, 138, 140, 142, 144, 146, 148, 150, 152, 154, 156, 158, 160, 162, 164, 166, 168, 170, 172, 174, 176, 178, 180, 182, 184, 186, 188, 190, 192, 194, 196, 198, 200)

scala>

?

collect源碼

/**
* Return an array that contains all of the elements in this RDD.
*/
def collect(): Array[T] = withScope {
val results = sc.runJob(this, (iter: Iterator[T]) => iter.toArray)
Array.concat(results: _*)
} 可見,這也是一個action操作。

?

  從收集結果的角度來說,如果想要在命令行終端中,看到執行結果,就必須collect。

?  從源碼的角度來說,凡是action級別的操作,都會觸發sc.rubJob。這點,spark里是一個應用程序允許有多個Job,而hadoop里一個應用程序只能一個Job。

?

count

scala> numbers
res2: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[0] at parallelize at <console>:21

scala> 1 to 100
res3: scala.collection.immutable.Range.Inclusive = Range(1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23, 24, 25, 26, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54, 55, 56, 57, 58, 59, 60, 61, 62, 63, 64, 65, 66, 67, 68, 69, 70, 71, 72, 73, 74, 75, 76, 77, 78, 79, 80, 81, 82, 83, 84, 85, 86, 87, 88, 89, 90, 91, 92, 93, 94, 95, 96, 97, 98, 99, 100)

scala> numbers.count

?

took 0.649005 s
res4: Long = 100

?

count源碼?

/**
* Return the number of elements in the RDD.
*/
def count(): Long = sc.runJob(this, Utils.getIteratorSize _).sum

可見,這也是一個action操作。

?

take

?

scala> val topN = numbers.take(5)

?

topN: Array[Int] = Array(1, 2, 3, 4, 5)

?

take源碼

?

/**
* Take the first num elements of the RDD. It works by first scanning one partition, and use the
* results from that partition to estimate the number of additional partitions needed to satisfy
* the limit.
*
* @note due to complications in the internal implementation, this method will raise
* an exception if called on an RDD of `Nothing` or `Null`.
*/
def take(num: Int): Array[T] = withScope {
if (num == 0) {
new Array[T](0)
} else {
val buf = new ArrayBuffer[T]
val totalParts = this.partitions.length
var partsScanned = 0
while (buf.size < num && partsScanned < totalParts) {
// The number of partitions to try in this iteration. It is ok for this number to be
// greater than totalParts because we actually cap it at totalParts in runJob.
var numPartsToTry = 1
if (partsScanned > 0) {
// If we didn't find any rows after the previous iteration, quadruple and retry.
// Otherwise, interpolate the number of partitions we need to try, but overestimate
// it by 50%. We also cap the estimation in the end.
if (buf.size == 0) {
numPartsToTry = partsScanned * 4
} else {
// the left side of max is >=1 whenever partsScanned >= 2
numPartsToTry = Math.max((1.5 * num * partsScanned / buf.size).toInt - partsScanned, 1)
numPartsToTry = Math.min(numPartsToTry, partsScanned * 4)
}
}

val left = num - buf.size
val p = partsScanned until math.min(partsScanned + numPartsToTry, totalParts)
val res = sc.runJob(this, (it: Iterator[T]) => it.take(left).toArray, p)

res.foreach(buf ++= _.take(num - buf.size))
partsScanned += numPartsToTry
}

buf.toArray
}
} 可見,這也是一個action操作。

?

?

countByKey

?

scala> val scores = Array(Tuple2(1,100),Tuple2(1,100),Tuple2(2,100),Tuple2(2,100),Tuple2(3,100))
scores: Array[(Int, Int)] = Array((1,100), (1,100), (2,100), (2,100), (3,100))

scala> val content = sc.parallelize
<console>:21: error: missing arguments for method parallelize in class SparkContext;
follow this method with `_' if you want to treat it as a partially applied function
val content = sc.parallelize
^

scala> val content = sc.parallelize(scores)
content: org.apache.spark.rdd.RDD[(Int, Int)] = ParallelCollectionRDD[0] at parallelize at <console>:23

scala> val data = content.countByKey()

?

took 10.556634 s
data: scala.collection.Map[Int,Long] = Map(2 -> 2, 1 -> 2, 3 -> 1)

?

countByKey源碼

?

/**
* Count the number of elements for each key, collecting the results to a local Map.
*
* Note that this method should only be used if the resulting map is expected to be small, as
* the whole thing is loaded into the driver's memory.
* To handle very large results, consider using rdd.mapValues(_ => 1L).reduceByKey(_ + _), which
* returns an RDD[T, Long] instead of a map.
*/
def countByKey(): Map[K, Long] = self.withScope {
self.mapValues(_ => 1L).reduceByKey(_ + _).collect().toMap
}

可見,這也是一個action操作。



saveAsTextFile
之前,在 rdd實戰(rdd基本操作實戰及transformation和action流程圖)(源碼) scala>?val partitionsReadmeRdd = ?sc.textFile("hdfs://SparkSingleNode:9000/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).saveAsTextFile("~/partition1README.txt")

?

這里呢。

scala>?val partitionsReadmeRdd = ?sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).saveAsTextFile("/partition1README.txt")

scala>?val partitionsReadmeRdd = ?sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).saveAsTextFile("/partition1README.txt")

?

?

saveAsTextFile源碼

/**
* Save this RDD as a text file, using string representations of elements.
*/
def saveAsTextFile(path: String): Unit = withScope {
// https://issues.apache.org/jira/browse/SPARK-2075
//
// NullWritable is a `Comparable` in Hadoop 1.+, so the compiler cannot find an implicit
// Ordering for it and will use the default `null`. However, it's a `Comparable[NullWritable]`
// in Hadoop 2.+, so the compiler will call the implicit `Ordering.ordered` method to create an
// Ordering for `NullWritable`. That's why the compiler will generate different anonymous
// classes for `saveAsTextFile` in Hadoop 1.+ and Hadoop 2.+.
//
// Therefore, here we provide an explicit Ordering `null` to make sure the compiler generate
// same bytecodes for `saveAsTextFile`.
val nullWritableClassTag = implicitly[ClassTag[NullWritable]]
val textClassTag = implicitly[ClassTag[Text]]
val r = this.mapPartitions { iter =>
val text = new Text()
iter.map { x =>
text.set(x.toString)
(NullWritable.get(), text)
}
}
RDD.rddToPairRDDFunctions(r)(nullWritableClassTag, textClassTag, null)
.saveAsHadoopFile[TextOutputFormat[NullWritable, Text]](path)
}

/**
* Save this RDD as a compressed text file, using string representations of elements.
*/
def saveAsTextFile(path: String, codec: Class[_ <: CompressionCodec]): Unit = withScope {
// https://issues.apache.org/jira/browse/SPARK-2075
val nullWritableClassTag = implicitly[ClassTag[NullWritable]]
val textClassTag = implicitly[ClassTag[Text]]
val r = this.mapPartitions { iter =>
val text = new Text()
iter.map { x =>
text.set(x.toString)
(NullWritable.get(), text)
}
}
RDD.rddToPairRDDFunctions(r)(nullWritableClassTag, textClassTag, null)
.saveAsHadoopFile[TextOutputFormat[NullWritable, Text]](path, codec)
}


saveAsTextFile不僅,可保存在集群里,也可以保存到本地,這就要看hadoop的運行模式。
由此可見,它也是個action操作。
以上是rdd持久化的第一個方面,就是action級別的操作。
rdd持久化的第二個方面,就是通過persist。
為什么在spark里,隨處可見
persist的身影呢?
原因一:spark在默認情況下,數據是放在內存中,適合高速迭代。比如在一個stage里,有1000個步驟,它其實只在第1個步驟輸入數據,在第1000個步驟輸出數據,在中間不產生臨時數據。但是,分布式系統,分享非常高,所以,容出錯,設計到容錯。

    由于,rdd是有血統繼承關系的,即lineager。如果后面的rdd數據分片出錯了或rdd本身出錯了,則,可根據其前面依賴的lineager,算出來。
但是,假設1000個步驟,如果之前,沒有父rdd進行
persist或cache的話,則要重頭開始了。親!


什么時候,該
persist? 1、在某個步驟非常費時的情況下,不好使                                   (手動
2、計算鏈條特別長的情況下                                         
手動 3、checkpoint所在的rdd也一定要持久化數據 (注意:在checkpoint之前,進行persist)       手動 checkpoint是rdd的算子,   先寫,某個具體rdd.checkpoint 或 某個具體rdd.cache ,再寫, 某個具體rdd.persist 4、shuffle之后 (因為shuffle之后,要網絡傳輸,風險大)                         手動 5、shuffle之前 (框架,默認給我們做的,把數據持久化到本地磁盤)



checkpoint源碼

/**
* Mark this RDD for checkpointing. It will be saved to a file inside the checkpoint
* directory set with `SparkContext#setCheckpointDir` and all references to its parent
* RDDs will be removed. This function must be called before any job has been
* executed on this RDD. It is strongly recommended that this RDD is persisted in
* memory, otherwise saving it on a file will require recomputation.
*/
def checkpoint(): Unit = RDDCheckpointData.synchronized {
// NOTE: we use a global lock here due to complexities downstream with ensuring
// children RDD partitions point to the correct parent partitions. In the future
// we should revisit this consideration.
if (context.checkpointDir.isEmpty) {
throw new SparkException("Checkpoint directory has not been set in the SparkContext")
} else if (checkpointData.isEmpty) {
checkpointData = Some(new ReliableRDDCheckpointData(this))
}
}



persist源碼
/**
* Mark this RDD for persisting using the specified level.
*
* @param newLevel the target storage level
* @param allowOverride whether to override any existing level with the new one
*/
private def persist(newLevel: StorageLevel, allowOverride: Boolean): this.type = {
// TODO: Handle changes of StorageLevel
if (storageLevel != StorageLevel.NONE && newLevel != storageLevel && !allowOverride) {
throw new UnsupportedOperationException(
"Cannot change storage level of an RDD after it was already assigned a level")
}
// If this is the first time this RDD is marked for persisting, register it
// with the SparkContext for cleanups and accounting. Do this only once.
if (storageLevel == StorageLevel.NONE) {
sc.cleaner.foreach(_.registerRDDForCleanup(this))
sc.persistRDD(this)
}
storageLevel = newLevel
this
}

/**
* Set this RDD's storage level to persist its values across operations after the first time
* it is computed. This can only be used to assign a new storage level if the RDD does not
* have a storage level set yet. Local checkpointing is an exception.
*/
def persist(newLevel: StorageLevel): this.type = {
if (isLocallyCheckpointed) {
// This means the user previously called localCheckpoint(), which should have already
// marked this RDD for persisting. Here we should override the old storage level with
// one that is explicitly requested by the user (after adapting it to use disk).
persist(LocalRDDCheckpointData.transformStorageLevel(newLevel), allowOverride = true)
} else {
persist(newLevel, allowOverride = false)
}
}

/** Persist this RDD with the default storage level (`MEMORY_ONLY`). */
def persist(): this.type = persist(StorageLevel.MEMORY_ONLY)

/** Persist this RDD with the default storage level (`MEMORY_ONLY`). */
def cache(): this.type = persist()



StorageLevel里有很多類型

?

這里,牽扯到序列化。

問,為什么要序列化?

答:節省空間,減少體積。內存不夠時,把MEMORY中的數據,進行序列化。

  當然,也有不好一面,序列化時,會反序列化,反序列化耗cpu。

?

MEMORY_AND_DISK
假設,我們制定數據存儲方式是,
MEMORY_AND_DISK。則,是不是同時,存儲到內存和磁盤呢?
答:不是啊,親。spark一定是優先考慮內存的啊,只要內存足夠,不會考慮磁盤。若內存不夠了,則才放部分數據到磁盤。

極大地減少數據丟失概率發生。

MEMORY_ONLY 假設,我們制定數據存儲方式是MEMORY_ONLY。則,只放到內存。當內存不夠了,會出現OOM?;驍祿G失。

OFF_HEAP 這牽扯到Tachyon,基于內存的分布式系統

為什么有2分副本?好處是?

假設,一個計算特別耗時,而且,又是基于內存,如果其中一份副本崩潰掉,則可迅速切換到另一份副本去計算。這就是“空間換時間”!非常重要
這不是并行計算,這是計算后的結果,放2份副本。



scala> val partitionsReadmeRdd = sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).count

?

took 6.270138 s

?

scala> val partitionsReadmeRdd = ?sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).cache.count

?

took 4.147545 s

?

scala> val partitionsReadmeRdd = sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).cache.count

?

took 4.914212 s

?

?scala>?val cacheRdd = sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).cache

?scala> cacheRdd.count

?

?took 3.371621

?

?scala>?val cacheRdd = sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).cache

?scala>?cacheRdd.count

?

?

took 0.943499 s

我的天啊!

?

?scala> ?sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).cache.count

?

took 5.603903

?

?scala>??sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).cache.count

?

?

took 4.146627

?

scala>??sc.textFile("/README.md").flatMap(_.split(" ")).map(word =>(word,1)).reduceByKey(_+_,1).cache.count

?

took 3.071122

?

cache之后,一定不能立即有其他算子!

實際工程中, cache之后,如果有其他算子,則會,重新觸發這個工作過程。

?

注意:cache,不是action

?

?cache緩存,怎么讓它失效?

答:unpersist

?

persist是lazy級別的,unpersist是eager級別的。cache是persist的一個特殊情況。

?

cache和persist的區別?

答:persist可以放到磁盤、放到內存、同時放到內存和磁盤。以及多份副本

  cache只能放到內存,以及只能一份副本。

persisit在內存不夠時,保存在磁盤的哪個目錄?

答:local的process。

?

好的,以上是,rdd持久化的兩個方面。

rdd持久化的第一個方面,就是常用的action級別的操作。 rdd持久化的第二個方面,就是持久化的不同方式,以及它內部的運行情況

  小知識:cache之后,一定不能立即有其他算子!實際工程中, cache之后,如果有其他算子,則會,重新觸發這個工作過程。

?

?一般都不會跨機器抓內存,寧愿排隊。寧愿數據不動代碼動。

?

?

2、廣播

?  為什么要有,rdd廣播?

  答:大變量、join、冗余、減少數據移動、通信、狀態、集群消息、共享、網絡傳輸慢要提前、數據量大耗網絡、減少通信、要同步。

?

?  為什么大變量,需要廣播呢?

?  答:原因是,每個task運行,讀取全集數據時,task本身執行時,每次都要拷貝一份數據副本,如果變量比較大,如一百萬,則要拷貝一百萬。

?

(2)廣播(線程中共享)不必每個task都拷貝一份副本,因為它是全局唯一的,極大的減少oom,減少通信,冗余、共享變量等。廣播是將數據廣播到Executor的內存中,其內部所以的任務都會只享有全局唯一的變量,減少網絡傳輸。 text在讀取數據時候,拷貝一份的數據副本(變量),因為函數式編程(變量不變),不拷貝狀態容易被改變,數據量小(1、引用較小2、數據本身小),變量大容易產生oom(task拷貝數據 在內存中運行),網絡傳輸慢,要提前,冗余、共享,減少通信。 廣播變量:

廣播變量允許程序員將一個只讀的變量緩存在每臺機器上,而不用在任務之間傳遞變量。廣播變量可被用于有效地給每個節點一個大輸入數據集的副本。Spark還嘗試使用高效地廣播算法來分發變量,進而減少通信的開銷。

Spark的動作通過一系列的步驟執行,這些步驟由分布式的洗牌操作分開。Spark自動地廣播每個步驟每個任務需要的通用數據。這些廣播數據被序列化地緩存,在運行任務之前被反序列化出來。這意味著當我們需要在多個階段的任務之間使用相同的數據,或者以反序列化形式緩存數據是十分重要的時候,顯式地創建廣播變量才有用。

(本段摘自:http://blog.csdn.net/happyanger6/article/details/46576831)

?

?

                            廣播工作機制圖?

?

?

?                            廣播工作機制圖?

?

參考: http://blog.csdn.net/kxr0502/article/details/50574561

?

?

問:讀廣播,會消耗網絡傳輸嗎?

答:不消耗,廣播是放在內存中。讀取它,不消耗。

?

問:廣播變量是不是就是向每一個executor,廣播一份數據,而不是向每一個task,廣播一份數據?這樣對嗎?

答:對

?

  廣播是由Driver發給當前Application分配的所有Executor內存級別的全局只讀變量,Executor中的線程池中的線程共享該全局變量,極大的減少了網絡傳輸(否則的話每個Task都要傳輸一次該變量)并極大的節省了內存,當然也隱形的提高的CPU的有效工作。

?

?實戰創建廣播:

?

scala> val number = 10
number: Int = 10

scala> val broadcastNumber = sc.broadcast(number)

16/09/29 17:26:47 INFO storage.MemoryStore: ensureFreeSpace(40) called with curMem=1782734, maxMem=560497950
16/09/29 17:26:47 INFO storage.MemoryStore: Block broadcast_38 stored as values in memory (estimated size 40.0 B, free 532.8 MB)
16/09/29 17:26:48 INFO storage.MemoryStore: ensureFreeSpace(97) called with curMem=1782774, maxMem=560497950
16/09/29 17:26:48 INFO storage.MemoryStore: Block broadcast_38_piece0 stored as bytes in memory (estimated size 97.0 B, free 532.8 MB)
16/09/29 17:26:48 INFO storage.BlockManagerInfo: Added broadcast_38_piece0 in memory on 192.168.80.128:40914 (size: 97.0 B, free: 534.4 MB)
16/09/29 17:26:48 INFO spark.SparkContext: Created broadcast 38 from broadcast at <console>:23
broadcastNumber: org.apache.spark.broadcast.Broadcast[Int] = Broadcast(38)

?

scala> val data = sc.parallelize
<console>:21: error: missing arguments for method parallelize in class SparkContext;
follow this method with `_' if you want to treat it as a partially applied function
val data = sc.parallelize
^

scala> val data = sc.parallelize(1 to 100)
data: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[61] at parallelize at <console>:21

scala> val bn = data.map(_* broadcastNumber.value)
bn: org.apache.spark.rdd.RDD[Int] = MapPartitionsRDD[62] at map at <console>:27

scala>

  我們知道,是test是要廣播變量,但,我們編程,對rdd。

//通過在一個變量v上調用SparkContext.broadcast(v)可以創建廣播變量。廣播變量是圍繞著v的封裝,可以通過value方法訪問這個變量。

?

問:廣播變量里有很多變量嗎?

答:當然可以有很多,用java bin或scala封裝,就可以了。

  如,在這里。廣播變量是,broadcastNumber, 里,有變量value等。

scala>?val broadcastNumber = sc.broadcast(number)

?scala>?val bn = data.map(_* broadcastNumber.value)?

?

?

scala> bn.collect

?

res12: Array[Int] = Array(10, 20, 30, 40, 50, 60, 70, 80, 90, 100, 110, 120, 130, 140, 150, 160, 170, 180, 190, 200, 210, 220, 230, 240, 250, 260, 270, 280, 290, 300, 310, 320, 330, 340, 350, 360, 370, 380, 390, 400, 410, 420, 430, 440, 450, 460, 470, 480, 490, 500, 510, 520, 530, 540, 550, 560, 570, 580, 590, 600, 610, 620, 630, 640, 650, 660, 670, 680, 690, 700, 710, 720, 730, 740, 750, 760, 770, 780, 790, 800, 810, 820, 830, 840, 850, 860, 870, 880, 890, 900, 910, 920, 930, 940, 950, 960, 970, 980, 990, 1000)

scala>

?

?由此,可見,通過機制、流程圖和實戰,深度剖析對廣播全面詳解!

?

broadcast源碼分析

?參考:?http://www.cnblogs.com/seaspring/p/5682053.html

?

?

BroadcastManager源碼

?

/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
* this work for additional information regarding copyright ownership.
* The ASF licenses this file to You under the Apache License, Version 2.0
* (the "License"); you may not use this file except in compliance with
* the License. You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/

package org.apache.spark.broadcast

import java.util.concurrent.atomic.AtomicLong

import scala.reflect.ClassTag

import org.apache.spark._
import org.apache.spark.util.Utils

private[spark] class BroadcastManager(
val isDriver: Boolean,
conf: SparkConf,
securityManager: SecurityManager)
extends Logging {

private var initialized = false
private var broadcastFactory: BroadcastFactory = null

initialize()

// Called by SparkContext or Executor before using Broadcast
private def initialize() {
synchronized {
if (!initialized) {
val broadcastFactoryClass =
conf.get("spark.broadcast.factory", "org.apache.spark.broadcast.TorrentBroadcastFactory")

broadcastFactory =
Utils.classForName(broadcastFactoryClass).newInstance.asInstanceOf[BroadcastFactory]

// Initialize appropriate BroadcastFactory and BroadcastObject
broadcastFactory.initialize(isDriver, conf, securityManager)

initialized = true
}
}
}

def stop() {
broadcastFactory.stop()
}

private val nextBroadcastId = new AtomicLong(0)

def newBroadcast[T: ClassTag](value_ : T, isLocal: Boolean): Broadcast[T] = {
broadcastFactory.newBroadcast[T](value_, isLocal, nextBroadcastId.getAndIncrement())
}

def unbroadcast(id: Long, removeFromDriver: Boolean, blocking: Boolean) {
broadcastFactory.unbroadcast(id, removeFromDriver, blocking)
}
}


?

?

Broadcast源碼

/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
* this work for additional information regarding copyright ownership.
* The ASF licenses this file to You under the Apache License, Version 2.0
* (the "License"); you may not use this file except in compliance with
* the License. You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/

package org.apache.spark.broadcast

import java.io.Serializable

import org.apache.spark.SparkException
import org.apache.spark.Logging
import org.apache.spark.util.Utils

import scala.reflect.ClassTag

/**
* A broadcast variable. Broadcast variables allow the programmer to keep a read-only variable
* cached on each machine rather than shipping a copy of it with tasks. They can be used, for
* example, to give every node a copy of a large input dataset in an efficient manner. Spark also
* attempts to distribute broadcast variables using efficient broadcast algorithms to reduce
* communication cost.
*
* Broadcast variables are created from a variable `v` by calling
* [[org.apache.spark.SparkContext#broadcast]].
* The broadcast variable is a wrapper around `v`, and its value can be accessed by calling the
* `value` method. The interpreter session below shows this:
*
* {{{
* scala> val broadcastVar = sc.broadcast(Array(1, 2, 3))
* broadcastVar: org.apache.spark.broadcast.Broadcast[Array[Int]] = Broadcast(0)
*
* scala> broadcastVar.value
* res0: Array[Int] = Array(1, 2, 3)
* }}}
*
* After the broadcast variable is created, it should be used instead of the value `v` in any
* functions run on the cluster so that `v` is not shipped to the nodes more than once.
* In addition, the object `v` should not be modified after it is broadcast in order to ensure
* that all nodes get the same value of the broadcast variable (e.g. if the variable is shipped
* to a new node later).
*
* @param id A unique identifier for the broadcast variable.
* @tparam T Type of the data contained in the broadcast variable.
*/
abstract class Broadcast[T: ClassTag](val id: Long) extends Serializable with Logging {

/**
* Flag signifying whether the broadcast variable is valid
* (that is, not already destroyed) or not.
*/
@volatile private var _isValid = true

private var _destroySite = ""

/** Get the broadcasted value. */
def value: T = {
assertValid()
getValue()
}

/**
* Asynchronously delete cached copies of this broadcast on the executors.
* If the broadcast is used after this is called, it will need to be re-sent to each executor.
*/
def unpersist() {
unpersist(blocking = false)
}

/**
* Delete cached copies of this broadcast on the executors. If the broadcast is used after
* this is called, it will need to be re-sent to each executor.
* @param blocking Whether to block until unpersisting has completed
*/
def unpersist(blocking: Boolean) {
assertValid()
doUnpersist(blocking)
}


/**
* Destroy all data and metadata related to this broadcast variable. Use this with caution;
* once a broadcast variable has been destroyed, it cannot be used again.
* This method blocks until destroy has completed
*/
def destroy() {
destroy(blocking = true)
}

/**
* Destroy all data and metadata related to this broadcast variable. Use this with caution;
* once a broadcast variable has been destroyed, it cannot be used again.
* @param blocking Whether to block until destroy has completed
*/
private[spark] def destroy(blocking: Boolean) {
assertValid()
_isValid = false
_destroySite = Utils.getCallSite().shortForm
logInfo("Destroying %s (from %s)".format(toString, _destroySite))
doDestroy(blocking)
}

/**
* Whether this Broadcast is actually usable. This should be false once persisted state is
* removed from the driver.
*/
private[spark] def isValid: Boolean = {
_isValid
}

/**
* Actually get the broadcasted value. Concrete implementations of Broadcast class must
* define their own way to get the value.
*/
protected def getValue(): T

/**
* Actually unpersist the broadcasted value on the executors. Concrete implementations of
* Broadcast class must define their own logic to unpersist their own data.
*/
protected def doUnpersist(blocking: Boolean)

/**
* Actually destroy all data and metadata related to this broadcast variable.
* Implementation of Broadcast class must define their own logic to destroy their own
* state.
*/
protected def doDestroy(blocking: Boolean)

/** Check if this broadcast is valid. If not valid, exception is thrown. */
protected def assertValid() {
if (!_isValid) {
throw new SparkException(
"Attempted to use %s after it was destroyed (%s) ".format(toString, _destroySite))
}
}

override def toString: String = "Broadcast(" + id + ")"
}

?其他的,不一一贅述了。

?

?



?

?

?

?3、累加器

?  為什么需要,累加器?

   答:第一種情況,是,test把數據副本運行起來。

   ? ? ? ?第二種情況,有全局變量和局部變量,有了廣播,為什么還需要累加器?

?

(3)累加器(獲取全局唯一的狀態對象,SparkContext創建,被Driver控制,在Text實際運行的時候,每次都可以保證修改之后獲取全局唯一的對象,Driver中可讀,Executor可讀)

? ??? ??累加器是僅僅被相關操作累加的變量,因此可以在并行中被有效地支持。它可以被用來實現計數器和總和。Spark原生地只支持數字類型的累加器,編程者可以添加新類型的支持。如果創建累加器時指定了名字,可以在Spark的UI界面看到。這有利于理解每個執行階段的進程。(對于python還不支持)

? ??? ??累加器通過對一個初始化了的變量v調用SparkContext.accumulator(v)來創建。在集群上運行的任務可以通過add或者"+="方法在累加器上進行累加操作。但是,它們不能讀取它的值。只有驅動程序能夠讀取它的值,通過累加器的value方法。

?  累加器的特征:全局的,Accumulator:對于Executor只能修改但不可讀,只對Driver可讀(因為通過Driver控制整個集群的狀態),不同的executor 修改,不會彼此覆蓋(枷鎖機制)

?  

?累加器實戰:

?

scala> val sum = sc.accumulator(0)
sum: org.apache.spark.Accumulator[Int] = 0

scala> val data = sc.parallelize(1 to 100)
data: org.apache.spark.rdd.RDD[Int] = ParallelCollectionRDD[63] at parallelize at <console>:21

scala> val result = data.foreach(item =>sum += item)

?

?

took 6.548568 s
result: Unit = ()

scala> println(sum)
5050

?

?

累加器?在記錄集群全局唯一的狀態的時候極其重要,保持唯一的全局狀態的變量,所以其重要性不言而喻。 Driver中取值,Executor中計算, 1、累計器全局(全集群)唯一,只增不減(Executor中的task去修改,即累加); 2、累加器是Executor共享; 我的理解應該是對的,集群全局變量,誰操作,從driver上拿去操作,然后下個Executor在用的時候,拿上個Executor執行的結果,也就是從Driver那里拿。

?

?accumulator源碼

?

?

/*
* Licensed to the Apache Software Foundation (ASF) under one or more
* contributor license agreements. See the NOTICE file distributed with
* this work for additional information regarding copyright ownership.
* The ASF licenses this file to You under the Apache License, Version 2.0
* (the "License"); you may not use this file except in compliance with
* the License. You may obtain a copy of the License at
*
* http://www.apache.org/licenses/LICENSE-2.0
*
* Unless required by applicable law or agreed to in writing, software
* distributed under the License is distributed on an "AS IS" BASIS,
* WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
* See the License for the specific language governing permissions and
* limitations under the License.
*/

package org.apache.spark

import java.io.{ObjectInputStream, Serializable}

import scala.collection.generic.Growable
import scala.collection.Map
import scala.collection.mutable
import scala.ref.WeakReference
import scala.reflect.ClassTag

import org.apache.spark.serializer.JavaSerializer
import org.apache.spark.util.Utils

/**
* A data type that can be accumulated, ie has an commutative and associative "add" operation,
* but where the result type, `R`, may be different from the element type being added, `T`.
*
* You must define how to add data, and how to merge two of these together. For some data types,
* such as a counter, these might be the same operation. In that case, you can use the simpler
* [[org.apache.spark.Accumulator]]. They won't always be the same, though -- e.g., imagine you are
* accumulating a set. You will add items to the set, and you will union two sets together.
*
* @param initialValue initial value of accumulator
* @param param helper object defining how to add elements of type `R` and `T`
* @param name human-readable name for use in Spark's web UI
* @param internal if this [[Accumulable]] is internal. Internal [[Accumulable]]s will be reported
* to the driver via heartbeats. For internal [[Accumulable]]s, `R` must be
* thread safe so that they can be reported correctly.
* @tparam R the full accumulated data (result type)
* @tparam T partial data that can be added in
*/
class Accumulable[R, T] private[spark] (
@transient initialValue: R,
param: AccumulableParam[R, T],
val name: Option[String],
internal: Boolean)
extends Serializable {

private[spark] def this(
@transient initialValue: R, param: AccumulableParam[R, T], internal: Boolean) = {
this(initialValue, param, None, internal)
}

def this(@transient initialValue: R, param: AccumulableParam[R, T], name: Option[String]) =
this(initialValue, param, name, false)

def this(@transient initialValue: R, param: AccumulableParam[R, T]) =
this(initialValue, param, None)

val id: Long = Accumulators.newId

@volatile @transient private var value_ : R = initialValue // Current value on master
val zero = param.zero(initialValue) // Zero value to be passed to workers
private var deserialized = false

Accumulators.register(this)

/**
* If this [[Accumulable]] is internal. Internal [[Accumulable]]s will be reported to the driver
* via heartbeats. For internal [[Accumulable]]s, `R` must be thread safe so that they can be
* reported correctly.
*/
private[spark] def isInternal: Boolean = internal

/**
* Add more data to this accumulator / accumulable
* @param term the data to add
*/
def += (term: T) { value_ = param.addAccumulator(value_, term) }

/**
* Add more data to this accumulator / accumulable
* @param term the data to add
*/
def add(term: T) { value_ = param.addAccumulator(value_, term) }

/**
* Merge two accumulable objects together
*
* Normally, a user will not want to use this version, but will instead call `+=`.
* @param term the other `R` that will get merged with this
*/
def ++= (term: R) { value_ = param.addInPlace(value_, term)}

/**
* Merge two accumulable objects together
*
* Normally, a user will not want to use this version, but will instead call `add`.
* @param term the other `R` that will get merged with this
*/
def merge(term: R) { value_ = param.addInPlace(value_, term)}

/**
* Access the accumulator's current value; only allowed on master.
*/
def value: R = {
if (!deserialized) {
value_
} else {
throw new UnsupportedOperationException("Can't read accumulator value in task")
}
}

/**
* Get the current value of this accumulator from within a task.
*
* This is NOT the global value of the accumulator. To get the global value after a
* completed operation on the dataset, call `value`.
*
* The typical use of this method is to directly mutate the local value, eg., to add
* an element to a Set.
*/
def localValue: R = value_

/**
* Set the accumulator's value; only allowed on master.
*/
def value_= (newValue: R) {
if (!deserialized) {
value_ = newValue
} else {
throw new UnsupportedOperationException("Can't assign accumulator value in task")
}
}

/**
* Set the accumulator's value; only allowed on master
*/
def setValue(newValue: R) {
this.value = newValue
}

// Called by Java when deserializing an object
private def readObject(in: ObjectInputStream): Unit = Utils.tryOrIOException {
in.defaultReadObject()
value_ = zero
deserialized = true
// Automatically register the accumulator when it is deserialized with the task closure.
//
// Note internal accumulators sent with task are deserialized before the TaskContext is created
// and are registered in the TaskContext constructor. Other internal accumulators, such SQL
// metrics, still need to register here.
val taskContext = TaskContext.get()
if (taskContext != null) {
taskContext.registerAccumulator(this)
}
}

override def toString: String = if (value_ == null) "null" else value_.toString
}

/**
* Helper object defining how to accumulate values of a particular type. An implicit
* AccumulableParam needs to be available when you create [[Accumulable]]s of a specific type.
*
* @tparam R the full accumulated data (result type)
* @tparam T partial data that can be added in
*/
trait AccumulableParam[R, T] extends Serializable {
/**
* Add additional data to the accumulator value. Is allowed to modify and return `r`
* for efficiency (to avoid allocating objects).
*
* @param r the current value of the accumulator
* @param t the data to be added to the accumulator
* @return the new value of the accumulator
*/
def addAccumulator(r: R, t: T): R

/**
* Merge two accumulated values together. Is allowed to modify and return the first value
* for efficiency (to avoid allocating objects).
*
* @param r1 one set of accumulated data
* @param r2 another set of accumulated data
* @return both data sets merged together
*/
def addInPlace(r1: R, r2: R): R

/**
* Return the "zero" (identity) value for an accumulator type, given its initial value. For
* example, if R was a vector of N dimensions, this would return a vector of N zeroes.
*/
def zero(initialValue: R): R
}

private[spark] class
GrowableAccumulableParam[R <% Growable[T] with TraversableOnce[T] with Serializable: ClassTag, T]
extends AccumulableParam[R, T] {

def addAccumulator(growable: R, elem: T): R = {
growable += elem
growable
}

def addInPlace(t1: R, t2: R): R = {
t1 ++= t2
t1
}

def zero(initialValue: R): R = {
// We need to clone initialValue, but it's hard to specify that R should also be Cloneable.
// Instead we'll serialize it to a buffer and load it back.
val ser = new JavaSerializer(new SparkConf(false)).newInstance()
val copy = ser.deserialize[R](ser.serialize(initialValue))
copy.clear() // In case it contained stuff
copy
}
}

/**
* A simpler value of [[Accumulable]] where the result type being accumulated is the same
* as the types of elements being merged, i.e. variables that are only "added" to through an
* associative operation and can therefore be efficiently supported in parallel. They can be used
* to implement counters (as in MapReduce) or sums. Spark natively supports accumulators of numeric
* value types, and programmers can add support for new types.
*
* An accumulator is created from an initial value `v` by calling [[SparkContext#accumulator]].
* Tasks running on the cluster can then add to it using the [[Accumulable#+=]] operator.
* However, they cannot read its value. Only the driver program can read the accumulator's value,
* using its value method.
*
* The interpreter session below shows an accumulator being used to add up the elements of an array:
*
* {{{
* scala> val accum = sc.accumulator(0)
* accum: spark.Accumulator[Int] = 0
*
* scala> sc.parallelize(Array(1, 2, 3, 4)).foreach(x => accum += x)
* ...
* 10/09/29 18:41:08 INFO SparkContext: Tasks finished in 0.317106 s
*
* scala> accum.value
* res2: Int = 10
* }}}
*
* @param initialValue initial value of accumulator
* @param param helper object defining how to add elements of type `T`
* @tparam T result type
*/
class Accumulator[T] private[spark] (
@transient private[spark] val initialValue: T,
param: AccumulatorParam[T],
name: Option[String],
internal: Boolean)
extends Accumulable[T, T](initialValue, param, name, internal) {

def this(initialValue: T, param: AccumulatorParam[T], name: Option[String]) = {
this(initialValue, param, name, false)
}

def this(initialValue: T, param: AccumulatorParam[T]) = {
this(initialValue, param, None, false)
}
}

/**
* A simpler version of [[org.apache.spark.AccumulableParam]] where the only data type you can add
* in is the same type as the accumulated value. An implicit AccumulatorParam object needs to be
* available when you create Accumulators of a specific type.
*
* @tparam T type of value to accumulate
*/
trait AccumulatorParam[T] extends AccumulableParam[T, T] {
def addAccumulator(t1: T, t2: T): T = {
addInPlace(t1, t2)
}
}

object AccumulatorParam {

// The following implicit objects were in SparkContext before 1.2 and users had to
// `import SparkContext._` to enable them. Now we move them here to make the compiler find
// them automatically. However, as there are duplicate codes in SparkContext for backward
// compatibility, please update them accordingly if you modify the following implicit objects.

implicit object DoubleAccumulatorParam extends AccumulatorParam[Double] {
def addInPlace(t1: Double, t2: Double): Double = t1 + t2
def zero(initialValue: Double): Double = 0.0
}

implicit object IntAccumulatorParam extends AccumulatorParam[Int] {
def addInPlace(t1: Int, t2: Int): Int = t1 + t2
def zero(initialValue: Int): Int = 0
}

implicit object LongAccumulatorParam extends AccumulatorParam[Long] {
def addInPlace(t1: Long, t2: Long): Long = t1 + t2
def zero(initialValue: Long): Long = 0L
}

implicit object FloatAccumulatorParam extends AccumulatorParam[Float] {
def addInPlace(t1: Float, t2: Float): Float = t1 + t2
def zero(initialValue: Float): Float = 0f
}

// TODO: Add AccumulatorParams for other types, e.g. lists and strings
}

// TODO: The multi-thread support in accumulators is kind of lame; check
// if there's a more intuitive way of doing it right
private[spark] object Accumulators extends Logging {
/**
* This global map holds the original accumulator objects that are created on the driver.
* It keeps weak references to these objects so that accumulators can be garbage-collected
* once the RDDs and user-code that reference them are cleaned up.
*/
val originals = mutable.Map[Long, WeakReference[Accumulable[_, _]]]()

private var lastId: Long = 0

def newId(): Long = synchronized {
lastId += 1
lastId
}

def register(a: Accumulable[_, _]): Unit = synchronized {
originals(a.id) = new WeakReference[Accumulable[_, _]](a)
}

def remove(accId: Long) {
synchronized {
originals.remove(accId)
}
}

// Add values to the original accumulators with some given IDs
def add(values: Map[Long, Any]): Unit = synchronized {
for ((id, value) <- values) {
if (originals.contains(id)) {
// Since we are now storing weak references, we must check whether the underlying data
// is valid.
originals(id).get match {
case Some(accum) => accum.asInstanceOf[Accumulable[Any, Any]] ++= value
case None =>
throw new IllegalAccessError("Attempted to access garbage collected Accumulator.")
}
} else {
logWarning(s"Ignoring accumulator update for unknown accumulator id $id")
}
}
}

}

private[spark] object InternalAccumulator {
val PEAK_EXECUTION_MEMORY = "peakExecutionMemory"
val TEST_ACCUMULATOR = "testAccumulator"

// For testing only.
// This needs to be a def since we don't want to reuse the same accumulator across stages.
private def maybeTestAccumulator: Option[Accumulator[Long]] = {
if (sys.props.contains("spark.testing")) {
Some(new Accumulator(
0L, AccumulatorParam.LongAccumulatorParam, Some(TEST_ACCUMULATOR), internal = true))
} else {
None
}
}

/**
* Accumulators for tracking internal metrics.
*
* These accumulators are created with the stage such that all tasks in the stage will
* add to the same set of accumulators. We do this to report the distribution of accumulator
* values across all tasks within each stage.
*/
def create(sc: SparkContext): Seq[Accumulator[Long]] = {
val internalAccumulators = Seq(
// Execution memory refers to the memory used by internal data structures created
// during shuffles, aggregations and joins. The value of this accumulator should be
// approximately the sum of the peak sizes across all such data structures created
// in this task. For SQL jobs, this only tracks all unsafe operators and ExternalSort.
new Accumulator(
0L, AccumulatorParam.LongAccumulatorParam, Some(PEAK_EXECUTION_MEMORY), internal = true)
) ++ maybeTestAccumulator.toSeq
internalAccumulators.foreach { accumulator =>
sc.cleaner.foreach(_.registerAccumulatorForCleanup(accumulator))
}
internalAccumulators
}
}

?

?

?

?

參考

王家林老師是大數據技術集大成者,中國Spark第一人:

DT大數據夢工廠

新浪微博:www.weibo.com/ilovepains/

微信公眾號:DT_Spark

博客:http://.blog.sina.com.cn/ilovepains

TEL:18610086859

Email:18610086859@vip.126.com

?

?

?

參考鏈接:

http://blog.csdn.net/kxr0502/article/details/50574561

http://blog.csdn.net/happyanger6/article/details/46576831

http://blog.csdn.net/happyanger6/article/details/46552823

《新程序員》:云原生和全面數字化實踐50位技術專家共同創作,文字、視頻、音頻交互閱讀

總結

以上是生活随笔為你收集整理的Spark RDD概念学习系列之rdd持久化、广播、累加器(十八)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

aⅴ亚洲 日韩 色 图网站 播放 | 国产电影无码午夜在线播放 | 亚洲成av人影院在线观看 | 精品无码一区二区三区爱欲 | 亚洲一区二区三区香蕉 | 国产婷婷色一区二区三区在线 | 欧美人与禽猛交狂配 | 蜜臀av无码人妻精品 | 亚洲欧洲中文日韩av乱码 | 亚洲成a人片在线观看无码3d | 日本护士xxxxhd少妇 | av无码不卡在线观看免费 | 亚洲成色www久久网站 | 99久久婷婷国产综合精品青草免费 | 日韩精品a片一区二区三区妖精 | 男女超爽视频免费播放 | 蜜桃无码一区二区三区 | √天堂中文官网8在线 | 草草网站影院白丝内射 | 无码国内精品人妻少妇 | 成人女人看片免费视频放人 | 日日摸夜夜摸狠狠摸婷婷 | 国产午夜福利亚洲第一 | 国产三级精品三级男人的天堂 | 亚洲无人区一区二区三区 | 日本熟妇人妻xxxxx人hd | 亚洲va中文字幕无码久久不卡 | 国产后入清纯学生妹 | 国产亚av手机在线观看 | 狠狠综合久久久久综合网 | 人人妻人人藻人人爽欧美一区 | 18禁黄网站男男禁片免费观看 | 帮老师解开蕾丝奶罩吸乳网站 | 无码一区二区三区在线 | 国产精品高潮呻吟av久久4虎 | 任你躁国产自任一区二区三区 | 欧美丰满老熟妇xxxxx性 | 成人精品视频一区二区三区尤物 | 熟妇人妻无码xxx视频 | 色欲综合久久中文字幕网 | 国产亚洲精品久久久久久久久动漫 | 欧美人与善在线com | 国产人妻精品午夜福利免费 | 国产欧美熟妇另类久久久 | 日韩亚洲欧美中文高清在线 | 欧美阿v高清资源不卡在线播放 | 欧美熟妇另类久久久久久不卡 | 日韩在线不卡免费视频一区 | 蜜臀aⅴ国产精品久久久国产老师 | 亚洲成av人片天堂网无码】 | 国产97在线 | 亚洲 | 天天av天天av天天透 | 乱人伦人妻中文字幕无码久久网 | 亚洲一区av无码专区在线观看 | 国产无av码在线观看 | 99久久精品日本一区二区免费 | 亚洲欧美国产精品久久 | 精品久久久久久人妻无码中文字幕 | 日韩精品一区二区av在线 | 精品乱子伦一区二区三区 | 偷窥村妇洗澡毛毛多 | 国产精品久久久久久亚洲影视内衣 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 精品熟女少妇av免费观看 | 国产精品久久久久9999小说 | 亚洲色欲色欲欲www在线 | 亚洲熟妇色xxxxx欧美老妇y | 免费观看又污又黄的网站 | 美女黄网站人色视频免费国产 | 久久久久人妻一区精品色欧美 | 亚洲欧美精品伊人久久 | 午夜福利电影 | 欧美激情内射喷水高潮 | 亚洲成a人片在线观看日本 | 久久午夜夜伦鲁鲁片无码免费 | 久久综合香蕉国产蜜臀av | 日本一区二区三区免费高清 | 成人精品视频一区二区 | 在线а√天堂中文官网 | 亚洲国产欧美国产综合一区 | 久久综合网欧美色妞网 | 久久亚洲中文字幕精品一区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 无码毛片视频一区二区本码 | 免费观看激色视频网站 | 免费人成网站视频在线观看 | av小次郎收藏 | 亚洲日韩一区二区三区 | 国产精品99爱免费视频 | 岛国片人妻三上悠亚 | 伊人色综合久久天天小片 | 天堂亚洲免费视频 | 永久免费精品精品永久-夜色 | 久久久久久九九精品久 | 欧美成人免费全部网站 | 亚洲色大成网站www国产 | 亚洲成熟女人毛毛耸耸多 | 自拍偷自拍亚洲精品被多人伦好爽 | 97无码免费人妻超级碰碰夜夜 | 国产极品视觉盛宴 | 中文字幕乱码人妻无码久久 | 国产肉丝袜在线观看 | 男人的天堂2018无码 | 中文精品无码中文字幕无码专区 | 亚洲最大成人网站 | а√天堂www在线天堂小说 | 日日麻批免费40分钟无码 | 欧美亚洲日韩国产人成在线播放 | 噜噜噜亚洲色成人网站 | 精品无码国产自产拍在线观看蜜 | 日本xxxx色视频在线观看免费 | 久久久久久久人妻无码中文字幕爆 | 国产凸凹视频一区二区 | 国产精品人人爽人人做我的可爱 | 亚洲成av人在线观看网址 | 亚洲国产精品无码久久久久高潮 | 无码中文字幕色专区 | 国产综合久久久久鬼色 | 99视频精品全部免费免费观看 | 巨爆乳无码视频在线观看 | 人人妻人人澡人人爽人人精品 | 国产精品办公室沙发 | 亚洲 激情 小说 另类 欧美 | 午夜嘿嘿嘿影院 | 蜜臀aⅴ国产精品久久久国产老师 | 日韩 欧美 动漫 国产 制服 | 欧美 日韩 人妻 高清 中文 | 人妻夜夜爽天天爽三区 | a国产一区二区免费入口 | 国产午夜精品一区二区三区嫩草 | 99在线 | 亚洲 | 又大又紧又粉嫩18p少妇 | 东京热无码av男人的天堂 | 国产精品人人妻人人爽 | 丰满少妇人妻久久久久久 | 东京无码熟妇人妻av在线网址 | 99麻豆久久久国产精品免费 | 成人综合网亚洲伊人 | 国产精品va在线播放 | 荫蒂被男人添的好舒服爽免费视频 | 午夜丰满少妇性开放视频 | 亚洲啪av永久无码精品放毛片 | 老熟女乱子伦 | 国产成人一区二区三区在线观看 | 美女毛片一区二区三区四区 | 全黄性性激高免费视频 | 性啪啪chinese东北女人 | 免费人成在线视频无码 | 久久精品国产精品国产精品污 | av无码不卡在线观看免费 | 亚洲国产成人a精品不卡在线 | 国产特级毛片aaaaaa高潮流水 | 无套内谢老熟女 | а√资源新版在线天堂 | 中文字幕日产无线码一区 | 老熟妇仑乱视频一区二区 | 亚洲日韩中文字幕在线播放 | 双乳奶水饱满少妇呻吟 | 呦交小u女精品视频 | 丝袜 中出 制服 人妻 美腿 | 国产精品视频免费播放 | 免费观看激色视频网站 | 中文字幕无码人妻少妇免费 | 骚片av蜜桃精品一区 | 中国女人内谢69xxxx | 国产人妻精品午夜福利免费 | 精品国产福利一区二区 | 1000部夫妻午夜免费 | 午夜精品久久久久久久 | 国产片av国语在线观看 | 欧美日本免费一区二区三区 | 人人澡人人透人人爽 | 人妻体内射精一区二区三四 | 日日天日日夜日日摸 | 中文字幕日韩精品一区二区三区 | 天堂无码人妻精品一区二区三区 | 亚洲乱码国产乱码精品精 | 亚洲综合伊人久久大杳蕉 | 一本久久a久久精品亚洲 | 国产无av码在线观看 | 老熟妇仑乱视频一区二区 | 欧洲精品码一区二区三区免费看 | 亚洲成av人在线观看网址 | 狠狠躁日日躁夜夜躁2020 | 97精品人妻一区二区三区香蕉 | 欧美精品免费观看二区 | 国产精品久久久久影院嫩草 | 国产人妻大战黑人第1集 | 蜜桃无码一区二区三区 | 日韩精品无码一本二本三本色 | 日韩欧美成人免费观看 | 中文字幕乱码亚洲无线三区 | 国产精品高潮呻吟av久久4虎 | 在线播放无码字幕亚洲 | 亚洲精品国偷拍自产在线麻豆 | 黑人粗大猛烈进出高潮视频 | 最新国产乱人伦偷精品免费网站 | 久久精品国产99精品亚洲 | 夜夜高潮次次欢爽av女 | 亚洲成av人片天堂网无码】 | 亚洲 欧美 激情 小说 另类 | 国产深夜福利视频在线 | 国产9 9在线 | 中文 | 久在线观看福利视频 | 日本精品人妻无码77777 天堂一区人妻无码 | 97se亚洲精品一区 | 欧美性黑人极品hd | 欧美freesex黑人又粗又大 | 国产熟妇另类久久久久 | 亚洲小说图区综合在线 | 色偷偷人人澡人人爽人人模 | 亚洲国产欧美日韩精品一区二区三区 | 国产一精品一av一免费 | 国产精品永久免费视频 | 国产色xx群视频射精 | 国产区女主播在线观看 | 亲嘴扒胸摸屁股激烈网站 | 国内精品久久毛片一区二区 | 精品 日韩 国产 欧美 视频 | 午夜精品一区二区三区在线观看 | 亚洲熟女一区二区三区 | 国产人妻人伦精品1国产丝袜 | 欧美日韩视频无码一区二区三 | 欧美日韩视频无码一区二区三 | 免费国产成人高清在线观看网站 | 国产乱码精品一品二品 | 日本欧美一区二区三区乱码 | 天天综合网天天综合色 | 午夜无码区在线观看 | 99久久久无码国产aaa精品 | 亚洲精品久久久久中文第一幕 | 2019午夜福利不卡片在线 | 国产精品资源一区二区 | 偷窥村妇洗澡毛毛多 | 麻豆果冻传媒2021精品传媒一区下载 | 国产后入清纯学生妹 | 18精品久久久无码午夜福利 | 日日躁夜夜躁狠狠躁 | 高清不卡一区二区三区 | 在线成人www免费观看视频 | 日韩av激情在线观看 | 高中生自慰www网站 | 亚洲中文字幕无码中文字在线 | 成人免费视频一区二区 | 荡女精品导航 | 日日碰狠狠躁久久躁蜜桃 | 欧美国产亚洲日韩在线二区 | 国产成人无码一二三区视频 | 亚洲国产av美女网站 | 亚洲爆乳大丰满无码专区 | 丰满少妇高潮惨叫视频 | av无码久久久久不卡免费网站 | 精品久久久久香蕉网 | 国产女主播喷水视频在线观看 | 久久久久99精品国产片 | 荫蒂被男人添的好舒服爽免费视频 | 大胆欧美熟妇xx | 中文字幕 亚洲精品 第1页 | 国产猛烈高潮尖叫视频免费 | 国产精品亚洲五月天高清 | 蜜桃视频韩日免费播放 | 丰满人妻翻云覆雨呻吟视频 | 日日碰狠狠躁久久躁蜜桃 | 欧美 丝袜 自拍 制服 另类 | 久久www免费人成人片 | 亚洲爆乳大丰满无码专区 | 国产人成高清在线视频99最全资源 | 日韩精品无码一本二本三本色 | 国产乱人伦av在线无码 | 色妞www精品免费视频 | 无码任你躁久久久久久久 | 国产精品无码永久免费888 | 日本欧美一区二区三区乱码 | 精品久久久无码人妻字幂 | 久久国产36精品色熟妇 | 亚洲国产一区二区三区在线观看 | 精品无码国产自产拍在线观看蜜 | 2020久久超碰国产精品最新 | 亚洲国产综合无码一区 | 国产成人午夜福利在线播放 | 色婷婷综合中文久久一本 | 日本乱人伦片中文三区 | 丰满少妇弄高潮了www | 一本久道高清无码视频 | 中文无码伦av中文字幕 | 老熟女乱子伦 | аⅴ资源天堂资源库在线 | 成人欧美一区二区三区黑人免费 | 噜噜噜亚洲色成人网站 | 性色欲情网站iwww九文堂 | 国产国语老龄妇女a片 | 国产美女极度色诱视频www | 国产av无码专区亚洲a∨毛片 | 又湿又紧又大又爽a视频国产 | 久久国产精品偷任你爽任你 | 熟女少妇人妻中文字幕 | 中文毛片无遮挡高清免费 | 久久熟妇人妻午夜寂寞影院 | 亚洲成av人综合在线观看 | 久久久婷婷五月亚洲97号色 | 国产小呦泬泬99精品 | 亚洲欧美日韩国产精品一区二区 | 性欧美牲交在线视频 | 在线成人www免费观看视频 | 日本护士xxxxhd少妇 | 久久亚洲中文字幕无码 | 国产小呦泬泬99精品 | 国产精品va在线观看无码 | 亚洲欧洲无卡二区视頻 | 色婷婷综合激情综在线播放 | 国内少妇偷人精品视频 | 激情综合激情五月俺也去 | 无码人妻少妇伦在线电影 | 久久久国产精品无码免费专区 | 日本成熟视频免费视频 | 国产舌乚八伦偷品w中 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲精品一区二区三区婷婷月 | www国产亚洲精品久久网站 | 久久国内精品自在自线 | 国产精品久久久 | 亚洲 激情 小说 另类 欧美 | 3d动漫精品啪啪一区二区中 | 88国产精品欧美一区二区三区 | 成人免费视频一区二区 | 久久久久久久久蜜桃 | 亚洲精品国产a久久久久久 | 狂野欧美性猛xxxx乱大交 | 精品乱子伦一区二区三区 | 国产乱人伦偷精品视频 | 麻豆av传媒蜜桃天美传媒 | 欧美喷潮久久久xxxxx | а√资源新版在线天堂 | 精品久久综合1区2区3区激情 | 亚洲精品www久久久 | 无码人妻久久一区二区三区不卡 | 国产在线精品一区二区三区直播 | 波多野结衣乳巨码无在线观看 | 人妻熟女一区 | 色婷婷欧美在线播放内射 | 天堂а√在线地址中文在线 | 免费观看激色视频网站 | 亚拍精品一区二区三区探花 | 国产在线精品一区二区高清不卡 | 98国产精品综合一区二区三区 | 亚洲人成网站免费播放 | 欧美人与禽zoz0性伦交 | 乱码av麻豆丝袜熟女系列 | 99精品久久毛片a片 | 精品乱码久久久久久久 | 中文字幕人妻无码一区二区三区 | 扒开双腿吃奶呻吟做受视频 | 久久精品国产大片免费观看 | 国内精品人妻无码久久久影院 | 欧美zoozzooz性欧美 | 高清不卡一区二区三区 | 美女极度色诱视频国产 | 免费无码一区二区三区蜜桃大 | 精品国产国产综合精品 | 中文字幕av伊人av无码av | 色欲人妻aaaaaaa无码 | 青青草原综合久久大伊人精品 | 国产99久久精品一区二区 | 水蜜桃亚洲一二三四在线 | 亚洲乱亚洲乱妇50p | 人人妻人人藻人人爽欧美一区 | 久久综合香蕉国产蜜臀av | 精品水蜜桃久久久久久久 | 成人一在线视频日韩国产 | 永久黄网站色视频免费直播 | 中文无码成人免费视频在线观看 | 日韩人妻无码中文字幕视频 | 国产精品高潮呻吟av久久 | 无人区乱码一区二区三区 | 无遮挡国产高潮视频免费观看 | 亚洲毛片av日韩av无码 | 熟女俱乐部五十路六十路av | 性欧美疯狂xxxxbbbb | 中文字幕无码日韩专区 | 国产免费无码一区二区视频 | 中文字幕乱码中文乱码51精品 | 精品欧洲av无码一区二区三区 | 亚洲自偷精品视频自拍 | 成人综合网亚洲伊人 | 国产 浪潮av性色四虎 | 亚洲熟妇色xxxxx亚洲 | 久久午夜无码鲁丝片午夜精品 | 亚洲成av人在线观看网址 | 色综合久久88色综合天天 | 欧美丰满老熟妇xxxxx性 | √8天堂资源地址中文在线 | 久久久国产精品无码免费专区 | 亚洲精品中文字幕乱码 | 西西人体www44rt大胆高清 | 欧美刺激性大交 | 色婷婷综合激情综在线播放 | 亚洲人交乣女bbw | 免费观看激色视频网站 | 国产激情综合五月久久 | 老熟女乱子伦 | 国产精品亚洲а∨无码播放麻豆 | 色综合视频一区二区三区 | 亚洲一区二区三区无码久久 | 国产激情无码一区二区app | www一区二区www免费 | 无码午夜成人1000部免费视频 | 青春草在线视频免费观看 | 狂野欧美性猛xxxx乱大交 | 国产精品二区一区二区aⅴ污介绍 | 性欧美大战久久久久久久 | 在线a亚洲视频播放在线观看 | 最近的中文字幕在线看视频 | 色狠狠av一区二区三区 | 婷婷五月综合缴情在线视频 | 日韩 欧美 动漫 国产 制服 | 成人影院yy111111在线观看 | 狠狠色丁香久久婷婷综合五月 | 国产成人一区二区三区别 | 国产福利视频一区二区 | 对白脏话肉麻粗话av | 亚洲aⅴ无码成人网站国产app | 亚洲另类伦春色综合小说 | 福利一区二区三区视频在线观看 | 国产午夜精品一区二区三区嫩草 | 丰满岳乱妇在线观看中字无码 | 一本无码人妻在中文字幕免费 | 国产福利视频一区二区 | 国产亚洲欧美在线专区 | 国产内射老熟女aaaa | 亚洲日本va中文字幕 | 青青青爽视频在线观看 | 日本一本二本三区免费 | 全黄性性激高免费视频 | 国产成人一区二区三区在线观看 | 四十如虎的丰满熟妇啪啪 | 国産精品久久久久久久 | 国产69精品久久久久app下载 | 亚洲成色www久久网站 | 亚洲狠狠色丁香婷婷综合 | 久久久久久亚洲精品a片成人 | 兔费看少妇性l交大片免费 | 国产suv精品一区二区五 | 大肉大捧一进一出好爽视频 | √天堂中文官网8在线 | 亚洲国产欧美日韩精品一区二区三区 | 日本爽爽爽爽爽爽在线观看免 | 天堂а√在线中文在线 | 亚洲色偷偷男人的天堂 | 国产亚洲精品久久久久久大师 | 亚洲国产精品一区二区第一页 | 亚洲国产成人av在线观看 | 人人澡人摸人人添 | 曰韩少妇内射免费播放 | 久久综合狠狠综合久久综合88 | 国产精品无码永久免费888 | 亚洲日本va中文字幕 | 中文字幕人妻无码一夲道 | 精品久久久久久人妻无码中文字幕 | 久久99热只有频精品8 | 永久免费观看国产裸体美女 | 天海翼激烈高潮到腰振不止 | 丝袜足控一区二区三区 | 无码乱肉视频免费大全合集 | 久久久无码中文字幕久... | 性史性农村dvd毛片 | 亚洲精品欧美二区三区中文字幕 | 欧美国产日韩久久mv | 国产无遮挡又黄又爽又色 | 国内精品人妻无码久久久影院蜜桃 | 欧美成人免费全部网站 | 男女爱爱好爽视频免费看 | 曰本女人与公拘交酡免费视频 | 久久zyz资源站无码中文动漫 | 欧美人与禽zoz0性伦交 | 性欧美牲交xxxxx视频 | 国产精品久久久久久亚洲影视内衣 | 色窝窝无码一区二区三区色欲 | 一区二区三区乱码在线 | 欧洲 | 国产精品二区一区二区aⅴ污介绍 | 精品成人av一区二区三区 | 性色av无码免费一区二区三区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 亚洲色欲色欲欲www在线 | 玩弄中年熟妇正在播放 | 中文字幕+乱码+中文字幕一区 | 国产在线精品一区二区三区直播 | 最近中文2019字幕第二页 | 国产亚洲欧美日韩亚洲中文色 | 欧美激情综合亚洲一二区 | 999久久久国产精品消防器材 | 欧美怡红院免费全部视频 | 熟女少妇人妻中文字幕 | 久久久中文久久久无码 | 少妇人妻偷人精品无码视频 | 色综合天天综合狠狠爱 | 东京无码熟妇人妻av在线网址 | 精品人妻av区 | 免费无码一区二区三区蜜桃大 | 无码人妻少妇伦在线电影 | 国产精品va在线观看无码 | 高清无码午夜福利视频 | 特黄特色大片免费播放器图片 | 国产精品久久久久久久影院 | 99精品国产综合久久久久五月天 | 中文字幕 人妻熟女 | 色一情一乱一伦一视频免费看 | 国产精品第一区揄拍无码 | 国产精品美女久久久久av爽李琼 | 亚洲熟熟妇xxxx | 色情久久久av熟女人妻网站 | 亚洲大尺度无码无码专区 | 成人精品一区二区三区中文字幕 | 麻豆精产国品 | 99国产精品白浆在线观看免费 | 午夜熟女插插xx免费视频 | 美女毛片一区二区三区四区 | 婷婷丁香六月激情综合啪 | 老头边吃奶边弄进去呻吟 | 最近中文2019字幕第二页 | 久久久国产一区二区三区 | 亚洲人成网站在线播放942 | 老熟女重囗味hdxx69 | 亚欧洲精品在线视频免费观看 | 国产精品资源一区二区 | 狠狠色噜噜狠狠狠7777奇米 | 久久国产精品偷任你爽任你 | 亚洲精品美女久久久久久久 | 欧美精品免费观看二区 | 久久久久成人片免费观看蜜芽 | 乱中年女人伦av三区 | 欧美国产亚洲日韩在线二区 | 精品无码一区二区三区的天堂 | 一本大道久久东京热无码av | 午夜精品一区二区三区的区别 | 红桃av一区二区三区在线无码av | 风流少妇按摩来高潮 | 西西人体www44rt大胆高清 | 亚洲欧美综合区丁香五月小说 | 88国产精品欧美一区二区三区 | 无码任你躁久久久久久久 | 日本欧美一区二区三区乱码 | 18无码粉嫩小泬无套在线观看 | 99久久精品无码一区二区毛片 | 久激情内射婷内射蜜桃人妖 | 国产亚洲精品久久久久久大师 | 大地资源中文第3页 | 99视频精品全部免费免费观看 | 国产熟妇另类久久久久 | 欧美日韩亚洲国产精品 | 精品久久久久久亚洲精品 | 亚洲区欧美区综合区自拍区 | 久久综合久久自在自线精品自 | 欧美xxxx黑人又粗又长 | 亚洲国产精品美女久久久久 | 成人精品天堂一区二区三区 | 久久人人97超碰a片精品 | 波多野结衣乳巨码无在线观看 | 国产精品美女久久久网av | 国产无遮挡吃胸膜奶免费看 | 一本久久a久久精品vr综合 | 国产极品美女高潮无套在线观看 | 精品国产一区二区三区av 性色 | 2019午夜福利不卡片在线 | 夜精品a片一区二区三区无码白浆 | 午夜福利不卡在线视频 | 日韩av无码中文无码电影 | 亚洲日本在线电影 | 无码福利日韩神码福利片 | 亚洲一区二区三区香蕉 | 2019nv天堂香蕉在线观看 | 国产极品美女高潮无套在线观看 | 在教室伦流澡到高潮hnp视频 | 人人妻人人澡人人爽欧美精品 | 97无码免费人妻超级碰碰夜夜 | 黑人粗大猛烈进出高潮视频 | 人妻少妇精品久久 | 亚洲人成无码网www | 欧美人与善在线com | 97se亚洲精品一区 | 国产人妻久久精品二区三区老狼 | 国产麻豆精品精东影业av网站 | 丰满少妇人妻久久久久久 | yw尤物av无码国产在线观看 | 国产黑色丝袜在线播放 | 欧美xxxx黑人又粗又长 | 日韩 欧美 动漫 国产 制服 | 色综合久久久无码网中文 | 亚洲精品国产第一综合99久久 | 又大又硬又爽免费视频 | 最新国产乱人伦偷精品免费网站 | 51国偷自产一区二区三区 | 最新国产麻豆aⅴ精品无码 | 国产熟女一区二区三区四区五区 | 中文字幕乱码人妻无码久久 | 在线观看免费人成视频 | 久久久久久国产精品无码下载 | 国产精品资源一区二区 | 色婷婷av一区二区三区之红樱桃 | 国产性生交xxxxx无码 | 国产三级久久久精品麻豆三级 | 扒开双腿吃奶呻吟做受视频 | 性欧美熟妇videofreesex | 亚洲狠狠婷婷综合久久 | 日韩精品一区二区av在线 | 熟妇人妻激情偷爽文 | 麻豆成人精品国产免费 | 亚洲 a v无 码免 费 成 人 a v | 欧美人与动性行为视频 | 内射巨臀欧美在线视频 | 亚洲中文字幕无码中文字在线 | 国产97在线 | 亚洲 | 国精产品一区二区三区 | 对白脏话肉麻粗话av | 欧美国产亚洲日韩在线二区 | 亚洲综合无码久久精品综合 | 在线播放无码字幕亚洲 | 亚洲精品久久久久中文第一幕 | √天堂资源地址中文在线 | 熟女少妇在线视频播放 | 天堂无码人妻精品一区二区三区 | √天堂中文官网8在线 | 国产猛烈高潮尖叫视频免费 | 鲁一鲁av2019在线 | 成人无码视频免费播放 | 九九久久精品国产免费看小说 | 四虎国产精品免费久久 | 久久久精品成人免费观看 | 九九在线中文字幕无码 | 欧美阿v高清资源不卡在线播放 | 亚洲成av人片在线观看无码不卡 | 精品乱子伦一区二区三区 | 人妻体内射精一区二区三四 | 国产成人无码av片在线观看不卡 | 亚洲无人区一区二区三区 | 久久99精品国产麻豆蜜芽 | 国产人妻大战黑人第1集 | 国产乱人偷精品人妻a片 | 国产香蕉尹人综合在线观看 | 精品水蜜桃久久久久久久 | www国产精品内射老师 | 亚洲小说春色综合另类 | 亚洲色欲色欲天天天www | 无码av免费一区二区三区试看 | 欧美三级不卡在线观看 | 亚洲一区二区三区含羞草 | 沈阳熟女露脸对白视频 | 中文字幕无码日韩欧毛 | 欧美阿v高清资源不卡在线播放 | 成人无码视频在线观看网站 | 亚洲欧美中文字幕5发布 | 亚洲成熟女人毛毛耸耸多 | 亚欧洲精品在线视频免费观看 | 欧美性生交活xxxxxdddd | 国产亚洲欧美在线专区 | 欧美三级a做爰在线观看 | 成人无码精品一区二区三区 | 亚洲综合在线一区二区三区 | 日本又色又爽又黄的a片18禁 | 少妇无码一区二区二三区 | 色婷婷综合中文久久一本 | 亚洲欧美色中文字幕在线 | 男女作爱免费网站 | 18禁黄网站男男禁片免费观看 | 国产精品亚洲专区无码不卡 | 永久免费观看美女裸体的网站 | 亚洲精品成a人在线观看 | 色婷婷av一区二区三区之红樱桃 | 最新版天堂资源中文官网 | 国产无av码在线观看 | 久久精品99久久香蕉国产色戒 | 俺去俺来也在线www色官网 | 性生交大片免费看女人按摩摩 | 国产后入清纯学生妹 | 久久久精品欧美一区二区免费 | 精品成人av一区二区三区 | 久久久中文久久久无码 | 亚洲国产成人a精品不卡在线 | 小鲜肉自慰网站xnxx | 日韩成人一区二区三区在线观看 | 亚洲gv猛男gv无码男同 | 377p欧洲日本亚洲大胆 | 熟女体下毛毛黑森林 | 亚洲中文字幕乱码av波多ji | 精品熟女少妇av免费观看 | 欧美日韩在线亚洲综合国产人 | 亚洲娇小与黑人巨大交 | 色综合天天综合狠狠爱 | 99久久精品午夜一区二区 | 图片小说视频一区二区 | 国产成人无码午夜视频在线观看 | 中文无码伦av中文字幕 | 高清不卡一区二区三区 | 性色av无码免费一区二区三区 | 国产精品无码一区二区桃花视频 | 国产精华av午夜在线观看 | 国产极品美女高潮无套在线观看 | 无遮挡国产高潮视频免费观看 | 香港三级日本三级妇三级 | 久久亚洲国产成人精品性色 | 亚洲欧美精品aaaaaa片 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲精品久久久久久久久久久 | 67194成是人免费无码 | 国产乱人伦av在线无码 | 人人妻人人澡人人爽人人精品 | 精品国产一区二区三区四区 | а√天堂www在线天堂小说 | 午夜男女很黄的视频 | 九九久久精品国产免费看小说 | 精品亚洲韩国一区二区三区 | 国产亚洲精品久久久久久久久动漫 | 少妇久久久久久人妻无码 | 天天拍夜夜添久久精品 | 国产九九九九九九九a片 | 亚洲综合无码一区二区三区 | 亚洲国产成人a精品不卡在线 | 天天av天天av天天透 | 精品少妇爆乳无码av无码专区 | 无码国产激情在线观看 | 国产9 9在线 | 中文 | 真人与拘做受免费视频 | 久久久www成人免费毛片 | 人人妻人人澡人人爽人人精品浪潮 | 呦交小u女精品视频 | 国产成人精品三级麻豆 | 88国产精品欧美一区二区三区 | 午夜熟女插插xx免费视频 | 欧美人与牲动交xxxx | 97无码免费人妻超级碰碰夜夜 | 玩弄人妻少妇500系列视频 | 中文字幕无码日韩欧毛 | 国产精品-区区久久久狼 | 水蜜桃av无码 | 野外少妇愉情中文字幕 | 我要看www免费看插插视频 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 人妻人人添人妻人人爱 | 18精品久久久无码午夜福利 | 亚洲日韩乱码中文无码蜜桃臀网站 | 纯爱无遮挡h肉动漫在线播放 | 波多野结衣高清一区二区三区 | 亚洲欧洲中文日韩av乱码 | 国产人妻人伦精品1国产丝袜 | 中文字幕人成乱码熟女app | 亚洲成a人片在线观看无码 | 大胆欧美熟妇xx | 狠狠色噜噜狠狠狠狠7777米奇 | 秋霞成人午夜鲁丝一区二区三区 | 国产超级va在线观看视频 | 人妻少妇被猛烈进入中文字幕 | 综合激情五月综合激情五月激情1 | 给我免费的视频在线观看 | 少妇一晚三次一区二区三区 | 精品国产一区av天美传媒 | 亚洲人成网站在线播放942 | 搡女人真爽免费视频大全 | 无码成人精品区在线观看 | 久久精品国产精品国产精品污 | 日韩av无码中文无码电影 | 天天拍夜夜添久久精品 | 国产亚洲日韩欧美另类第八页 | 久青草影院在线观看国产 | 乱人伦人妻中文字幕无码久久网 | 呦交小u女精品视频 | 一本加勒比波多野结衣 | 人人妻人人澡人人爽欧美一区九九 | 女人色极品影院 | 大屁股大乳丰满人妻 | 国产又爽又黄又刺激的视频 | 国产精品igao视频网 | 精品乱子伦一区二区三区 | 国色天香社区在线视频 | 老熟妇仑乱视频一区二区 | 久久成人a毛片免费观看网站 | 99riav国产精品视频 | 300部国产真实乱 | 97无码免费人妻超级碰碰夜夜 | 久久精品国产精品国产精品污 | 亚洲中文字幕在线无码一区二区 | 国产成人精品优优av | 久久久久成人精品免费播放动漫 | 人妻尝试又大又粗久久 | 国精产品一区二区三区 | 国产美女极度色诱视频www | 51国偷自产一区二区三区 | 精品国产一区二区三区四区在线看 | 亚洲国产午夜精品理论片 | 少妇激情av一区二区 | 东京热一精品无码av | 欧美日韩一区二区三区自拍 | 国产欧美精品一区二区三区 | 中文字幕人妻丝袜二区 | 亚洲精品午夜国产va久久成人 | 久久久成人毛片无码 | 久久国产精品偷任你爽任你 | 天天摸天天透天天添 | 日本一卡二卡不卡视频查询 | 亚洲一区二区三区在线观看网站 | 人人妻人人澡人人爽精品欧美 | 亚洲国产成人a精品不卡在线 | 在线播放亚洲第一字幕 | 婷婷综合久久中文字幕蜜桃三电影 | 国产成人人人97超碰超爽8 | 日本www一道久久久免费榴莲 | 天堂亚洲2017在线观看 | 精品一区二区不卡无码av | 丝袜 中出 制服 人妻 美腿 | 高潮毛片无遮挡高清免费 | 国产无套内射久久久国产 | 国产av无码专区亚洲a∨毛片 | а天堂中文在线官网 | 国产亚洲人成a在线v网站 | 水蜜桃色314在线观看 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲一区二区三区国产精华液 | 久久人人爽人人爽人人片ⅴ | 无码国产乱人伦偷精品视频 | 日韩精品久久久肉伦网站 | 日韩精品无码一区二区中文字幕 | 欧美性黑人极品hd | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 大胆欧美熟妇xx | 久青草影院在线观看国产 | 亚洲国产精品无码久久久久高潮 | 少妇久久久久久人妻无码 | 日本精品少妇一区二区三区 | 露脸叫床粗话东北少妇 | 国产无遮挡吃胸膜奶免费看 | 麻豆精品国产精华精华液好用吗 | www国产精品内射老师 | 久久久久久a亚洲欧洲av冫 | 欧美性色19p | 国产美女极度色诱视频www | 国产女主播喷水视频在线观看 | 国产午夜手机精彩视频 | 国产片av国语在线观看 | 午夜精品久久久久久久 | 亚洲爆乳精品无码一区二区三区 | 国产精品久久久久7777 | 成熟女人特级毛片www免费 | 精品无码一区二区三区的天堂 | 一本精品99久久精品77 | 天海翼激烈高潮到腰振不止 | 无码帝国www无码专区色综合 | 成人aaa片一区国产精品 | 国产极品美女高潮无套在线观看 | 亚洲日本在线电影 | 欧洲精品码一区二区三区免费看 | 秋霞成人午夜鲁丝一区二区三区 | 日本一区二区更新不卡 | 亚洲国产精品无码久久久久高潮 | 狠狠色丁香久久婷婷综合五月 | 美女扒开屁股让男人桶 | 久久久精品国产sm最大网站 | 国产免费久久精品国产传媒 | 久久综合香蕉国产蜜臀av | 日韩精品一区二区av在线 | 久久精品成人欧美大片 | 国产综合色产在线精品 | 300部国产真实乱 | 东京热男人av天堂 | 日日摸夜夜摸狠狠摸婷婷 | 无码人妻精品一区二区三区不卡 | 久久精品人妻少妇一区二区三区 | 亚洲gv猛男gv无码男同 | 欧美丰满老熟妇xxxxx性 | 最新国产乱人伦偷精品免费网站 | 野狼第一精品社区 | 国产精品美女久久久久av爽李琼 | 秋霞成人午夜鲁丝一区二区三区 | 国产舌乚八伦偷品w中 | 少妇高潮一区二区三区99 | 中文字幕无码乱人伦 | 国产乱子伦视频在线播放 | 欧美xxxx黑人又粗又长 | 国产精品igao视频网 | 国产真实伦对白全集 | 给我免费的视频在线观看 | 国产亚洲人成a在线v网站 | 欧美自拍另类欧美综合图片区 | 成人无码精品1区2区3区免费看 | 永久免费观看国产裸体美女 | 蜜臀av在线播放 久久综合激激的五月天 | ass日本丰满熟妇pics | 日韩亚洲欧美精品综合 | 人妻尝试又大又粗久久 | 在线а√天堂中文官网 | 久久亚洲日韩精品一区二区三区 | 色情久久久av熟女人妻网站 | 奇米影视888欧美在线观看 | 人妻互换免费中文字幕 | 亚洲最大成人网站 | 国产成人精品三级麻豆 | 精品久久8x国产免费观看 | 亚洲精品美女久久久久久久 | www成人国产高清内射 | 久久久久久久人妻无码中文字幕爆 | 99久久精品国产一区二区蜜芽 | 久久人人爽人人人人片 | 精品日本一区二区三区在线观看 | 日韩人妻少妇一区二区三区 | 精品久久综合1区2区3区激情 | 无码人妻久久一区二区三区不卡 | 国产精品亚洲а∨无码播放麻豆 | 一本色道婷婷久久欧美 | yw尤物av无码国产在线观看 | 欧美亚洲日韩国产人成在线播放 | 亚洲日韩一区二区三区 | 亚洲 欧美 激情 小说 另类 | 亚洲va中文字幕无码久久不卡 | 99精品久久毛片a片 | 亚洲精品一区二区三区在线 | 麻豆精品国产精华精华液好用吗 | 国产内射老熟女aaaa | 97夜夜澡人人双人人人喊 | a国产一区二区免费入口 | 亚洲成av人片天堂网无码】 | 无码乱肉视频免费大全合集 | 黄网在线观看免费网站 | 美女张开腿让人桶 | 国产精品美女久久久久av爽李琼 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲乱码中文字幕在线 | 少妇性l交大片欧洲热妇乱xxx | 亚洲中文字幕无码中文字在线 | 精品一区二区不卡无码av | 成人女人看片免费视频放人 | 妺妺窝人体色www婷婷 | 最近免费中文字幕中文高清百度 | 综合激情五月综合激情五月激情1 | 内射老妇bbwx0c0ck | 午夜不卡av免费 一本久久a久久精品vr综合 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 大地资源网第二页免费观看 | 清纯唯美经典一区二区 | av无码电影一区二区三区 | 日韩欧美中文字幕在线三区 | 国产电影无码午夜在线播放 | 国产av久久久久精东av | 色综合久久网 | 国产av久久久久精东av | 一二三四社区在线中文视频 | 日欧一片内射va在线影院 | 中文字幕无码日韩专区 | 国产精品人人妻人人爽 | 色狠狠av一区二区三区 | 中文字幕乱码人妻二区三区 | 久久久国产一区二区三区 | 波多野结衣av在线观看 | 色欲综合久久中文字幕网 | 四十如虎的丰满熟妇啪啪 | 激情内射亚州一区二区三区爱妻 | 红桃av一区二区三区在线无码av | 欧美亚洲国产一区二区三区 | 日本免费一区二区三区最新 | 乱人伦中文视频在线观看 | 少妇一晚三次一区二区三区 | 东京一本一道一二三区 | 成人三级无码视频在线观看 | 又粗又大又硬又长又爽 | 中文字幕久久久久人妻 | 福利一区二区三区视频在线观看 | 在线天堂新版最新版在线8 | 国产激情综合五月久久 | 久久精品视频在线看15 | 久久综合九色综合欧美狠狠 | 国产人妖乱国产精品人妖 | 99麻豆久久久国产精品免费 | 人人澡人人妻人人爽人人蜜桃 | 日本一卡二卡不卡视频查询 | 亚欧洲精品在线视频免费观看 | 377p欧洲日本亚洲大胆 | 久久这里只有精品视频9 | 搡女人真爽免费视频大全 | 精品人人妻人人澡人人爽人人 | 午夜精品一区二区三区在线观看 | 国产精品亚洲综合色区韩国 | 日韩欧美成人免费观看 | 欧美兽交xxxx×视频 | 国产人妻精品一区二区三区不卡 | 亚洲熟妇色xxxxx欧美老妇y | 久久精品中文字幕一区 | 国产网红无码精品视频 | 亚洲国产精品久久久天堂 | a在线观看免费网站大全 | 中文字幕av日韩精品一区二区 | 久久久久成人精品免费播放动漫 | 欧美日韩人成综合在线播放 | 99视频精品全部免费免费观看 | 日韩人妻无码中文字幕视频 | 国产午夜无码视频在线观看 | 国产猛烈高潮尖叫视频免费 | 欧美熟妇另类久久久久久多毛 | 性欧美videos高清精品 | 国产偷国产偷精品高清尤物 | 欧美一区二区三区视频在线观看 | 亚洲自偷自拍另类第1页 | 在线观看国产午夜福利片 | 国产综合久久久久鬼色 | 在线视频网站www色 | 亚洲精品一区二区三区大桥未久 | 乱中年女人伦av三区 | 欧美老妇与禽交 | 中文无码精品a∨在线观看不卡 | 国产 精品 自在自线 | 国产精品无码一区二区桃花视频 | 成人精品一区二区三区中文字幕 | 人人妻人人澡人人爽欧美精品 | 欧美性色19p | 亚洲一区二区三区香蕉 | 1000部啪啪未满十八勿入下载 | 国内老熟妇对白xxxxhd | 正在播放东北夫妻内射 | 97久久精品无码一区二区 | 男女猛烈xx00免费视频试看 | 国产av无码专区亚洲awww | 国内老熟妇对白xxxxhd | 永久免费精品精品永久-夜色 | 荫蒂添的好舒服视频囗交 | 精品久久久久香蕉网 | 激情五月综合色婷婷一区二区 | 麻豆国产人妻欲求不满 | 亚洲自偷自偷在线制服 | 日本乱偷人妻中文字幕 | 国产免费观看黄av片 | 无遮无挡爽爽免费视频 | 色偷偷人人澡人人爽人人模 | 亚洲精品一区二区三区婷婷月 | 欧美人与善在线com | 日本又色又爽又黄的a片18禁 | 毛片内射-百度 | 亚洲中文字幕乱码av波多ji | 青青青爽视频在线观看 | 无套内射视频囯产 | 人妻无码αv中文字幕久久琪琪布 | 特黄特色大片免费播放器图片 | 国产无套内射久久久国产 | 精品日本一区二区三区在线观看 | 久久国语露脸国产精品电影 | 无码免费一区二区三区 | 亚洲va欧美va天堂v国产综合 | 久久国产劲爆∧v内射 | 日本乱人伦片中文三区 | 国产又爽又黄又刺激的视频 | 国产三级久久久精品麻豆三级 | 成 人 免费观看网站 | 日欧一片内射va在线影院 | 久久精品中文字幕大胸 | 日日碰狠狠躁久久躁蜜桃 | 精品久久久无码中文字幕 | 国产精品18久久久久久麻辣 | 18无码粉嫩小泬无套在线观看 | 久久亚洲日韩精品一区二区三区 | 国产午夜无码视频在线观看 | 中文字幕无线码 | 日本丰满熟妇videos | 日韩精品成人一区二区三区 | 毛片内射-百度 | 国产精品沙发午睡系列 | 精品无码av一区二区三区 | 亚洲精品国偷拍自产在线麻豆 | 日欧一片内射va在线影院 | 日韩精品乱码av一区二区 | 免费看少妇作爱视频 | 久久久国产精品无码免费专区 | 久久久中文字幕日本无吗 | 一本色道久久综合狠狠躁 | 亚洲人成影院在线观看 | 欧美日韩在线亚洲综合国产人 | 国产熟女一区二区三区四区五区 | 鲁鲁鲁爽爽爽在线视频观看 | 久久视频在线观看精品 | 秋霞成人午夜鲁丝一区二区三区 | 国精产品一品二品国精品69xx | 中文久久乱码一区二区 | 国产精品国产三级国产专播 | 精品国产一区二区三区av 性色 | а√天堂www在线天堂小说 | 国产成人无码av在线影院 | 久青草影院在线观看国产 | 精品一区二区三区无码免费视频 | 亚洲色欲色欲天天天www | 动漫av网站免费观看 | 无人区乱码一区二区三区 | 午夜无码区在线观看 | 日日麻批免费40分钟无码 | 无码毛片视频一区二区本码 | 午夜精品久久久久久久久 | 日本精品少妇一区二区三区 | 国产人妻精品一区二区三区 | 久久视频在线观看精品 | 久久久久久久人妻无码中文字幕爆 | 久久99精品久久久久婷婷 | 欧美日韩视频无码一区二区三 | 色综合久久久久综合一本到桃花网 | 中文字幕精品av一区二区五区 | 亚洲精品成人av在线 | 亚洲 另类 在线 欧美 制服 | 亚洲人成网站在线播放942 | 国产极品视觉盛宴 | 一本精品99久久精品77 | 最近中文2019字幕第二页 | 全球成人中文在线 | 蜜臀av在线播放 久久综合激激的五月天 | 内射欧美老妇wbb | 久久久国产一区二区三区 | 国产真实伦对白全集 | 国产网红无码精品视频 | 熟女俱乐部五十路六十路av | 国产精品第一国产精品 | 熟妇人妻中文av无码 | 国产成人无码av在线影院 | 日本乱偷人妻中文字幕 | 欧美人与禽猛交狂配 | 国产午夜福利100集发布 | 国产av一区二区三区最新精品 | 国内精品久久毛片一区二区 | 国产av人人夜夜澡人人爽麻豆 | 亚洲欧洲日本无在线码 | 最近的中文字幕在线看视频 | 亚洲精品午夜国产va久久成人 | 久久国产精品精品国产色婷婷 | 欧美日韩视频无码一区二区三 | 夜精品a片一区二区三区无码白浆 | 久久久久久a亚洲欧洲av冫 | 久久亚洲精品成人无码 | 性生交大片免费看l | 玩弄中年熟妇正在播放 | 日本在线高清不卡免费播放 | 欧美自拍另类欧美综合图片区 | 国产精品免费大片 | 国产绳艺sm调教室论坛 | 国产另类ts人妖一区二区 | 激情国产av做激情国产爱 | 成人免费视频在线观看 | 99精品无人区乱码1区2区3区 | 四十如虎的丰满熟妇啪啪 | 国内精品一区二区三区不卡 | 熟女俱乐部五十路六十路av | 亚洲大尺度无码无码专区 | 国产成人综合美国十次 | 国产激情综合五月久久 | 麻花豆传媒剧国产免费mv在线 | 精品一二三区久久aaa片 | 黑人巨大精品欧美黑寡妇 | 亚洲熟熟妇xxxx | 国产成人无码av一区二区 | 久久午夜夜伦鲁鲁片无码免费 | 激情五月综合色婷婷一区二区 | 欧美 亚洲 国产 另类 | 无码国产色欲xxxxx视频 | 天天爽夜夜爽夜夜爽 | 亚洲一区av无码专区在线观看 | 国产精品亚洲а∨无码播放麻豆 | 国产三级久久久精品麻豆三级 | 国产婷婷色一区二区三区在线 | 色诱久久久久综合网ywww | 日韩精品乱码av一区二区 | 国产亚洲精品久久久久久久久动漫 | 久久www免费人成人片 | 亚洲中文字幕成人无码 | 久久99久久99精品中文字幕 | 久久zyz资源站无码中文动漫 | 国产福利视频一区二区 | 一二三四在线观看免费视频 | 日韩精品无码一区二区中文字幕 | 国产激情一区二区三区 | 国内老熟妇对白xxxxhd | 亚洲日韩av片在线观看 | 欧美日本日韩 | 人妻aⅴ无码一区二区三区 | 蜜臀av无码人妻精品 | 夫妻免费无码v看片 | 精品无码一区二区三区的天堂 | 中文字幕无码视频专区 | 免费无码一区二区三区蜜桃大 | 国产婷婷色一区二区三区在线 | 国产人妻精品一区二区三区不卡 | 波多野42部无码喷潮在线 | 极品嫩模高潮叫床 | 国产午夜精品一区二区三区嫩草 | 性色欲情网站iwww九文堂 | 国精产品一区二区三区 | 久久久久久久久888 | 国产精品内射视频免费 | 在线观看免费人成视频 | 成人一区二区免费视频 | www国产亚洲精品久久久日本 | 狠狠亚洲超碰狼人久久 | 伊人久久婷婷五月综合97色 | 乱中年女人伦av三区 | 亚洲精品久久久久久久久久久 | 精品 日韩 国产 欧美 视频 | 7777奇米四色成人眼影 | 欧美性猛交xxxx富婆 | 国产精品99久久精品爆乳 | 免费播放一区二区三区 | 国产成人无码一二三区视频 | 欧美 丝袜 自拍 制服 另类 | 综合激情五月综合激情五月激情1 | 蜜桃视频插满18在线观看 | 久久综合网欧美色妞网 | 亚洲欧美日韩成人高清在线一区 | 狂野欧美性猛交免费视频 | 精品熟女少妇av免费观看 | 欧美野外疯狂做受xxxx高潮 | 国产成人精品三级麻豆 | 高潮毛片无遮挡高清免费视频 | 日本饥渴人妻欲求不满 | 妺妺窝人体色www在线小说 | 成人欧美一区二区三区黑人 | 人妻天天爽夜夜爽一区二区 | 丰满少妇女裸体bbw | 领导边摸边吃奶边做爽在线观看 | 人人妻人人澡人人爽欧美一区九九 | 亚洲色在线无码国产精品不卡 | 国产凸凹视频一区二区 | 成人亚洲精品久久久久 | 红桃av一区二区三区在线无码av | 国产人妻精品一区二区三区不卡 | 亚洲最大成人网站 | 精品无码一区二区三区的天堂 | 久久精品视频在线看15 | a片免费视频在线观看 | 无码中文字幕色专区 | 人妻插b视频一区二区三区 | 人人妻人人澡人人爽欧美一区 | 国产精品久久久 | 99在线 | 亚洲 | 少妇一晚三次一区二区三区 | 亚洲色欲久久久综合网东京热 | 丁香花在线影院观看在线播放 | 精品人妻人人做人人爽 | 又大又紧又粉嫩18p少妇 | 亚洲小说春色综合另类 | 国产99久久精品一区二区 | 欧美日韩一区二区三区自拍 | www成人国产高清内射 | 人妻aⅴ无码一区二区三区 | 亚洲精品一区二区三区在线观看 | 一本久久a久久精品亚洲 | 无码av岛国片在线播放 | 国产精华av午夜在线观看 | 久久精品丝袜高跟鞋 | 黑人粗大猛烈进出高潮视频 | 欧美一区二区三区视频在线观看 | 精品国精品国产自在久国产87 | 乱人伦人妻中文字幕无码久久网 | 大地资源网第二页免费观看 | 免费人成在线视频无码 | 精品人人妻人人澡人人爽人人 | 人妻体内射精一区二区三四 | 亚洲码国产精品高潮在线 | 无码人妻出轨黑人中文字幕 | 国产一区二区不卡老阿姨 | 亚洲综合色区中文字幕 | 国产成人无码a区在线观看视频app | 久久人人爽人人爽人人片av高清 | 成熟人妻av无码专区 | 1000部夫妻午夜免费 | 国产一区二区不卡老阿姨 | 成人无码视频免费播放 | 激情亚洲一区国产精品 | 人人爽人人爽人人片av亚洲 | 高清无码午夜福利视频 | 日日鲁鲁鲁夜夜爽爽狠狠 | 丰满少妇高潮惨叫视频 | 国内精品久久毛片一区二区 | 国产激情综合五月久久 | 黑森林福利视频导航 | 国产真人无遮挡作爱免费视频 | 色妞www精品免费视频 | 国产内射爽爽大片视频社区在线 | 久9re热视频这里只有精品 | 亚洲中文字幕成人无码 | 又大又硬又黄的免费视频 | 一本色道久久综合亚洲精品不卡 | 国产乱码精品一品二品 | 亚洲精品国产品国语在线观看 | 激情内射日本一区二区三区 | 亚洲 另类 在线 欧美 制服 | 狂野欧美性猛xxxx乱大交 | 妺妺窝人体色www婷婷 | 狠狠躁日日躁夜夜躁2020 | 18黄暴禁片在线观看 | 国产精品无码一区二区三区不卡 | 国产卡一卡二卡三 | 曰韩无码二三区中文字幕 | 黑人粗大猛烈进出高潮视频 | 伊人久久大香线焦av综合影院 | 亚洲成av人综合在线观看 | www国产亚洲精品久久网站 | 欧美日韩在线亚洲综合国产人 | 中文字幕无码日韩欧毛 | 国产精品久久久久7777 | 国产另类ts人妖一区二区 | 狠狠色丁香久久婷婷综合五月 | 荫蒂添的好舒服视频囗交 | 76少妇精品导航 | 粉嫩少妇内射浓精videos | 亚洲精品中文字幕久久久久 | 激情内射日本一区二区三区 | 久久亚洲国产成人精品性色 | 牲欲强的熟妇农村老妇女视频 | 黄网在线观看免费网站 | 人妻aⅴ无码一区二区三区 | 最新国产乱人伦偷精品免费网站 | 亚洲精品久久久久中文第一幕 | 真人与拘做受免费视频一 | 久久国产精品萌白酱免费 | 亚洲精品成a人在线观看 | 免费观看黄网站 | 国产精品无码成人午夜电影 | 亚洲码国产精品高潮在线 | 亚洲乱码日产精品bd | 亚洲色大成网站www国产 | 日韩少妇白浆无码系列 | 久久精品中文字幕一区 | 99久久久国产精品无码免费 | 人妻无码αv中文字幕久久琪琪布 | 久久久久av无码免费网 | 99久久婷婷国产综合精品青草免费 | 夜夜影院未满十八勿进 | 国产黄在线观看免费观看不卡 | 台湾无码一区二区 | 色综合久久久无码中文字幕 | 麻豆果冻传媒2021精品传媒一区下载 | 草草网站影院白丝内射 | 国产又爽又黄又刺激的视频 | 国产一区二区三区四区五区加勒比 | 99久久久无码国产精品免费 | 中文字幕日产无线码一区 | 午夜福利不卡在线视频 | 成人毛片一区二区 | 亚洲精品国产a久久久久久 | 宝宝好涨水快流出来免费视频 | 国产成人无码区免费内射一片色欲 | 国产免费无码一区二区视频 | 国产精品亚洲综合色区韩国 | 国产精品亚洲а∨无码播放麻豆 | 中文字幕乱码人妻二区三区 | 亚洲一区二区三区国产精华液 | 亚洲色偷偷男人的天堂 | 少妇人妻偷人精品无码视频 | 一本久道高清无码视频 | 精品国产av色一区二区深夜久久 | a片在线免费观看 | 国产精品人妻一区二区三区四 | 免费人成在线视频无码 | 男人和女人高潮免费网站 | 成 人影片 免费观看 | 成人片黄网站色大片免费观看 | 无码人妻精品一区二区三区不卡 | 一二三四在线观看免费视频 | 欧美人与善在线com | 亚洲色欲色欲欲www在线 | 国产无套内射久久久国产 | 成熟女人特级毛片www免费 | 三上悠亚人妻中文字幕在线 | 人妻与老人中文字幕 | 色欲人妻aaaaaaa无码 | 男人扒开女人内裤强吻桶进去 | 亚洲综合另类小说色区 | 日本精品久久久久中文字幕 | 牲交欧美兽交欧美 | 亚洲成色在线综合网站 | 一本无码人妻在中文字幕免费 | 国产内射老熟女aaaa | 欧美人与牲动交xxxx | 99久久人妻精品免费二区 | 97夜夜澡人人双人人人喊 | 日韩av无码一区二区三区不卡 | av香港经典三级级 在线 | 精品人妻人人做人人爽夜夜爽 | 99久久婷婷国产综合精品青草免费 | 又大又硬又黄的免费视频 | 成人精品视频一区二区三区尤物 | 在线a亚洲视频播放在线观看 | 亚洲色大成网站www | 欧美黑人乱大交 | 国产精品99爱免费视频 | 亚洲色在线无码国产精品不卡 | 国产小呦泬泬99精品 | 国产成人午夜福利在线播放 | 亚洲中文字幕无码中字 | 国精品人妻无码一区二区三区蜜柚 | 中文字幕乱码亚洲无线三区 | 丰满少妇女裸体bbw | 亚洲 另类 在线 欧美 制服 | 中文字幕人妻无码一区二区三区 | 欧美国产日韩亚洲中文 | 99久久精品日本一区二区免费 | 国产凸凹视频一区二区 | 久久久精品欧美一区二区免费 | 67194成是人免费无码 | 日本一卡2卡3卡四卡精品网站 | 日韩 欧美 动漫 国产 制服 | 99久久精品无码一区二区毛片 | 日韩精品无码一区二区中文字幕 | 丰腴饱满的极品熟妇 | 久久久久久国产精品无码下载 | 最近的中文字幕在线看视频 | 成人三级无码视频在线观看 | 丰满护士巨好爽好大乳 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲精品一区三区三区在线观看 | 国产免费无码一区二区视频 | 最近的中文字幕在线看视频 | 久久久久成人片免费观看蜜芽 | 成人精品视频一区二区三区尤物 | 欧美 日韩 人妻 高清 中文 | 国产 精品 自在自线 | 中文字幕乱妇无码av在线 | 国产无av码在线观看 | 久久99精品久久久久久 | 精品无码av一区二区三区 | 激情人妻另类人妻伦 | 色老头在线一区二区三区 | 成人片黄网站色大片免费观看 | 麻豆国产丝袜白领秘书在线观看 | 四虎永久在线精品免费网址 | 中文字幕+乱码+中文字幕一区 | 久久伊人色av天堂九九小黄鸭 | 天天av天天av天天透 | 成人精品视频一区二区 | 欧美日韩一区二区免费视频 | 麻豆蜜桃av蜜臀av色欲av | 欧美大屁股xxxxhd黑色 | 蜜桃无码一区二区三区 | 精品国产成人一区二区三区 | 小泽玛莉亚一区二区视频在线 | 亚洲午夜久久久影院 | 一本无码人妻在中文字幕免费 | 亚洲精品无码人妻无码 | 在线精品亚洲一区二区 | 亚洲乱亚洲乱妇50p | 日本丰满熟妇videos | 漂亮人妻洗澡被公强 日日躁 | 色老头在线一区二区三区 | 熟妇人妻无乱码中文字幕 | 十八禁真人啪啪免费网站 | 国产亚洲精品久久久ai换 | 人人妻人人澡人人爽人人精品浪潮 | 东京一本一道一二三区 | 99久久精品日本一区二区免费 | 久久视频在线观看精品 | 午夜男女很黄的视频 | 色综合久久久无码网中文 | 成人欧美一区二区三区黑人 | 色欲久久久天天天综合网精品 | 波多野42部无码喷潮在线 | 亚洲 激情 小说 另类 欧美 | 亚洲自偷自拍另类第1页 | 无码av中文字幕免费放 | 波多野结衣 黑人 | 波多野结衣乳巨码无在线观看 | 真人与拘做受免费视频一 | 色一情一乱一伦一区二区三欧美 | 捆绑白丝粉色jk震动捧喷白浆 | 亚洲一区二区三区播放 | 欧美午夜特黄aaaaaa片 | 日日碰狠狠丁香久燥 | 小鲜肉自慰网站xnxx | 少妇邻居内射在线 | 丰满人妻被黑人猛烈进入 | 欧美日韩一区二区综合 | 欧美丰满熟妇xxxx | 亚洲gv猛男gv无码男同 | 日韩欧美群交p片內射中文 | 欧美黑人乱大交 | 99精品久久毛片a片 | 国产午夜亚洲精品不卡 | 日日摸日日碰夜夜爽av | 亚洲国产一区二区三区在线观看 | 精品国偷自产在线视频 | 欧美国产日韩久久mv | 99久久精品国产一区二区蜜芽 | 久久人人爽人人爽人人片ⅴ | 精品无码一区二区三区爱欲 | 2019nv天堂香蕉在线观看 | 亚洲阿v天堂在线 | 国产精品igao视频网 | 日本精品少妇一区二区三区 | 日韩亚洲欧美中文高清在线 | 日本又色又爽又黄的a片18禁 | 国产一精品一av一免费 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 日本大香伊一区二区三区 | 国产xxx69麻豆国语对白 | 久久久久久久人妻无码中文字幕爆 | 夜夜影院未满十八勿进 | 亚洲欧洲日本综合aⅴ在线 | 久久精品成人欧美大片 | 国产一区二区不卡老阿姨 | 国产亚洲视频中文字幕97精品 | 亚洲精品综合一区二区三区在线 | 国产av人人夜夜澡人人爽麻豆 | 精品乱码久久久久久久 | 四虎永久在线精品免费网址 | 亚洲无人区午夜福利码高清完整版 | 亚洲国产综合无码一区 | 麻花豆传媒剧国产免费mv在线 | 伦伦影院午夜理论片 | 中文字幕乱码亚洲无线三区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 兔费看少妇性l交大片免费 | 亚洲成av人片在线观看无码不卡 | 99麻豆久久久国产精品免费 | 在线播放亚洲第一字幕 | 亚洲日韩av一区二区三区四区 | 伊人久久大香线蕉亚洲 | 乱码午夜-极国产极内射 | av无码电影一区二区三区 | 久久精品中文字幕大胸 | 久久精品国产99久久6动漫 | 色偷偷人人澡人人爽人人模 | 国精产品一区二区三区 | 性生交大片免费看女人按摩摩 | 国产偷国产偷精品高清尤物 | 76少妇精品导航 | 国産精品久久久久久久 | 国产真实伦对白全集 | 国产综合色产在线精品 | 色综合天天综合狠狠爱 | 麻豆成人精品国产免费 | 少妇无码一区二区二三区 | 欧美老人巨大xxxx做受 | 亚洲精品午夜国产va久久成人 | 亚洲日本va午夜在线电影 | 国产无遮挡吃胸膜奶免费看 | 中国女人内谢69xxxxxa片 | 任你躁在线精品免费 | 亚洲国产午夜精品理论片 | 亚洲成a人片在线观看日本 | 国产亚洲日韩欧美另类第八页 | 性欧美videos高清精品 | 亚洲精品一区二区三区大桥未久 | 久久国产精品萌白酱免费 | 在线a亚洲视频播放在线观看 | 日本www一道久久久免费榴莲 | 大地资源网第二页免费观看 | 亚洲精品欧美二区三区中文字幕 | 久久久国产一区二区三区 | 久久精品国产一区二区三区 | 国产色xx群视频射精 | 人人妻人人澡人人爽精品欧美 | 中文精品无码中文字幕无码专区 | 日本一区二区更新不卡 | 学生妹亚洲一区二区 | 97精品国产97久久久久久免费 | 日韩人妻少妇一区二区三区 | 全球成人中文在线 | 丰满人妻精品国产99aⅴ | 欧美日韩一区二区免费视频 | 久久99精品久久久久婷婷 | 夫妻免费无码v看片 | 狠狠色噜噜狠狠狠7777奇米 | 国产av无码专区亚洲awww | 国产猛烈高潮尖叫视频免费 | 国语自产偷拍精品视频偷 | 国产精品亚洲一区二区三区喷水 | 欧美zoozzooz性欧美 | 精品久久久无码人妻字幂 | 国产一区二区不卡老阿姨 | 久久综合狠狠综合久久综合88 | 曰韩无码二三区中文字幕 | 中文字幕无码人妻少妇免费 | 男女猛烈xx00免费视频试看 | 精品aⅴ一区二区三区 | 狠狠色色综合网站 | 高清不卡一区二区三区 | 九九热爱视频精品 | 国产人妻精品一区二区三区不卡 | 色综合久久久久综合一本到桃花网 | 久久久久免费精品国产 | 麻豆人妻少妇精品无码专区 | 中文字幕亚洲情99在线 | 久久久久免费看成人影片 | 野狼第一精品社区 | 欧美亚洲日韩国产人成在线播放 | 精品国产成人一区二区三区 | 76少妇精品导航 | 国产成人精品优优av | 激情内射日本一区二区三区 | 日本丰满护士爆乳xxxx | 天堂无码人妻精品一区二区三区 | 久久精品人妻少妇一区二区三区 | 夜夜高潮次次欢爽av女 | 国产人妻精品一区二区三区 | 老太婆性杂交欧美肥老太 | 亚洲成a人一区二区三区 | 波多野结衣av一区二区全免费观看 | 亚洲毛片av日韩av无码 | 红桃av一区二区三区在线无码av | 色综合久久久无码网中文 | 欧美兽交xxxx×视频 | 欧美xxxx黑人又粗又长 | 亚洲精品久久久久久一区二区 | 国产午夜精品一区二区三区嫩草 | 免费无码一区二区三区蜜桃大 | 久久综合久久自在自线精品自 | 成人无码视频在线观看网站 | 亚洲熟熟妇xxxx | 亚洲精品www久久久 | 又大又硬又黄的免费视频 | www国产亚洲精品久久久日本 | 久久国内精品自在自线 | 日产精品高潮呻吟av久久 | 又紧又大又爽精品一区二区 | 国产麻豆精品精东影业av网站 | 永久免费观看国产裸体美女 | 真人与拘做受免费视频一 | 成年美女黄网站色大免费视频 | 性欧美疯狂xxxxbbbb | 国产精品久久国产精品99 | 亚洲伊人久久精品影院 | 帮老师解开蕾丝奶罩吸乳网站 | 精品无码一区二区三区的天堂 | 丰满人妻精品国产99aⅴ | 久久精品国产日本波多野结衣 | 欧美老妇交乱视频在线观看 | 牲欲强的熟妇农村老妇女 | 亚洲 高清 成人 动漫 | 国产手机在线αⅴ片无码观看 | 精品国产青草久久久久福利 | 欧美老熟妇乱xxxxx | 人妻有码中文字幕在线 | 97久久超碰中文字幕 | 国产午夜亚洲精品不卡 | 色婷婷久久一区二区三区麻豆 | 丰满少妇弄高潮了www | 久久久久久久久蜜桃 | 欧洲欧美人成视频在线 | 亚欧洲精品在线视频免费观看 | 男女爱爱好爽视频免费看 | 无码人妻久久一区二区三区不卡 | 中文字幕无码人妻少妇免费 | 国产精品毛多多水多 | 久久综合给久久狠狠97色 | 大乳丰满人妻中文字幕日本 | 领导边摸边吃奶边做爽在线观看 | 日产精品高潮呻吟av久久 | 欧美zoozzooz性欧美 | 欧美 亚洲 国产 另类 | 窝窝午夜理论片影院 | 无码吃奶揉捏奶头高潮视频 | 国产在线aaa片一区二区99 | 国内老熟妇对白xxxxhd | 久久精品国产99久久6动漫 | 无码播放一区二区三区 | 亚洲s色大片在线观看 | 日日摸日日碰夜夜爽av | 无码中文字幕色专区 | 青春草在线视频免费观看 | 欧美日本日韩 | 久热国产vs视频在线观看 | 久久精品人人做人人综合 | 久久99精品久久久久久动态图 | 国产成人人人97超碰超爽8 | 性欧美大战久久久久久久 | 欧美日韩亚洲国产精品 | 99精品国产综合久久久久五月天 | 国产成人无码专区 | 伊在人天堂亚洲香蕉精品区 | 精品国产av色一区二区深夜久久 | 国产av剧情md精品麻豆 | 国产激情无码一区二区 | 国产亚洲tv在线观看 | 97夜夜澡人人爽人人喊中国片 | 一个人看的视频www在线 | 久久www免费人成人片 | 少妇无码一区二区二三区 | 色妞www精品免费视频 | 成熟人妻av无码专区 | 国产精品久久久久9999小说 | 午夜理论片yy44880影院 |