久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

【机器学习】3万字长文,PySpark入门级学习教程,框架思维

發布時間:2025/3/12 编程问答 23 豆豆
生活随笔 收集整理的這篇文章主要介紹了 【机器学习】3万字长文,PySpark入门级学习教程,框架思维 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

為什么要學習Spark?作為數據從業者多年,個人覺得Spark已經越來越走進我們的日常工作了,無論是使用哪種編程語言,Python、Scala還是Java,都會或多或少接觸到Spark,它可以讓我們能夠用到集群的力量,可以對BigData進行高效操作,實現很多之前由于計算資源而無法輕易實現的東西。網上有很多關于Spark的好處,這里就不做過多的贅述,我們直接進入這篇文章的正文!


關于PySpark,我們知道它是Python調用Spark的接口,我們可以通過調用Python API的方式來編寫Spark程序,它支持了大多數的Spark功能,比如SparkDataFrame、Spark SQL、Streaming、MLlib等等。只要我們了解Python的基本語法,那么在Python里調用Spark的力量就顯得十分easy了。下面我將會從相對宏觀的層面介紹一下PySpark,讓我們對于這個神器有一個框架性的認識,知道它能干什么,知道去哪里尋找問題解答,爭取看完這篇文章可以讓我們更加絲滑地入門PySpark。話不多說,馬上開始!

???? 目錄

???? 安裝指引

安裝這塊本文就不展開具體的步驟了,畢竟大家的機子環境都不盡相同。不過可以簡單說幾點重要的步驟,然后節末放上一些安裝示例供大家參考。

1)要使用PySpark,機子上要有Java開發環境

2)環境變量記得要配置完整

3)Mac下的/usr/local/ 路徑一般是隱藏的,PyCharm配置py4j和pyspark的時候可以使用 shift+command+G 來使用路徑訪問。

4)Mac下如果修改了 ~/.bash_profile 的話,記得要重啟下PyCharm才會生效的哈

5)版本記得要搞對,保險起見Java的jdk版本選擇低版本(別問我為什么知道),我選擇的是Java8.

下面是一些示例demo,可以參考下:

1)Mac下安裝spark,并配置pycharm-pyspark完整教程

https://blog.csdn.net/shiyutianming/article/details/99946797

2)virtualBox里安裝開發環境

https://www.bilibili.com/video/BV1i4411i79a?p=3

3)快速搭建spark開發環境,云哥項目

https://github.com/lyhue1991/eat_pyspark_in_10_days

???? 基礎概念

關于Spark的基礎概念,我在先前的文章里也有寫過,大家可以一起來回顧一下 《想學習Spark?先帶你了解一些基礎的知識》。作為補充,今天在這里也介紹一些在Spark中會經常遇見的專有名詞。

?????♀? Q1: 什么是RDD

RDD的全稱是 Resilient Distributed Datasets,這是Spark的一種數據抽象集合,它可以被執行在分布式的集群上進行各種操作,而且有較強的容錯機制。RDD可以被分為若干個分區,每一個分區就是一個數據集片段,從而可以支持分布式計算。

?????♀? Q2: RDD運行時相關的關鍵名詞

簡單來說可以有 Client、Job、Master、Worker、Driver、Stage、Task以及Executor,這幾個東西在調優的時候也會經常遇到的。

Client:指的是客戶端進程,主要負責提交job到Master;

Job:Job來自于我們編寫的程序,Application包含一個或者多個job,job包含各種RDD操作;

Master:指的是Standalone模式中的主控節點,負責接收來自Client的job,并管理著worker,可以給worker分配任務和資源(主要是driver和executor資源);

Worker:指的是Standalone模式中的slave節點,負責管理本節點的資源,同時受Master管理,需要定期給Master回報heartbeat(心跳),啟動Driver和Executor;

Driver:指的是 job(作業)的主進程,一般每個Spark作業都會有一個Driver進程,負責整個作業的運行,包括了job的解析、Stage的生成、調度Task到Executor上去執行;

Stage:中文名 階段,是job的基本調度單位,因為每個job會分成若干組Task,每組任務就被稱為 Stage;

Task:任務,指的是直接運行在executor上的東西,是executor上的一個線程;

Executor:指的是 執行器,顧名思義就是真正執行任務的地方了,一個集群可以被配置若干個Executor,每個Executor接收來自Driver的Task,并執行它(可同時執行多個Task)。

?????♀? Q3: 什么是DAG

全稱是 Directed Acyclic Graph,中文名是有向無環圖。Spark就是借用了DAG對RDD之間的關系進行了建模,用來描述RDD之間的因果依賴關系。因為在一個Spark作業調度中,多個作業任務之間也是相互依賴的,有些任務需要在一些任務執行完成了才可以執行的。在Spark調度中就是有DAGscheduler,它負責將job分成若干組Task組成的Stage。


?????♀? Q4: Spark的部署模式有哪些

主要有local模式、Standalone模式、Mesos模式、YARN模式。

更多的解釋可以參考這位老哥的解釋。https://www.jianshu.com/p/3b8f85329664

?????♀? Q5: Shuffle操作是什么

Shuffle指的是數據從Map端到Reduce端的數據傳輸過程,Shuffle性能的高低直接會影響程序的性能。因為Reduce task需要跨節點去拉在分布在不同節點上的Map task計算結果,這一個過程是需要有磁盤IO消耗以及數據網絡傳輸的消耗的,所以需要根據實際數據情況進行適當調整。另外,Shuffle可以分為兩部分,分別是Map階段的數據準備與Reduce階段的數據拷貝處理,在Map端我們叫Shuffle Write,在Reduce端我們叫Shuffle Read。

?????♀? Q6: 什么是惰性執行

這是RDD的一個特性,在RDD中的算子可以分為Transform算子和Action算子,其中Transform算子的操作都不會真正執行,只會記錄一下依賴關系,直到遇見了Action算子,在這之前的所有Transform操作才會被觸發計算,這就是所謂的惰性執行。具體哪些是Transform和Action算子,可以看下一節。

???? 常用函數

從網友的總結來看比較常用的算子大概可以分為下面幾種,所以就演示一下這些算子,如果需要看更多的算子或者解釋,建議可以移步到官方API文檔去Search一下哈。

pyspark.RDD:http://spark.apache.org/docs/latest/api/python/reference/api/pyspark.RDD.html#pyspark.RDD

圖來自 edureka 的pyspark入門教程

下面我們用自己創建的RDD:sc.parallelize(range(1,11),4)

import?os import?pyspark from?pyspark?import?SparkContext,?SparkConfconf?=?SparkConf().setAppName("test_SamShare").setMaster("local[4]") sc?=?SparkContext(conf=conf)#?使用?parallelize方法直接實例化一個RDD rdd?=?sc.parallelize(range(1,11),4)?#?這里的?4?指的是分區數量 rdd.take(100) #?[1,?2,?3,?4,?5,?6,?7,?8,?9,?10]""" ----------------------------------------------Transform算子解析 ---------------------------------------------- """ #?以下的操作由于是Transform操作,因為我們需要在最后加上一個collect算子用來觸發計算。 #?1.?map:?和python差不多,map轉換就是對每一個元素進行一個映射 rdd?=?sc.parallelize(range(1,?11),?4) rdd_map?=?rdd.map(lambda?x:?x*2) print("原始數據:",?rdd.collect()) print("擴大2倍:",?rdd_map.collect()) #?原始數據:?[1, 2, 3, 4, 5, 6, 7, 8, 9, 10] #?擴大2倍:?[2, 4, 6, 8, 10, 12, 14, 16, 18, 20]#?2.?flatMap:?這個相比于map多一個flat(壓平)操作,顧名思義就是要把高維的數組變成一維 rdd2?=?sc.parallelize(["hello?SamShare",?"hello?PySpark"]) print("原始數據:",?rdd2.collect()) print("直接split之后的map結果:",?rdd2.map(lambda?x:?x.split("?")).collect()) print("直接split之后的flatMap結果:",?rdd2.flatMap(lambda?x:?x.split("?")).collect()) #?直接split之后的map結果:?[['hello', 'SamShare'], ['hello', 'PySpark']] #?直接split之后的flatMap結果:?['hello', 'SamShare', 'hello', 'PySpark']#?3.?filter:?過濾數據 rdd?=?sc.parallelize(range(1,?11),?4) print("原始數據:",?rdd.collect()) print("過濾奇數:",?rdd.filter(lambda?x:?x?%?2?==?0).collect()) #?原始數據:?[1, 2, 3, 4, 5, 6, 7, 8, 9, 10] #?過濾奇數:?[2, 4, 6, 8, 10]#?4.?distinct:?去重元素 rdd?=?sc.parallelize([2,?2,?4,?8,?8,?8,?8,?16,?32,?32]) print("原始數據:",?rdd.collect()) print("去重數據:",?rdd.distinct().collect()) #?原始數據:?[2, 2, 4, 8, 8, 8, 8, 16, 32, 32] #?去重數據:?[4, 8, 16, 32, 2]#?5.?reduceByKey:?根據key來映射數據 from?operator?import?add rdd?=?sc.parallelize([("a",?1),?("b",?1),?("a",?1)]) print("原始數據:",?rdd.collect()) print("原始數據:",?rdd.reduceByKey(add).collect()) #?原始數據:?[('a', 1), ('b', 1), ('a', 1)] #?原始數據:?[('b', 1), ('a', 2)]#?6.?mapPartitions:?根據分區內的數據進行映射操作 rdd?=?sc.parallelize([1,?2,?3,?4],?2) def?f(iterator):yield?sum(iterator) print(rdd.collect()) print(rdd.mapPartitions(f).collect()) #?[1,?2,?3,?4] #?[3,?7]#?7.?sortBy:?根據規則進行排序 tmp?=?[('a',?1),?('b',?2),?('1',?3),?('d',?4),?('2',?5)] print(sc.parallelize(tmp).sortBy(lambda?x:?x[0]).collect()) print(sc.parallelize(tmp).sortBy(lambda?x:?x[1]).collect()) #?[('1',?3),?('2',?5),?('a',?1),?('b',?2),?('d',?4)] #?[('a',?1),?('b',?2),?('1',?3),?('d',?4),?('2',?5)]#?8.?subtract:?數據集相減,?Return?each?value?in?self?that?is?not?contained?in?other. x?=?sc.parallelize([("a",?1),?("b",?4),?("b",?5),?("a",?3)]) y?=?sc.parallelize([("a",?3),?("c",?None)]) print(sorted(x.subtract(y).collect())) #?[('a',?1),?('b',?4),?('b',?5)]#?9.?union:?合并兩個RDD rdd?=?sc.parallelize([1,?1,?2,?3]) print(rdd.union(rdd).collect()) #?[1,?1,?2,?3,?1,?1,?2,?3]#?10.?interp:?取兩個RDD的交集,同時有去重的功效 rdd1?=?sc.parallelize([1,?10,?2,?3,?4,?5,?2,?3]) rdd2?=?sc.parallelize([1,?6,?2,?3,?7,?8]) print(rdd1.interp(rdd2).collect()) #?[1,?2,?3]#?11.?cartesian:?生成笛卡爾積 rdd?=?sc.parallelize([1,?2]) print(sorted(rdd.cartesian(rdd).collect())) #?[(1,?1),?(1,?2),?(2,?1),?(2,?2)]#?12.?zip:?拉鏈合并,需要兩個RDD具有相同的長度以及分區數量 x?=?sc.parallelize(range(0,?5)) y?=?sc.parallelize(range(1000,?1005)) print(x.collect()) print(y.collect()) print(x.zip(y).collect()) #?[0,?1,?2,?3,?4] #?[1000,?1001,?1002,?1003,?1004] #?[(0,?1000),?(1,?1001),?(2,?1002),?(3,?1003),?(4,?1004)]# 13. zipWithIndex:?將RDD和一個從0開始的遞增序列按照拉鏈方式連接。 rdd_name?=?sc.parallelize(["LiLei",?"Hanmeimei",?"Lily",?"Lucy",?"Ann",?"Dachui",?"RuHua"]) rdd_index?=?rdd_name.zipWithIndex() print(rdd_index.collect()) #?[('LiLei',?0),?('Hanmeimei',?1),?('Lily',?2),?('Lucy',?3),?('Ann',?4),?('Dachui',?5),?('RuHua',?6)]#?14.?groupByKey:?按照key來聚合數據 rdd?=?sc.parallelize([("a",?1),?("b",?1),?("a",?1)]) print(rdd.collect()) print(sorted(rdd.groupByKey().mapValues(len).collect())) print(sorted(rdd.groupByKey().mapValues(list).collect())) #?[('a',?1),?('b',?1),?('a',?1)] #?[('a',?2),?('b',?1)] #?[('a',?[1,?1]),?('b',?[1])]#?15.?sortByKey: tmp?=?[('a',?1),?('b',?2),?('1',?3),?('d',?4),?('2',?5)] print(sc.parallelize(tmp).sortByKey(True,?1).collect()) #?[('1',?3),?('2',?5),?('a',?1),?('b',?2),?('d',?4)]#?16.?join: x?=?sc.parallelize([("a",?1),?("b",?4)]) y?=?sc.parallelize([("a",?2),?("a",?3)]) print(sorted(x.join(y).collect())) #?[('a',?(1,?2)),?('a',?(1,?3))]#?17.?leftOuterJoin/rightOuterJoin x?=?sc.parallelize([("a",?1),?("b",?4)]) y?=?sc.parallelize([("a",?2)]) print(sorted(x.leftOuterJoin(y).collect())) #?[('a',?(1,?2)),?('b',?(4,?None))]""" ----------------------------------------------Action算子解析 ---------------------------------------------- """ #?1.?collect:?指的是把數據都匯集到driver端,便于后續的操作 rdd?=?sc.parallelize(range(0,?5)) rdd_collect?=?rdd.collect() print(rdd_collect) #?[0,?1,?2,?3,?4]#?2.?first:?取第一個元素 sc.parallelize([2,?3,?4]).first() #?2#?3.?collectAsMap:?轉換為dict,使用這個要注意了,不要對大數據用,不然全部載入到driver端會爆內存 m?=?sc.parallelize([(1,?2),?(3,?4)]).collectAsMap() m #?{1:?2,?3:?4}#?4.?reduce:?逐步對兩個元素進行操作 rdd?=?sc.parallelize(range(10),5) print(rdd.reduce(lambda?x,y:x+y)) #?45#?5.?countByKey/countByValue: rdd?=?sc.parallelize([("a",?1),?("b",?1),?("a",?1)]) print(sorted(rdd.countByKey().items())) print(sorted(rdd.countByValue().items())) #?[('a',?2),?('b',?1)] #?[(('a',?1),?2),?(('b',?1),?1)]#?6.?take:?相當于取幾個數據到driver端 rdd?=?sc.parallelize([("a",?1),?("b",?1),?("a",?1)]) print(rdd.take(5)) #?[('a',?1),?('b',?1),?('a',?1)]#?7.?saveAsTextFile:?保存rdd成text文件到本地 text_file?=?"./data/rdd.txt" rdd?=?sc.parallelize(range(5)) rdd.saveAsTextFile(text_file)#?8.?takeSample:?隨機取數 rdd?=?sc.textFile("./test/data/hello_samshare.txt",?4)??#?這里的?4?指的是分區數量 rdd_sample?=?rdd.takeSample(True,?2,?0)??# withReplacement 參數1:代表是否是有放回抽樣 rdd_sample#?9.?foreach:?對每一個元素執行某種操作,不生成新的RDD rdd?=?sc.parallelize(range(10),?5) accum?=?sc.accumulator(0) rdd.foreach(lambda?x:?accum.add(x)) print(accum.value) #?45

???? Spark SQL使用

在講Spark SQL前,先解釋下這個模塊。這個模塊是Spark中用來處理結構化數據的,提供一個叫SparkDataFrame的東西并且自動解析為分布式SQL查詢數據。我們之前用過Python的Pandas庫,也大致了解了DataFrame,這個其實和它沒有太大的區別,只是調用的API可能有些不同罷了。

我們通過使用Spark SQL來處理數據,會讓我們更加地熟悉,比如可以用SQL語句、用SparkDataFrame的API或者Datasets API,我們可以按照需求隨心轉換,通過SparkDataFrame API 和 SQL 寫的邏輯,會被Spark優化器Catalyst自動優化成RDD,即便寫得不好也可能運行得很快(如果是直接寫RDD可能就掛了哈哈)。

創建SparkDataFrame

開始講SparkDataFrame,我們先學習下幾種創建的方法,分別是使用RDD來創建、使用python的DataFrame來創建、使用List來創建、讀取數據文件來創建、通過讀取數據庫來創建。

1. 使用RDD來創建

主要使用RDD的toDF方法。

rdd?=?sc.parallelize([("Sam",?28,?88),?("Flora",?28,?90),?("Run",?1,?60)]) df?=?rdd.toDF(["name",?"age",?"score"]) df.show() df.printSchema()#?+-----+---+-----+ #?|?name|age|score| #?+-----+---+-----+ #?|??Sam|?28|???88| #?|Flora|?28|???90| #?|??Run|??1|???60| #?+-----+---+-----+ #?root #??|--?name:?string?(nullable?=?true) #??|--?age:?long?(nullable?=?true) #??|--?score:?long?(nullable?=?true)
2. 使用python的DataFrame來創建
df?=?pd.DataFrame([['Sam',?28,?88],?['Flora',?28,?90],?['Run',?1,?60]],columns=['name',?'age',?'score']) print(">>?打印DataFrame:") print(df) print("\n") Spark_df?=?spark.createDataFrame(df) print(">>?打印SparkDataFrame:") Spark_df.show() #?>>?打印DataFrame: #?????name??age??score #?0????Sam???28?????88 #?1??Flora???28?????90 #?2????Run????1?????60 #?>>?打印SparkDataFrame: #?+-----+---+-----+ #?|?name|age|score| #?+-----+---+-----+ #?|??Sam|?28|???88| #?|Flora|?28|???90| #?|??Run|??1|???60| #?+-----+---+-----+
3. 使用List來創建
list_values?=?[['Sam',?28,?88],?['Flora',?28,?90],?['Run',?1,?60]] Spark_df?=?spark.createDataFrame(list_values,?['name',?'age',?'score']) Spark_df.show() #?+-----+---+-----+ #?|?name|age|score| #?+-----+---+-----+ #?|??Sam|?28|???88| #?|Flora|?28|???90| #?|??Run|??1|???60| #?+-----+---+-----+
4. 讀取數據文件來創建
#?4.1?CSV文件 df?=?spark.read.option("header",?"true")\.option("inferSchema",?"true")\.option("delimiter",?",")\.csv("./test/data/titanic/train.csv") df.show(5) df.printSchema()#?4.2?json文件 df?=?spark.read.json("./test/data/hello_samshare.json") df.show(5) df.printSchema()
5. 通過讀取數據庫來創建
#?5.1?讀取hive數據 spark.sql("CREATE?TABLE?IF?NOT?EXISTS?src?(key?INT,?value?STRING)?USING?hive") spark.sql("LOAD?DATA?LOCAL?INPATH?'data/kv1.txt'?INTO?TABLE?src") df?=?spark.sql("SELECT?key,?value?FROM?src?WHERE?key?<?10?ORDER?BY?key") df.show(5)#?5.2?讀取mysql數據 url?=?"jdbc:mysql://localhost:3306/test" df?=?spark.read.format("jdbc")?\.option("url",?url)?\.option("dbtable",?"runoob_tbl")?\.option("user",?"root")?\.option("password",?"8888")?\.load()\ df.show()

常用的SparkDataFrame API

這里我大概是分成了幾部分來看這些APIs,分別是查看DataFrame的APIs、簡單處理DataFrame的APIs、DataFrame的列操作APIs、DataFrame的一些思路變換操作APIs、DataFrame的一些統計操作APIs,這樣子也有助于我們了解這些API的功能,以后遇見實際問題的時候可以解決。

首先我們這小節全局用到的數據集如下:

from?pyspark.sql?import?functions?as?F from?pyspark.sql?import?SparkSession # SparkSQL的許多功能封裝在SparkSession的方法接口中, SparkContext則不行的。 spark?=?SparkSession.builder?\.appName("sam_SamShare")?\.config("master",?"local[4]")?\.enableHiveSupport()?\.getOrCreate() sc?=?spark.sparkContext#?創建一個SparkDataFrame rdd?=?sc.parallelize([("Sam",?28,?88,?"M"),("Flora",?28,?90,?"F"),("Run",?1,?60,?None),("Peter",?55,?100,?"M"),("Mei",?54,?95,?"F")]) df?=?rdd.toDF(["name",?"age",?"score",?"sex"]) df.show() df.printSchema()#?+-----+---+-----+----+ #?|?name|age|score|?sex| #?+-----+---+-----+----+ #?|??Sam|?28|???88|???M| #?|Flora|?28|???90|???F| #?|??Run|??1|???60|null| #?|Peter|?55|??100|???M| #?|??Mei|?54|???95|???F| #?+-----+---+-----+----+ #?root #??|--?name:?string?(nullable?=?true) #??|--?age:?long?(nullable?=?true) #??|--?score:?long?(nullable?=?true) #??|--?sex:?string?(nullable?=?true)
1. 查看DataFrame的APIs
#?DataFrame.collect #?以列表形式返回行 df.collect() #?[Row(name='Sam',?age=28,?score=88,?sex='M'), #?Row(name='Flora',?age=28,?score=90,?sex='F'), #?Row(name='Run',?age=1,?score=60,?sex=None), #?Row(name='Peter',?age=55,?score=100,?sex='M'), #?Row(name='Mei',?age=54,?score=95,?sex='F')]#?DataFrame.count df.count() #?5#?DataFrame.columns df.columns #?['name',?'age',?'score',?'sex']#?DataFrame.dtypes df.dtypes #?[('name',?'string'),?('age',?'bigint'),?('score',?'bigint'),?('sex',?'string')]#?DataFrame.describe #?返回列的基礎統計信息 df.describe(['age']).show() #?+-------+------------------+ #?|summary|???????????????age| #?+-------+------------------+ #?|??count|?????????????????5| #?|???mean|??????????????33.2| #?|?stddev|22.353970564532826| #?|????min|?????????????????1| #?|????max|????????????????55| #?+-------+------------------+ df.describe().show() #?+-------+-----+------------------+------------------+----+ #?|summary|?name|???????????????age|?????????????score|?sex| #?+-------+-----+------------------+------------------+----+ #?|??count|????5|?????????????????5|?????????????????5|???4| #?|???mean|?null|??????????????33.2|??????????????86.6|null| #?|?stddev|?null|22.353970564532826|15.582040944625966|null| #?|????min|Flora|?????????????????1|????????????????60|???F| #?|????max|??Sam|????????????????55|???????????????100|???M| #?+-------+-----+------------------+------------------+----+#?DataFrame.select #?選定指定列并按照一定順序呈現 df.select("sex",?"score").show()#?DataFrame.first #?DataFrame.head #?查看第1條數據 df.first() #?Row(name='Sam',?age=28,?score=88,?sex='M') df.head(1) #?[Row(name='Sam',?age=28,?score=88,?sex='M')]#?DataFrame.freqItems #?查看指定列的枚舉值 df.freqItems(["age","sex"]).show() #?+---------------+-------------+ #?|??age_freqItems|sex_freqItems| #?+---------------+-------------+ #?|[55,?1,?28,?54]|??????[M,?F,]| #?+---------------+-------------+#?DataFrame.summary df.summary().show() #?+-------+-----+------------------+------------------+----+ #?|summary|?name|???????????????age|?????????????score|?sex| #?+-------+-----+------------------+------------------+----+ #?|??count|????5|?????????????????5|?????????????????5|???4| #?|???mean|?null|??????????????33.2|??????????????86.6|null| #?|?stddev|?null|22.353970564532826|15.582040944625966|null| #?|????min|Flora|?????????????????1|????????????????60|???F| #?|????25%|?null|????????????????28|????????????????88|null| #?|????50%|?null|????????????????28|????????????????90|null| #?|????75%|?null|????????????????54|????????????????95|null| #?|????max|??Sam|????????????????55|???????????????100|???M| #?+-------+-----+------------------+------------------+----+#?DataFrame.sample #?按照一定規則從df隨機抽樣數據 df.sample(0.5).show() #?+-----+---+-----+----+ #?|?name|age|score|?sex| #?+-----+---+-----+----+ #?|??Sam|?28|???88|???M| #?|??Run|??1|???60|null| #?|Peter|?55|??100|???M| #?+-----+---+-----+----+
2. 簡單處理DataFrame的APIs
#?DataFrame.distinct #?對數據集進行去重 df.distinct().show()#?DataFrame.dropDuplicates #?對指定列去重 df.dropDuplicates(["sex"]).show() #?+-----+---+-----+----+ #?|?name|age|score|?sex| #?+-----+---+-----+----+ #?|Flora|?28|???90|???F| #?|??Run|??1|???60|null| #?|??Sam|?28|???88|???M| #?+-----+---+-----+----+#?DataFrame.exceptAll #?DataFrame.subtract #?根據指定的df對df進行去重 df1?=?spark.createDataFrame([("a",?1),?("a",?1),?("b",??3),?("c",?4)],?["C1",?"C2"]) df2?=?spark.createDataFrame([("a",?1),?("b",?3)],?["C1",?"C2"]) df3?=?df1.exceptAll(df2)??#?沒有去重的功效 df4?=?df1.subtract(df2)??#?有去重的奇效 df1.show() df2.show() df3.show() df4.show() #?+---+---+ #?|?C1|?C2| #?+---+---+ #?|??a|??1| #?|??a|??1| #?|??b|??3| #?|??c|??4| #?+---+---+ #?+---+---+ #?|?C1|?C2| #?+---+---+ #?|??a|??1| #?|??b|??3| #?+---+---+ #?+---+---+ #?|?C1|?C2| #?+---+---+ #?|??a|??1| #?|??c|??4| #?+---+---+ #?+---+---+ #?|?C1|?C2| #?+---+---+ #?|??c|??4| #?+---+---+#?DataFrame.intersectAll #?返回兩個DataFrame的交集 df1?=?spark.createDataFrame([("a",?1),?("a",?1),?("b",??3),?("c",?4)],?["C1",?"C2"]) df2?=?spark.createDataFrame([("a",?1),?("b",?4)],?["C1",?"C2"]) df1.intersectAll(df2).show() #?+---+---+ #?|?C1|?C2| #?+---+---+ #?|??a|??1| #?+---+---+#?DataFrame.drop #?丟棄指定列 df.drop('age').show()#?DataFrame.withColumn #?新增列 df1?=?df.withColumn("birth_year",?2021?-?df.age) df1.show() #?+-----+---+-----+----+----------+ #?|?name|age|score|?sex|birth_year| #?+-----+---+-----+----+----------+ #?|??Sam|?28|???88|???M|??????1993| #?|Flora|?28|???90|???F|??????1993| #?|??Run|??1|???60|null|??????2020| #?|Peter|?55|??100|???M|??????1966| #?|??Mei|?54|???95|???F|??????1967| #?+-----+---+-----+----+----------+#?DataFrame.withColumnRenamed #?重命名列名 df1?=?df.withColumnRenamed("sex",?"gender") df1.show() #?+-----+---+-----+------+ #?|?name|age|score|gender| #?+-----+---+-----+------+ #?|??Sam|?28|???88|?????M| #?|Flora|?28|???90|?????F| #?|??Run|??1|???60|??null| #?|Peter|?55|??100|?????M| #?|??Mei|?54|???95|?????F| #?+-----+---+-----+------+#?DataFrame.dropna #?丟棄空值,DataFrame.dropna(how='any',?thresh=None,?subset=None) df.dropna(how='all',?subset=['sex']).show() #?+-----+---+-----+---+ #?|?name|age|score|sex| #?+-----+---+-----+---+ #?|??Sam|?28|???88|??M| #?|Flora|?28|???90|??F| #?|Peter|?55|??100|??M| #?|??Mei|?54|???95|??F| #?+-----+---+-----+---+#?DataFrame.fillna #?空值填充操作 df1?=?spark.createDataFrame([("a",?None),?("a",?1),?(None,??3),?("c",?4)],?["C1",?"C2"]) #?df2?=?df1.na.fill({"C1":?"d",?"C2":?99}) df2?=?df1.fillna({"C1":?"d",?"C2":?99}) df1.show() df2.show()#?DataFrame.filter #?根據條件過濾 df.filter(df.age>50).show() #?+-----+---+-----+---+ #?|?name|age|score|sex| #?+-----+---+-----+---+ #?|Peter|?55|??100|??M| #?|??Mei|?54|???95|??F| #?+-----+---+-----+---+ df.where(df.age==28).show() #?+-----+---+-----+---+ #?|?name|age|score|sex| #?+-----+---+-----+---+ #?|??Sam|?28|???88|??M| #?|Flora|?28|???90|??F| #?+-----+---+-----+---+ df.filter("age<18").show() #?+----+---+-----+----+ #?|name|age|score|?sex| #?+----+---+-----+----+ #?|?Run|??1|???60|null| #?+----+---+-----+----+#?DataFrame.join #?這個不用多解釋了,直接上案例來看看具體的語法即可,DataFrame.join(other,?on=None,?how=None) df1?=?spark.createDataFrame([("a",?1),?("d",?1),?("b",??3),?("c",?4)],?["id",?"num1"]) df2?=?spark.createDataFrame([("a",?1),?("b",?3)],?["id",?"num2"]) df1.join(df2,?df1.id?==?df2.id,?'left').select(df1.id.alias("df1_id"),df1.num1.alias("df1_num"),df2.num2.alias("df2_num")).sort(["df1_id"],?ascending=False)\.show()#?DataFrame.agg(*exprs) #?聚合數據,可以寫多個聚合方法,如果不寫groupBy的話就是對整個DF進行聚合 #?DataFrame.alias #?設置列或者DataFrame別名 #?DataFrame.groupBy #?根據某幾列進行聚合,如有多列用列表寫在一起,如?df.groupBy(["sex",?"age"]) df.groupBy("sex").agg(F.min(df.age).alias("最小年齡"),F.expr("avg(age)").alias("平均年齡"),F.expr("collect_list(name)").alias("姓名集合")).show() #?+----+--------+--------+------------+ #?|?sex|最小年齡|平均年齡|????姓名集合| #?+----+--------+--------+------------+ #?|???F|??????28|????41.0|[Flora,?Mei]| #?|null|???????1|?????1.0|???????[Run]| #?|???M|??????28|????41.5|[Sam,?Peter]| #?+----+--------+--------+------------+#?DataFrame.foreach #?對每一行進行函數方法的應用 def?f(person):print(person.name) df.foreach(f) #?Peter #?Run #?Sam #?Flora #?Mei#?DataFrame.replace #?修改df里的某些值 df1?=?df.na.replace({"M":?"Male",?"F":?"Female"}) df1.show()#?DataFrame.union #?相當于SQL里的union?all操作 df1?=?spark.createDataFrame([("a",?1),?("d",?1),?("b",??3),?("c",?4)],?["id",?"num"]) df2?=?spark.createDataFrame([("a",?1),?("b",?3)],?["id",?"num"]) df1.union(df2).show() df1.unionAll(df2).show() #?這里union沒有去重,不知道為啥,有知道的朋友麻煩解釋下,謝謝了。 #?+---+---+ #?|?id|num| #?+---+---+ #?|??a|??1| #?|??d|??1| #?|??b|??3| #?|??c|??4| #?|??a|??1| #?|??b|??3| #?+---+---+#?DataFrame.unionByName #?根據列名來進行合并數據集 df1?=?spark.createDataFrame([[1,?2,?3]],?["col0",?"col1",?"col2"]) df2?=?spark.createDataFrame([[4,?5,?6]],?["col1",?"col2",?"col0"]) df1.unionByName(df2).show() #?+----+----+----+ #?|col0|col1|col2| #?+----+----+----+ #?|???1|???2|???3| #?|???6|???4|???5| #?+----+----+----+
3. DataFrame的列操作APIs

這里主要針對的是列進行操作,比如說重命名、排序、空值判斷、類型判斷等,這里就不展開寫demo了,看看語法應該大家都懂了。

Column.alias(*alias,?**kwargs)??#?重命名列名 Column.asc()??#?按照列進行升序排序 Column.desc()??#?按照列進行降序排序 Column.astype(dataType)??#?類型轉換 Column.cast(dataType)??#?強制轉換類型 Column.between(lowerBound,?upperBound)??#?返回布爾值,是否在指定區間范圍內 Column.contains(other)??#?是否包含某個關鍵詞 Column.endswith(other)??#?以什么結束的值,如?df.filter(df.name.endswith('ice')).collect() Column.isNotNull()??#?篩選非空的行 Column.isNull() Column.isin(*cols)??#?返回包含某些值的行?df[df.name.isin("Bob",?"Mike")].collect() Column.like(other)??#?返回含有關鍵詞的行 Column.when(condition,?value)??#?給True的賦值 Column.otherwise(value)??#?與when搭配使用,df.select(df.name,?F.when(df.age?>?3,?1).otherwise(0)).show() Column.rlike(other)??#?可以使用正則的匹配?df.filter(df.name.rlike('ice$')).collect() Column.startswith(other)??#?df.filter(df.name.startswith('Al')).collect() Column.substr(startPos,?length)??#?df.select(df.name.substr(1,?3).alias("col")).collect()
4. DataFrame的一些思路變換操作APIs
#?DataFrame.createOrReplaceGlobalTempView #?DataFrame.dropGlobalTempView #?創建全局的試圖,注冊后可以使用sql語句來進行操作,生命周期取決于Spark?application本身 df.createOrReplaceGlobalTempView("people") spark.sql("select?*?from?global_temp.people?where?sex?=?'M'?").show() #?+-----+---+-----+---+ #?|?name|age|score|sex| #?+-----+---+-----+---+ #?|??Sam|?28|???88|??M| #?|Peter|?55|??100|??M| #?+-----+---+-----+---+#?DataFrame.createOrReplaceTempView #?DataFrame.dropTempView #?創建本地臨時試圖,生命周期取決于用來創建此數據集的SparkSession df.createOrReplaceTempView("tmp_people") spark.sql("select?*?from?tmp_people?where?sex?=?'F'?").show() #?+-----+---+-----+---+ #?|?name|age|score|sex| #?+-----+---+-----+---+ #?|Flora|?28|???90|??F| #?|??Mei|?54|???95|??F| #?+-----+---+-----+---+#?DataFrame.cache\DataFrame.persist #?可以把一些數據放入緩存中,default?storage?level?(MEMORY_AND_DISK). df.cache() df.persist() df.unpersist()#?DataFrame.crossJoin #?返回兩個DataFrame的笛卡爾積關聯的DataFrame df1?=?df.select("name",?"sex") df2?=?df.select("name",?"sex") df3?=?df1.crossJoin(df2) print("表1的記錄數",?df1.count()) print("表2的記錄數",?df2.count()) print("笛卡爾積后的記錄數",?df3.count()) #?表1的記錄數?5 #?表2的記錄數?5 #?笛卡爾積后的記錄數?25#?DataFrame.toPandas #?把SparkDataFrame轉為?Pandas的DataFrame df.toPandas()#?DataFrame.rdd #?把SparkDataFrame轉為rdd,這樣子可以用rdd的語法來操作數據 df.rdd
5. DataFrame的一些統計操作APIs
#?DataFrame.cov #?計算指定兩列的樣本協方差 df.cov("age",?"score") #?324.59999999999997#?DataFrame.corr #?計算指定兩列的相關系數,DataFrame.corr(col1,?col2,?method=None),目前method只支持Pearson相關系數 df.corr("age",?"score",?method="pearson") #?0.9319004030498815#?DataFrame.cube #?創建多維度聚合的結果,通常用于分析數據,比如我們指定兩個列進行聚合,比如name和age,那么這個函數返回的聚合結果會 #?groupby("name",?"age") #?groupby("name") #?groupby("age") #?groupby(all) #?四個聚合結果的union?all?的結果df1?=?df.filter(df.name?!=?"Run") print(df1.show()) df1.cube("name",?"sex").count().show() #?+-----+---+-----+---+ #?|?name|age|score|sex| #?+-----+---+-----+---+ #?|??Sam|?28|???88|??M| #?|Flora|?28|???90|??F| #?|Peter|?55|??100|??M| #?|??Mei|?54|???95|??F| #?+-----+---+-----+---+ #?cube?聚合之后的結果 #?+-----+----+-----+ #?|?name|?sex|count| #?+-----+----+-----+ #?|?null|???F|????2| #?|?null|null|????4| #?|Flora|null|????1| #?|Peter|null|????1| #?|?null|???M|????2| #?|Peter|???M|????1| #?|??Sam|???M|????1| #?|??Sam|null|????1| #?|??Mei|???F|????1| #?|??Mei|null|????1| #?|Flora|???F|????1| #?+-----+----+-----+

保存數據/寫入數據庫

這里的保存數據主要是保存到Hive中的栗子,主要包括了overwrite、append等方式。

1. 當結果集為SparkDataFrame的時候
import?pandas?as?pd from?datetime?import?datetime from?pyspark?import?SparkConf from?pyspark?import?SparkContext from?pyspark.sql?import?HiveContextconf?=?SparkConf()\.setAppName("test")\.set("hive.exec.dynamic.partition.mode",?"nonstrict")?#?動態寫入hive分區表 sc?=?SparkContext(conf=conf) hc?=?HiveContext(sc) sc.setLogLevel("ERROR")list_values?=?[['Sam',?28,?88],?['Flora',?28,?90],?['Run',?1,?60]] Spark_df?=?spark.createDataFrame(list_values,?['name',?'age',?'score']) print(Spark_df.show()) save_table?=?"tmp.samshare_pyspark_savedata"#?方式1:直接寫入到Hive Spark_df.write.format("hive").mode("overwrite").saveAsTable(save_table)?#?或者改成append模式 print(datetime.now().strftime("%y/%m/%d?%H:%M:%S"),?"測試數據寫入到表"?+?save_table)#?方式2:注冊為臨時表,使用SparkSQL來寫入分區表 Spark_df.createOrReplaceTempView("tmp_table") write_sql?=?""" insert?overwrite?table?{0}?partitions?(pt_date='{1}') select?*?from?tmp_table """.format(save_table,?"20210520") hc.sql(write_sql) print(datetime.now().strftime("%y/%m/%d?%H:%M:%S"),?"測試數據寫入到表"?+?save_table)
2. 當結果集為Python的DataFrame的時候

如果是Python的DataFrame,我們就需要多做一步把它轉換為SparkDataFrame,其余操作就一樣了。

import?pandas?as?pd from?datetime?import?datetime from?pyspark?import?SparkConf from?pyspark?import?SparkContext from?pyspark.sql?import?HiveContextconf?=?SparkConf()\.setAppName("test")\.set("hive.exec.dynamic.partition.mode",?"nonstrict")?#?動態寫入hive分區表 sc?=?SparkContext(conf=conf) hc?=?HiveContext(sc) sc.setLogLevel("ERROR")result_df?=?pd.DataFrame([1,2,3],?columns=['a']) save_table?=?"tmp.samshare_pyspark_savedata"#?獲取DataFrame的schema c1?=?list(result_df.columns) #?轉為SparkDataFrame result?=?hc.createDataFrame(result_df.astype(str),?c1) result.write.format("hive").mode("overwrite").saveAsTable(save_table)?#?或者改成append模式 print(datetime.now().strftime("%y/%m/%d?%H:%M:%S"),?"測試數據寫入到表"?+?save_table)

???? Spark調優思路

這一小節的內容算是對pyspark入門的一個ending了,全文主要是參考學習了美團Spark性能優化指南的基礎篇和高級篇內容,主體脈絡和這兩篇文章是一樣的,只不過是基于自己學習后的理解進行了一次總結復盤,而原文中主要是用Java來舉例的,我這邊主要用pyspark來舉例。文章主要會從4個方面(或者說4個思路)來優化我們的Spark任務,主要就是下面的圖片所示:

開發習慣調優

1. 盡可能復用同一個RDD,避免重復創建,并且適當持久化數據

這種開發習慣是需要我們對于即將要開發的應用邏輯有比較深刻的思考,并且可以通過code review來發現的,講白了就是要記得我們創建過啥數據集,可以復用的盡量廣播(broadcast)下,能很好提升性能。

#?最低級寫法,相同數據集重復創建。 rdd1?=?sc.textFile("./test/data/hello_samshare.txt",?4)?#?這里的?4?指的是分區數量 rdd2?=?sc.textFile("./test/data/hello_samshare.txt",?4)?#?這里的?4?指的是分區數量 print(rdd1.take(10)) print(rdd2.map(lambda?x:x[0:1]).take(10))#?稍微進階一些,復用相同數據集,但因中間結果沒有緩存,數據會重復計算 rdd1?=?sc.textFile("./test/data/hello_samshare.txt",?4)?#?這里的?4?指的是分區數量 print(rdd1.take(10)) print(rdd1.map(lambda?x:x[0:1]).take(10))#?相對比較高效,使用緩存來持久化數據 rdd?=?sc.parallelize(range(1,?11),?4).cache()??#?或者persist() rdd_map?=?rdd.map(lambda?x:?x*2) rdd_reduce?=?rdd.reduce(lambda?x,?y:?x+y) print(rdd_map.take(10)) print(rdd_reduce)

下面我們就來對比一下使用緩存能給我們的Spark程序帶來多大的效率提升吧,我們先構造一個程序運行時長測量器。

import?time #?統計程序運行時間 def?time_me(info="used"):def?_time_me(fn):@functools.wraps(fn)def?_wrapper(*args,?**kwargs):start?=?time.time()fn(*args,?**kwargs)print("%s?%s?%s"?%?(fn.__name__,?info,?time.time()?-?start),?"second")return?_wrapperreturn?_time_me

下面我們運行下面的代碼,看下使用了cache帶來的效率提升:

@time_me() def?test(types=0):if?types?==?1:print("使用持久化緩存")rdd?=?sc.parallelize(range(1,?10000000),?4)rdd1?=?rdd.map(lambda?x:?x*x?+?2*x?+?1).cache()??#?或者?persist(StorageLevel.MEMORY_AND_DISK_SER)print(rdd1.take(10))rdd2?=?rdd1.reduce(lambda?x,?y:?x+y)rdd3?=?rdd1.reduce(lambda?x,?y:?x?+?y)rdd4?=?rdd1.reduce(lambda?x,?y:?x?+?y)rdd5?=?rdd1.reduce(lambda?x,?y:?x?+?y)print(rdd5)else:print("不使用持久化緩存")rdd?=?sc.parallelize(range(1,?10000000),?4)rdd1?=?rdd.map(lambda?x:?x?*?x?+?2?*?x?+?1)print(rdd1.take(10))rdd2?=?rdd1.reduce(lambda?x,?y:?x?+?y)rdd3?=?rdd1.reduce(lambda?x,?y:?x?+?y)rdd4?=?rdd1.reduce(lambda?x,?y:?x?+?y)rdd5?=?rdd1.reduce(lambda?x,?y:?x?+?y)print(rdd5)test()???#?不使用持久化緩存 time.sleep(10) test(1)??#?使用持久化緩存 #?output: #?使用持久化緩存 #?[4,?9,?16,?25,?36,?49,?64,?81,?100,?121] #?333333383333334999999 #?test?used?26.36529278755188?second #?使用持久化緩存 #?[4,?9,?16,?25,?36,?49,?64,?81,?100,?121] #?333333383333334999999 #?test?used?17.49532413482666?second

同時我們打開YARN日志來看看:http://localhost:4040/jobs/

因為我們的代碼是需要重復調用RDD1的,當沒有對RDD1進行持久化的時候,每次當它被action算子消費了之后,就釋放了,等下一個算子計算的時候要用,就從頭開始計算一下RDD1。代碼中需要重復調用RDD1 五次,所以沒有緩存的話,差不多每次都要6秒,總共需要耗時26秒左右,但是,做了緩存,每次就只需要3s不到,總共需要耗時17秒左右。

另外,這里需要提及一下一個知識點,那就是持久化的級別,一般cache的話就是放入內存中,就沒有什么好說的,需要講一下的就是另外一個 persist(),它的持久化級別是可以被我們所配置的:

持久化級別含義解釋
MEMORY_ONLY將數據保存在內存中。如果內存不夠存放所有的數據,則數據可能就不會進行持久化。使用cache()方法時,實際就是使用的這種持久化策略,性能也是最高的。
MEMORY_AND_DISK優先嘗試將數據保存在內存中,如果內存不夠存放所有的數據,會將數據寫入磁盤文件中。
MEMORY_ONLY_SER基本含義同MEMORY_ONLY。唯一的區別是,會將RDD中的數據進行序列化,RDD的每個partition會被序列化成一個字節數組。這種方式更加節省內存,從而可以避免持久化的數據占用過多內存導致頻繁GC。
MEMORY_AND_DISK_SER基本含義同MEMORY_AND_DISK。唯一的區別是會先序列化,節約內存。
DISK_ONLY使用未序列化的Java對象格式,將數據全部寫入磁盤文件中。一般不推薦使用。
MEMORY_ONLY_2, MEMORY_AND_DISK_2, 等等.對于上述任意一種持久化策略,如果加上后綴_2,代表的是將每個持久化的數據,都復制一份副本,并將副本保存到其他節點上。這種基于副本的持久化機制主要用于進行容錯。假如某個節點掛掉,節點的內存或磁盤中的持久化數據丟失了,那么后續對RDD計算時還可以使用該數據在其他節點上的副本。如果沒有副本的話,就只能將這些數據從源頭處重新計算一遍了。一般也不推薦使用。

2. 盡量避免使用低性能算子

shuffle類算子算是低性能算子的一種代表,所謂的shuffle類算子,指的是會產生shuffle過程的操作,就是需要把各個節點上的相同key寫入到本地磁盤文件中,然后其他的節點通過網絡傳輸拉取自己需要的key,把相同key拉到同一個節點上進行聚合計算,這種操作必然就是有大量的數據網絡傳輸與磁盤讀寫操作,性能往往不是很好的。

那么,Spark中有哪些算子會產生shuffle過程呢?

操作類別shuffle類算子備注
分區操作repartition()、repartitionAndSortWithinPartitions()、coalesce(shuffle=true)重分區操作一般都會shuffle,因為需要對所有的分區數據進行打亂。
聚合操作reduceByKey、groupByKey、sortByKey需要對相同key進行操作,所以需要拉到同一個節點上。
關聯操作join類操作需要把相同key的數據shuffle到同一個節點然后進行笛卡爾積
去重操作distinct等需要對相同key進行操作,所以需要shuffle到同一個節點上。
排序操作sortByKey等需要對相同key進行操作,所以需要shuffle到同一個節點上。

這里進一步介紹一個替代join的方案,因為join其實在業務中還是蠻常見的。

#?原則2:盡量避免使用低性能算子 rdd1?=?sc.parallelize([('A1',?211),?('A1',?212),?('A2',?22),?('A4',?24),?('A5',?25)]) rdd2?=?sc.parallelize([('A1',?11),?('A2',?12),?('A3',?13),?('A4',?14)]) #?低效的寫法,也是傳統的寫法,直接join rdd_join?=?rdd1.join(rdd2) print(rdd_join.collect()) #?[('A4',?(24,?14)),?('A2',?(22,?12)),?('A1',?(211,?11)),?('A1',?(212,?11))] rdd_left_join?=?rdd1.leftOuterJoin(rdd2) print(rdd_left_join.collect()) #?[('A4',?(24,?14)),?('A2',?(22,?12)),?('A5',?(25,?None)),?('A1',?(211,?11)),?('A1',?(212,?11))] rdd_full_join?=?rdd1.fullOuterJoin(rdd2) print(rdd_full_join.collect()) #?[('A4',?(24,?14)),?('A3',?(None,?13)),?('A2',?(22,?12)),?('A5',?(25,?None)),?('A1',?(211,?11)),?('A1',?(212,?11))]#?高效的寫法,使用廣播+map來實現相同效果 #?tips1:?這里需要注意的是,用來broadcast的RDD不可以太大,最好不要超過1G #?tips2:?這里需要注意的是,用來broadcast的RDD不可以有重復的key的 rdd1?=?sc.parallelize([('A1',?11),?('A2',?12),?('A3',?13),?('A4',?14)]) rdd2?=?sc.parallelize([('A1',?211),?('A1',?212),?('A2',?22),?('A4',?24),?('A5',?25)])# step1:?先將小表進行廣播,也就是collect到driver端,然后廣播到每個Executor中去。 rdd_small_bc?=?sc.broadcast(rdd1.collect())# step2:從Executor中獲取存入字典便于后續map操作 rdd_small_dict?=?dict(rdd_small_bc.value)# step3:定義join方法 def?broadcast_join(line,?rdd_small_dict,?join_type):k?=?line[0]v?=?line[1]small_table_v?=?rdd_small_dict[k]?if?k?in?rdd_small_dict?else?Noneif?join_type?==?'join':return?(k,?(v,?small_table_v))?if?k?in?rdd_small_dict?else?Noneelif?join_type?==?'left_join':return?(k,?(v,?small_table_v?if?small_table_v?is?not?None?else?None))else:print("not?support?join?type!")# step4:使用 map 實現?兩個表join的功能 rdd_join?=?rdd2.map(lambda?line:?broadcast_join(line,?rdd_small_dict,?"join")).filter(lambda?line:?line?is?not?None) rdd_left_join?=?rdd2.map(lambda?line:?broadcast_join(line,?rdd_small_dict,?"left_join")).filter(lambda?line:?line?is?not?None) print(rdd_join.collect()) print(rdd_left_join.collect()) #?[('A1',?(211,?11)),?('A1',?(212,?11)),?('A2',?(22,?12)),?('A4',?(24,?14))] #?[('A1',?(211,?11)),?('A1',?(212,?11)),?('A2',?(22,?12)),?('A4',?(24,?14)),?('A5',?(25,?None))]

上面的RDD join被改寫為 broadcast+map的PySpark版本實現,不過里面有兩個點需要注意:

  • tips1: 用來broadcast的RDD不可以太大,最好不要超過1G

  • tips2: 用來broadcast的RDD不可以有重復的key

3. 盡量使用高性能算子

上一節講到了低效算法,自然地就會有一些高效的算子。

原算子高效算子(替換算子)說明
mapmapPartitions直接map的話,每次只會處理一條數據,而mapPartitions則是每次處理一個分區的數據,在某些場景下相對比較高效。(分區數據量不大的情況下使用,如果有數據傾斜的話容易發生OOM)
groupByKeyreduceByKey/aggregateByKey這類算子會在原節點先map-side預聚合,相對高效些。
foreachforeachPartitions同第一條記錄一樣。
filterfilter+coalesce當我們對數據進行filter之后,有很多partition的數據會劇減,然后直接進行下一步操作的話,可能就partition數量很多但處理的數據又很少,task數量沒有減少,反而整體速度很慢;但如果執行了coalesce算子,就會減少一些partition數量,把數據都相對壓縮到一起,用更少的task處理完全部數據,一定場景下還是可以達到整體性能的提升。
repartition+sortrepartitionAndSortWithinPartitions直接用就是了。

4. 廣播大變量

如果我們有一個數據集很大,并且在后續的算子執行中會被反復調用,那么就建議直接把它廣播(broadcast)一下。當變量被廣播后,會保證每個executor的內存中只會保留一份副本,同個executor內的task都可以共享這個副本數據。如果沒有廣播,常規過程就是把大變量進行網絡傳輸到每一個相關task中去,這樣子做,一來頻繁的網絡數據傳輸,效率極其低下;二來executor下的task不斷存儲同一份大數據,很有可能就造成了內存溢出或者頻繁GC,效率也是極其低下的。

#?原則4:廣播大變量 rdd1?=?sc.parallelize([('A1',?11),?('A2',?12),?('A3',?13),?('A4',?14)]) rdd1_broadcast?=?sc.broadcast(rdd1.collect()) print(rdd1.collect()) print(rdd1_broadcast.value) #?[('A1',?11),?('A2',?12),?('A3',?13),?('A4',?14)] #?[('A1',?11),?('A2',?12),?('A3',?13),?('A4',?14)]

資源參數調優

如果要進行資源調優,我們就必須先知道Spark運行的機制與流程。

下面我們就來講解一些常用的Spark資源配置的參數吧,了解其參數原理便于我們依據實際的數據情況進行配置。

1)num-executors

指的是執行器的數量,數量的多少代表了并行的stage數量(假如executor是單核的話),但也并不是越多越快,受你集群資源的限制,所以一般設置50-100左右吧。

2)executor-memory

這里指的是每一個執行器的內存大小,內存越大當然對于程序運行是很好的了,但是也不是無節制地大下去,同樣受我們集群資源的限制。假設我們集群資源為500core,一般1core配置4G內存,所以集群最大的內存資源只有2000G左右。num-executors x executor-memory 是不能超過2000G的,但是也不要太接近這個值,不然的話集群其他同事就沒法正常跑數據了,一般我們設置4G-8G。

3)executor-cores

這里設置的是executor的CPU core數量,決定了executor進程并行處理task的能力。

4)driver-memory

設置driver的內存,一般設置2G就好了。但如果想要做一些Python的DataFrame操作可以適當地把這個值設大一些。

5)driver-cores

與executor-cores類似的功能。

6)spark.default.parallelism

設置每個stage的task數量。一般Spark任務我們設置task數量在500-1000左右比較合適,如果不去設置的話,Spark會根據底層HDFS的block數量來自行設置task數量。有的時候會設置得偏少,這樣子程序就會跑得很慢,即便你設置了很多的executor,但也沒有用。

下面說一個基本的參數設置的shell腳本,一般我們都是通過一個shell腳本來設置資源參數配置,接著就去調用我們的主函數。

#!/bin/bash basePath=$(cd?"$(dirname?)"$(cd?"$(dirname?"$0"):?pwd)")":?pwd)spark-submit?\--master?yarn?\--queue?samshare?\--deploy-mode?client?\--num-executors?100?\--executor-memory?4G?\--executor-cores?4?\--driver-memory?2G?\--driver-cores?2?\--conf?spark.default.parallelism=1000?\--conf?spark.yarn.executor.memoryOverhead=8G?\--conf?spark.sql.shuffle.partitions=1000?\--conf?spark.network.timeout=1200?\--conf?spark.python.worker.memory=64m?\--conf?spark.sql.catalogImplementation=hive?\--conf?spark.sql.crossJoin.enabled=True?\--conf?spark.dynamicAllocation.enabled=True?\--conf?spark.shuffle.service.enabled=True?\--conf?spark.scheduler.listenerbus.eventqueue.size=100000?\--conf?spark.pyspark.driver.python=python3?\--conf?spark.pyspark.python=python3?\--conf?spark.yarn.appMasterEnv.PYSPARK_PYTHON=python3?\--conf?spark.sql.pivotMaxValues=500000?\--conf?spark.hadoop.hive.exec.dynamic.partition=True?\--conf?spark.hadoop.hive.exec.dynamic.partition.mode=nonstrict?\--conf?spark.hadoop.hive.exec.max.dynamic.partitions.pernode=100000?\--conf?spark.hadoop.hive.exec.max.dynamic.partitions=100000?\--conf?spark.hadoop.hive.exec.max.created.files=100000?\${bashPath}/project_name/main.py?$v_var1?$v_var2

數據傾斜調優

相信我們對于數據傾斜并不陌生了,很多時間數據跑不出來有很大的概率就是出現了數據傾斜,在Spark開發中無法避免的也會遇到這類問題,而這不是一個嶄新的問題,成熟的解決方案也是有蠻多的,今天來簡單介紹一些比較常用并且有效的方案。

首先我們要知道,在Spark中比較容易出現傾斜的操作,主要集中在distinct、groupByKey、reduceByKey、aggregateByKey、join、repartition等,可以優先看這些操作的前后代碼。而為什么使用了這些操作就容易導致數據傾斜呢?大多數情況就是進行操作的key分布不均,然后使得大量的數據集中在同一個處理節點上,從而發生了數據傾斜。

查看Key 分布
#?針對Spark?SQL hc.sql("select?key,?count(0)?nums?from?table_name?group?by?key")#?針對RDD RDD.countByKey()
Plan A: 過濾掉導致傾斜的key

這個方案并不是所有場景都可以使用的,需要結合業務邏輯來分析這個key到底還需要不需要,大多數情況可能就是一些異常值或者空串,這種就直接進行過濾就好了。

Plan B: 提前處理聚合

如果有些Spark應用場景需要頻繁聚合數據,而數據key又少的,那么我們可以把這些存量數據先用hive算好(每天算一次),然后落到中間表,后續Spark應用直接用聚合好的表+新的數據進行二度聚合,效率會有很高的提升。

Plan C: 調高shuffle并行度
#?針對Spark?SQL? --conf?spark.sql.shuffle.partitions=1000??#?在配置信息中設置參數 #?針對RDD rdd.reduceByKey(1000)?#?默認是200
Plan D: 分配隨機數再聚合

大概的思路就是對一些大量出現的key,人工打散,從而可以利用多個task來增加任務并行度,以達到效率提升的目的,下面是代碼demo,分別從RDD 和 SparkSQL來實現。

#?Way1:?PySpark?RDD實現 import?pyspark from?pyspark?import?SparkContext,?SparkConf,?HiveContext from?random?import?randint import?pandas?as?pd# SparkSQL的許多功能封裝在SparkSession的方法接口中, SparkContext則不行的。 from?pyspark.sql?import?SparkSession spark?=?SparkSession.builder?\.appName("sam_SamShare")?\.config("master",?"local[4]")?\.enableHiveSupport()?\.getOrCreate()conf?=?SparkConf().setAppName("test_SamShare").setMaster("local[4]") sc?=?SparkContext(conf=conf) hc?=?HiveContext(sc)#?分配隨機數再聚合 rdd1?=?sc.parallelize([('sam',?1),?('sam',?1),?('sam',?1),?('sam',?1),?('sam',?1),?('sam',?1)])#?給key分配隨機數后綴 rdd2?=?rdd1.map(lambda?x:?(x[0]?+?"_"?+?str(randint(1,5)),?x[1])) print(rdd.take(10)) #?[('sam_5',?1),?('sam_5',?1),?('sam_3',?1),?('sam_5',?1),?('sam_5',?1),?('sam_3',?1)]#?局部聚合 rdd3?=?rdd2.reduceByKey(lambda?x,y?:?(x+y)) print(rdd3.take(10)) #?[('sam_5',?4),?('sam_3',?2)]#?去除后綴 rdd4?=?rdd3.map(lambda?x:?(x[0][:-2],?x[1])) print(rdd4.take(10)) #?[('sam',?4),?('sam',?2)]#?全局聚合 rdd5?=?rdd4.reduceByKey(lambda?x,y?:?(x+y)) print(rdd5.take(10)) #?[('sam',?6)]#?Way2:?PySpark?SparkSQL實現 df?=?pd.DataFrame(5*[['Sam',?1],['Flora',?1]],columns=['name',?'nums']) Spark_df?=?spark.createDataFrame(df) print(Spark_df.show(10))Spark_df.createOrReplaceTempView("tmp_table")?#?注冊為視圖供SparkSQl使用sql?=?""" with?t1?as?(select?concat(name,"_",int(10*rand()))?as?new_name,?name,?numsfrom?tmp_table ), t2?as?(select?new_name,?sum(nums)?as?nfrom?t1group?by?new_name ), t3?as?(select?substr(new_name,0,length(new_name)?-2)?as?name,?sum(n)?as?nums_sum?from?t2group?by?substr(new_name,0,length(new_name)?-2) ) select?* from?t3 """ tt?=?hc.sql(sql).toPandas() tt

下面是原理圖。

全文終!

往期精彩回顧適合初學者入門人工智能的路線及資料下載機器學習及深度學習筆記等資料打印機器學習在線手冊深度學習筆記專輯《統計學習方法》的代碼復現專輯 AI基礎下載機器學習的數學基礎專輯黃海廣老師《機器學習課程》視頻課 本站qq群851320808,加入微信群請掃碼: 與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的【机器学习】3万字长文,PySpark入门级学习教程,框架思维的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

国产精品二区一区二区aⅴ污介绍 | 正在播放东北夫妻内射 | 精品一区二区不卡无码av | 99久久无码一区人妻 | 日韩精品a片一区二区三区妖精 | 久久亚洲精品中文字幕无男同 | 玩弄人妻少妇500系列视频 | 午夜免费福利小电影 | 亚洲综合另类小说色区 | 中文无码成人免费视频在线观看 | 亚洲人成影院在线观看 | 国产精品久久久久无码av色戒 | 欧美 日韩 人妻 高清 中文 | 欧美第一黄网免费网站 | 无码午夜成人1000部免费视频 | 风流少妇按摩来高潮 | 亚洲春色在线视频 | 国产色视频一区二区三区 | 丰满岳乱妇在线观看中字无码 | yw尤物av无码国产在线观看 | 无码一区二区三区在线 | 在线a亚洲视频播放在线观看 | 国产精品亚洲五月天高清 | 成 人 网 站国产免费观看 | 国产亚洲人成a在线v网站 | 无码免费一区二区三区 | 国产激情无码一区二区 | 欧美freesex黑人又粗又大 | 日韩精品乱码av一区二区 | 丰满少妇高潮惨叫视频 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 中文字幕+乱码+中文字幕一区 | 亚洲а∨天堂久久精品2021 | 久久精品国产精品国产精品污 | 欧美怡红院免费全部视频 | 乌克兰少妇性做爰 | 亚洲啪av永久无码精品放毛片 | 人妻有码中文字幕在线 | 人妻少妇被猛烈进入中文字幕 | 国产午夜无码精品免费看 | 国产成人无码午夜视频在线观看 | 国产av人人夜夜澡人人爽麻豆 | 最近免费中文字幕中文高清百度 | 国产精品成人av在线观看 | 台湾无码一区二区 | 国产一精品一av一免费 | 日韩av无码一区二区三区不卡 | 国产真人无遮挡作爱免费视频 | 久久久久99精品国产片 | 亚洲毛片av日韩av无码 | 久久久久久a亚洲欧洲av冫 | 久久亚洲中文字幕无码 | 伊在人天堂亚洲香蕉精品区 | 久久久精品成人免费观看 | 亚洲娇小与黑人巨大交 | 日本熟妇人妻xxxxx人hd | 丝袜足控一区二区三区 | 无码人妻精品一区二区三区下载 | 5858s亚洲色大成网站www | 国产又粗又硬又大爽黄老大爷视 | 十八禁视频网站在线观看 | 成人片黄网站色大片免费观看 | 影音先锋中文字幕无码 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 老子影院午夜伦不卡 | 色噜噜亚洲男人的天堂 | 国产精品久久久久久久影院 | 国产真实夫妇视频 | 18无码粉嫩小泬无套在线观看 | 日日橹狠狠爱欧美视频 | 无套内谢老熟女 | 国产97色在线 | 免 | 国产无遮挡又黄又爽又色 | 亚洲一区二区三区四区 | 国产麻豆精品一区二区三区v视界 | 国产两女互慰高潮视频在线观看 | 国产午夜无码精品免费看 | 亚洲日本一区二区三区在线 | 中文字幕中文有码在线 | 精品无人区无码乱码毛片国产 | 乱中年女人伦av三区 | 无码av免费一区二区三区试看 | 天堂无码人妻精品一区二区三区 | 伊人久久大香线蕉av一区二区 | 伊人色综合久久天天小片 | 国产热a欧美热a在线视频 | 99久久久国产精品无码免费 | 精品无码国产自产拍在线观看蜜 | 成年女人永久免费看片 | 日本爽爽爽爽爽爽在线观看免 | 特级做a爰片毛片免费69 | 亚洲欧美日韩成人高清在线一区 | 国产欧美精品一区二区三区 | 日本乱人伦片中文三区 | 国内精品久久久久久中文字幕 | 九一九色国产 | 色综合久久久无码网中文 | 97无码免费人妻超级碰碰夜夜 | 骚片av蜜桃精品一区 | 装睡被陌生人摸出水好爽 | 人妻体内射精一区二区三四 | 2020久久超碰国产精品最新 | 亚洲国产精品无码久久久久高潮 | 在线天堂新版最新版在线8 | 久久精品99久久香蕉国产色戒 | 初尝人妻少妇中文字幕 | 久久久精品成人免费观看 | 中国女人内谢69xxxxxa片 | 亚洲综合在线一区二区三区 | 国产精品久久久 | 久久久久国色av免费观看性色 | 亚洲熟女一区二区三区 | 精品欧洲av无码一区二区三区 | 呦交小u女精品视频 | 18禁止看的免费污网站 | 国产成人综合美国十次 | 性生交大片免费看女人按摩摩 | 六月丁香婷婷色狠狠久久 | 老熟妇仑乱视频一区二区 | 精品无码av一区二区三区 | 又紧又大又爽精品一区二区 | 清纯唯美经典一区二区 | 成人无码精品一区二区三区 | 国产精品久久久久影院嫩草 | 国产99久久精品一区二区 | 国产精品第一国产精品 | 鲁一鲁av2019在线 | 国产女主播喷水视频在线观看 | 成人动漫在线观看 | 在线播放无码字幕亚洲 | 国语精品一区二区三区 | 久久国产精品偷任你爽任你 | 欧美色就是色 | 久久天天躁狠狠躁夜夜免费观看 | 美女黄网站人色视频免费国产 | 亚洲国产一区二区三区在线观看 | 双乳奶水饱满少妇呻吟 | 亲嘴扒胸摸屁股激烈网站 | 午夜理论片yy44880影院 | 日韩视频 中文字幕 视频一区 | 无码一区二区三区在线 | 国产情侣作爱视频免费观看 | 久久99精品国产麻豆蜜芽 | 国产精品亚洲一区二区三区喷水 | 无码精品国产va在线观看dvd | 久久97精品久久久久久久不卡 | 免费播放一区二区三区 | 中文字幕无线码免费人妻 | 亚洲男人av香蕉爽爽爽爽 | 亚洲娇小与黑人巨大交 | 黑人粗大猛烈进出高潮视频 | 国产亚洲人成a在线v网站 | 精品无码国产一区二区三区av | 久久综合九色综合欧美狠狠 | 国产亚洲欧美日韩亚洲中文色 | 一二三四社区在线中文视频 | 18禁黄网站男男禁片免费观看 | 国产熟妇高潮叫床视频播放 | av在线亚洲欧洲日产一区二区 | 欧美高清在线精品一区 | 亚洲国产精品无码一区二区三区 | 亚洲成a人片在线观看无码3d | 一本久道高清无码视频 | 久久久久久久久蜜桃 | 国产三级精品三级男人的天堂 | 亚欧洲精品在线视频免费观看 | 亚欧洲精品在线视频免费观看 | 大肉大捧一进一出视频出来呀 | 狠狠色噜噜狠狠狠狠7777米奇 | 日韩人妻无码一区二区三区久久99 | 亚洲精品国产品国语在线观看 | 亚洲欧美日韩综合久久久 | 国产片av国语在线观看 | 中文无码伦av中文字幕 | 欧美激情内射喷水高潮 | 国内少妇偷人精品视频 | 国产精品无码mv在线观看 | 亲嘴扒胸摸屁股激烈网站 | 国产精品久久久久久亚洲影视内衣 | 色窝窝无码一区二区三区色欲 | 国产肉丝袜在线观看 | 欧美日本精品一区二区三区 | 欧美猛少妇色xxxxx | 免费国产成人高清在线观看网站 | 人妻少妇精品无码专区动漫 | 帮老师解开蕾丝奶罩吸乳网站 | 四虎4hu永久免费 | 国产精品视频免费播放 | 亚洲国产欧美日韩精品一区二区三区 | 黑人粗大猛烈进出高潮视频 | av在线亚洲欧洲日产一区二区 | 久久亚洲精品成人无码 | 色欲综合久久中文字幕网 | 国产成人无码av在线影院 | 欧美黑人巨大xxxxx | 国产情侣作爱视频免费观看 | 欧美人与禽猛交狂配 | 中文字幕无码免费久久9一区9 | 国产精品亚洲一区二区三区喷水 | 色诱久久久久综合网ywww | 亚洲欧洲日本综合aⅴ在线 | 一个人看的www免费视频在线观看 | 久久亚洲日韩精品一区二区三区 | 亚洲热妇无码av在线播放 | 67194成是人免费无码 | 中国女人内谢69xxxx | a在线亚洲男人的天堂 | 亚洲国产精品一区二区第一页 | 日韩少妇白浆无码系列 | 中文字幕色婷婷在线视频 | 国产人妻精品一区二区三区不卡 | 成人欧美一区二区三区 | 久久zyz资源站无码中文动漫 | 精品少妇爆乳无码av无码专区 | 国产成人无码av片在线观看不卡 | 国产成人无码av一区二区 | 人妻无码αv中文字幕久久琪琪布 | 国产成人综合在线女婷五月99播放 | 国内老熟妇对白xxxxhd | 国产精品理论片在线观看 | 无码av中文字幕免费放 | 成年女人永久免费看片 | 丰满诱人的人妻3 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 大肉大捧一进一出好爽视频 | 最新国产乱人伦偷精品免费网站 | 国产麻豆精品一区二区三区v视界 | 精品国精品国产自在久国产87 | 日日碰狠狠丁香久燥 | 国产av人人夜夜澡人人爽麻豆 | 激情综合激情五月俺也去 | 国产 浪潮av性色四虎 | 噜噜噜亚洲色成人网站 | av无码久久久久不卡免费网站 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲成在人网站无码天堂 | 日产精品99久久久久久 | 大色综合色综合网站 | 久久久精品成人免费观看 | 精品国精品国产自在久国产87 | 97夜夜澡人人双人人人喊 | 日韩欧美中文字幕在线三区 | 欧美熟妇另类久久久久久多毛 | а天堂中文在线官网 | 福利一区二区三区视频在线观看 | 亚洲中文字幕乱码av波多ji | 亚洲国产精品一区二区美利坚 | 给我免费的视频在线观看 | 久久久精品国产sm最大网站 | 国产麻豆精品精东影业av网站 | 无人区乱码一区二区三区 | 乱人伦人妻中文字幕无码 | 国产无遮挡吃胸膜奶免费看 | 丰满肥臀大屁股熟妇激情视频 | 荫蒂添的好舒服视频囗交 | 国产无av码在线观看 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久久综合久久自在自线精品自 | 波多野结衣av一区二区全免费观看 | 97精品人妻一区二区三区香蕉 | 99久久人妻精品免费一区 | 国产亚av手机在线观看 | 亚洲va欧美va天堂v国产综合 | 亚洲国产高清在线观看视频 | 国产精品99爱免费视频 | 中文字幕无码人妻少妇免费 | 久久久成人毛片无码 | 国产亚洲美女精品久久久2020 | 亚洲精品成人福利网站 | 精品乱码久久久久久久 | 亚洲一区二区三区含羞草 | 国产 浪潮av性色四虎 | 亚洲精品一区二区三区在线 | 欧美成人免费全部网站 | 国产精品亚洲五月天高清 | 国产真实乱对白精彩久久 | 成人免费视频视频在线观看 免费 | 国产又粗又硬又大爽黄老大爷视 | 国产精品亚洲专区无码不卡 | 亚洲精品一区国产 | 久久99精品久久久久久动态图 | 扒开双腿疯狂进出爽爽爽视频 | а√资源新版在线天堂 | 强开小婷嫩苞又嫩又紧视频 | 无码国产乱人伦偷精品视频 | 亚洲の无码国产の无码影院 | 亚洲中文字幕乱码av波多ji | 成人无码视频在线观看网站 | 少妇无码吹潮 | 正在播放老肥熟妇露脸 | 超碰97人人做人人爱少妇 | 中文字幕av伊人av无码av | 亚洲熟女一区二区三区 | 日本精品少妇一区二区三区 | 亚洲成a人一区二区三区 | 一区二区三区高清视频一 | 成人女人看片免费视频放人 | 日韩少妇内射免费播放 | 无码人妻丰满熟妇区五十路百度 | 午夜福利不卡在线视频 | 国产精品自产拍在线观看 | 亚洲国产精品美女久久久久 | 精品国产国产综合精品 | 国产av久久久久精东av | 欧美高清在线精品一区 | 中文字幕乱妇无码av在线 | 扒开双腿疯狂进出爽爽爽视频 | 色婷婷久久一区二区三区麻豆 | 亚洲国产欧美在线成人 | 曰韩无码二三区中文字幕 | 丰满妇女强制高潮18xxxx | 丰腴饱满的极品熟妇 | 乱人伦中文视频在线观看 | 丰满肥臀大屁股熟妇激情视频 | 日韩精品乱码av一区二区 | 亚洲精品国偷拍自产在线麻豆 | 免费无码午夜福利片69 | 成人无码影片精品久久久 | 欧美色就是色 | 色一情一乱一伦一视频免费看 | 国精产品一品二品国精品69xx | 人妻体内射精一区二区三四 | 国产精品久久福利网站 | 狠狠色噜噜狠狠狠7777奇米 | 丰满少妇高潮惨叫视频 | 国产精品怡红院永久免费 | 麻豆md0077饥渴少妇 | 成人欧美一区二区三区 | 精品日本一区二区三区在线观看 | 国产精品.xx视频.xxtv | 精品偷拍一区二区三区在线看 | 国产精品久久久久9999小说 | 国产精品久免费的黄网站 | 欧美人与物videos另类 | 久久国产劲爆∧v内射 | 丁香啪啪综合成人亚洲 | 初尝人妻少妇中文字幕 | 骚片av蜜桃精品一区 | 欧洲熟妇精品视频 | 亚洲熟妇色xxxxx欧美老妇y | 精品国产一区二区三区av 性色 | 中文字幕无码免费久久9一区9 | 亚洲另类伦春色综合小说 | 又色又爽又黄的美女裸体网站 | 成人aaa片一区国产精品 | 少妇愉情理伦片bd | a在线观看免费网站大全 | 国产激情艳情在线看视频 | 无遮挡啪啪摇乳动态图 | 中文字幕无码热在线视频 | 久久人妻内射无码一区三区 | 国产成人无码午夜视频在线观看 | www成人国产高清内射 | 精品人妻人人做人人爽 | 日韩欧美中文字幕公布 | 精品国产国产综合精品 | 久久久久99精品成人片 | 国产亚洲欧美日韩亚洲中文色 | 蜜桃av抽搐高潮一区二区 | 久久精品国产精品国产精品污 | 女人高潮内射99精品 | 日本一卡2卡3卡四卡精品网站 | 亚洲爆乳大丰满无码专区 | 日韩在线不卡免费视频一区 | 欧美 日韩 人妻 高清 中文 | 国产两女互慰高潮视频在线观看 | 国产av无码专区亚洲awww | 日韩精品无码一本二本三本色 | 国产精品va在线播放 | 亚洲乱码日产精品bd | 国产内射爽爽大片视频社区在线 | 奇米影视888欧美在线观看 | 乱码av麻豆丝袜熟女系列 | 久久精品99久久香蕉国产色戒 | 综合激情五月综合激情五月激情1 | 国产无套内射久久久国产 | 国产女主播喷水视频在线观看 | 亚洲色欲色欲天天天www | 亚洲乱亚洲乱妇50p | 日韩精品乱码av一区二区 | 亚洲中文字幕在线观看 | 国产艳妇av在线观看果冻传媒 | 男人扒开女人内裤强吻桶进去 | 日本爽爽爽爽爽爽在线观看免 | 亚洲成a人片在线观看无码3d | 亚洲成av人片在线观看无码不卡 | 国产9 9在线 | 中文 | 18禁止看的免费污网站 | 99久久亚洲精品无码毛片 | 亚洲午夜久久久影院 | 久久国产劲爆∧v内射 | 六月丁香婷婷色狠狠久久 | 天堂在线观看www | 亚洲乱码中文字幕在线 | 18黄暴禁片在线观看 | 亚洲欧美色中文字幕在线 | 曰韩少妇内射免费播放 | 国产一区二区三区精品视频 | 乌克兰少妇xxxx做受 | 精品少妇爆乳无码av无码专区 | 国产猛烈高潮尖叫视频免费 | 中文字幕无码人妻少妇免费 | 3d动漫精品啪啪一区二区中 | 日本乱偷人妻中文字幕 | 亚洲国产日韩a在线播放 | 熟妇女人妻丰满少妇中文字幕 | 一本色道久久综合狠狠躁 | 夜精品a片一区二区三区无码白浆 | 亚洲成熟女人毛毛耸耸多 | 国产精品爱久久久久久久 | 中文字幕无码日韩专区 | 一二三四在线观看免费视频 | 久久精品国产一区二区三区 | 中文字幕色婷婷在线视频 | 欧美精品一区二区精品久久 | 免费无码的av片在线观看 | 小泽玛莉亚一区二区视频在线 | 欧美激情一区二区三区成人 | 日本丰满熟妇videos | 国产免费久久久久久无码 | 亚洲精品久久久久久久久久久 | 国产精品理论片在线观看 | 樱花草在线播放免费中文 | 一区二区三区高清视频一 | 国产内射老熟女aaaa | 久久午夜无码鲁丝片秋霞 | 亚洲精品无码国产 | 日欧一片内射va在线影院 | 激情五月综合色婷婷一区二区 | 欧美激情综合亚洲一二区 | 亚洲中文字幕av在天堂 | 97久久超碰中文字幕 | 国产香蕉尹人综合在线观看 | 国产无遮挡又黄又爽又色 | 图片区 小说区 区 亚洲五月 | 亚洲综合精品香蕉久久网 | 国产一区二区三区影院 | 国产亚洲tv在线观看 | 风流少妇按摩来高潮 | 丰满少妇女裸体bbw | 色 综合 欧美 亚洲 国产 | 少妇无码一区二区二三区 | 女人高潮内射99精品 | 婷婷色婷婷开心五月四房播播 | 人妻少妇精品无码专区二区 | 国模大胆一区二区三区 | 国产激情一区二区三区 | 黑人玩弄人妻中文在线 | 国产精品久久久久无码av色戒 | 高潮毛片无遮挡高清免费视频 | 久久久久人妻一区精品色欧美 | 少妇邻居内射在线 | 久久久久久久久蜜桃 | 精品乱子伦一区二区三区 | 最新国产乱人伦偷精品免费网站 | 中文字幕久久久久人妻 | 国产精品久免费的黄网站 | 在线 国产 欧美 亚洲 天堂 | 欧美猛少妇色xxxxx | 疯狂三人交性欧美 | 国产精品嫩草久久久久 | 久久精品国产精品国产精品污 | 亚洲精品国偷拍自产在线观看蜜桃 | 日本大乳高潮视频在线观看 | 久久综合九色综合97网 | 人人澡人人透人人爽 | 少妇太爽了在线观看 | 国产av一区二区精品久久凹凸 | 色老头在线一区二区三区 | 一本久久伊人热热精品中文字幕 | 亚洲成色在线综合网站 | 性欧美疯狂xxxxbbbb | 国精产品一区二区三区 | 亚洲综合无码久久精品综合 | 欧美成人家庭影院 | 中文字幕乱妇无码av在线 | 国产农村妇女高潮大叫 | 日日摸日日碰夜夜爽av | 中文字幕精品av一区二区五区 | 色综合久久88色综合天天 | 98国产精品综合一区二区三区 | 高潮毛片无遮挡高清免费视频 | 女人被男人躁得好爽免费视频 | 2020久久超碰国产精品最新 | 中文无码伦av中文字幕 | 荫蒂添的好舒服视频囗交 | 久久无码中文字幕免费影院蜜桃 | 亚洲色欲色欲天天天www | 久久五月精品中文字幕 | 欧美精品免费观看二区 | 国产后入清纯学生妹 | 国产精品鲁鲁鲁 | 久久国产36精品色熟妇 | 亚洲无人区一区二区三区 | 久久久久亚洲精品男人的天堂 | 无码吃奶揉捏奶头高潮视频 | 在线亚洲高清揄拍自拍一品区 | √天堂中文官网8在线 | 少妇性荡欲午夜性开放视频剧场 | 少妇人妻偷人精品无码视频 | 无码国产色欲xxxxx视频 | 乱人伦人妻中文字幕无码 | 玩弄中年熟妇正在播放 | 免费无码肉片在线观看 | 日韩欧美中文字幕在线三区 | 午夜福利试看120秒体验区 | 成人综合网亚洲伊人 | 日韩精品无码一区二区中文字幕 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲高清偷拍一区二区三区 | 亚洲中文字幕成人无码 | 伦伦影院午夜理论片 | 欧美三级不卡在线观看 | 日韩人妻少妇一区二区三区 | 久久久久久a亚洲欧洲av冫 | 国产口爆吞精在线视频 | 国模大胆一区二区三区 | 少妇人妻偷人精品无码视频 | 激情亚洲一区国产精品 | 日本在线高清不卡免费播放 | 国产亚洲精品久久久闺蜜 | 国产欧美精品一区二区三区 | 中文字幕人成乱码熟女app | 国产无套粉嫩白浆在线 | 免费无码av一区二区 | 国产成人综合美国十次 | 久久天天躁狠狠躁夜夜免费观看 | 国产午夜亚洲精品不卡下载 | 精品国产一区二区三区av 性色 | 人妻体内射精一区二区三四 | 亚洲熟妇色xxxxx欧美老妇 | 狠狠色噜噜狠狠狠7777奇米 | 国产美女精品一区二区三区 | 正在播放老肥熟妇露脸 | 久久人人爽人人爽人人片av高清 | 精品国产精品久久一区免费式 | 无码乱肉视频免费大全合集 | 国产农村妇女高潮大叫 | 人人妻人人澡人人爽欧美精品 | 九九久久精品国产免费看小说 | 精品无码一区二区三区的天堂 | 国产av一区二区三区最新精品 | 亚洲国产精华液网站w | 欧美老妇与禽交 | 久久天天躁狠狠躁夜夜免费观看 | 欧美熟妇另类久久久久久多毛 | 国产午夜无码视频在线观看 | 无码人妻久久一区二区三区不卡 | 久久亚洲日韩精品一区二区三区 | 精品国产一区二区三区av 性色 | 精品久久久久香蕉网 | 九九久久精品国产免费看小说 | 色婷婷久久一区二区三区麻豆 | 国产性生大片免费观看性 | 成人免费视频视频在线观看 免费 | 亚洲国产综合无码一区 | 日本va欧美va欧美va精品 | 欧洲精品码一区二区三区免费看 | 亚洲午夜久久久影院 | 久久精品国产日本波多野结衣 | 亚洲综合另类小说色区 | 两性色午夜视频免费播放 | 久久午夜夜伦鲁鲁片无码免费 | 2020最新国产自产精品 | 色情久久久av熟女人妻网站 | www国产精品内射老师 | 亚洲一区二区三区在线观看网站 | 老司机亚洲精品影院 | 久久国产精品偷任你爽任你 | 一本色道婷婷久久欧美 | 大色综合色综合网站 | 中文精品无码中文字幕无码专区 | 久久精品人人做人人综合试看 | 少妇性俱乐部纵欲狂欢电影 | 久久99精品久久久久久动态图 | 亚洲人亚洲人成电影网站色 | 97精品人妻一区二区三区香蕉 | 亲嘴扒胸摸屁股激烈网站 | 国产性生大片免费观看性 | 国产电影无码午夜在线播放 | 国产xxx69麻豆国语对白 | 全球成人中文在线 | 国产9 9在线 | 中文 | 国产精品人人爽人人做我的可爱 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 精品无码一区二区三区的天堂 | 中文字幕无线码免费人妻 | 日韩成人一区二区三区在线观看 | 国产又爽又猛又粗的视频a片 | 久久久久免费看成人影片 | 亚洲成a人片在线观看日本 | 无码一区二区三区在线 | 2019nv天堂香蕉在线观看 | 国产内射爽爽大片视频社区在线 | 欧美日韩色另类综合 | 精品国产麻豆免费人成网站 | 国产人妻久久精品二区三区老狼 | 国产av一区二区三区最新精品 | 国产精品久久久久久亚洲毛片 | 国产在线无码精品电影网 | 人妻插b视频一区二区三区 | 亚洲国产av美女网站 | 桃花色综合影院 | 色综合久久久无码网中文 | 色婷婷av一区二区三区之红樱桃 | 亚洲色大成网站www国产 | 亚洲区小说区激情区图片区 | 精品久久8x国产免费观看 | 国内精品人妻无码久久久影院 | 久久 国产 尿 小便 嘘嘘 | 人人澡人人妻人人爽人人蜜桃 | 国产精品无码一区二区桃花视频 | 国产精品va在线观看无码 | 对白脏话肉麻粗话av | 日韩亚洲欧美精品综合 | 国产成人精品久久亚洲高清不卡 | 精品一区二区三区无码免费视频 | 免费网站看v片在线18禁无码 | 中文字幕人妻无码一夲道 | 亚洲区小说区激情区图片区 | 久久久久久久女国产乱让韩 | 最近的中文字幕在线看视频 | 成人一在线视频日韩国产 | 东京一本一道一二三区 | 久久视频在线观看精品 | 国产人妻精品午夜福利免费 | 国产精品无码成人午夜电影 | 国产精品久久久久无码av色戒 | 激情国产av做激情国产爱 | 国产精品a成v人在线播放 | 婷婷丁香五月天综合东京热 | 天堂а√在线中文在线 | 中文字幕av伊人av无码av | v一区无码内射国产 | 国产成人无码午夜视频在线观看 | 欧美野外疯狂做受xxxx高潮 | 无码精品人妻一区二区三区av | 成人欧美一区二区三区黑人 | 日韩精品无码免费一区二区三区 | 成熟人妻av无码专区 | 麻豆人妻少妇精品无码专区 | 亚洲aⅴ无码成人网站国产app | 国产精品资源一区二区 | 国产精品久久久久影院嫩草 | 亚洲人成网站免费播放 | 欧美 日韩 亚洲 在线 | 377p欧洲日本亚洲大胆 | 久久国产精品萌白酱免费 | 性色欲网站人妻丰满中文久久不卡 | 亚洲精品久久久久久久久久久 | 在教室伦流澡到高潮hnp视频 | 国产高潮视频在线观看 | 女人色极品影院 | 未满小14洗澡无码视频网站 | 国产精品久久久久影院嫩草 | 国产精品永久免费视频 | 日本又色又爽又黄的a片18禁 | 国内老熟妇对白xxxxhd | 国产九九九九九九九a片 | 国产亚洲美女精品久久久2020 | 欧美性猛交xxxx富婆 | 色综合久久久久综合一本到桃花网 | 亚无码乱人伦一区二区 | 一本久久a久久精品亚洲 | 一区二区传媒有限公司 | 久久久久免费看成人影片 | 亚洲天堂2017无码 | 一本久道久久综合婷婷五月 | 天堂а√在线中文在线 | 亚洲欧洲日本综合aⅴ在线 | 亚洲精品成人av在线 | 综合激情五月综合激情五月激情1 | 久久久www成人免费毛片 | 青青青爽视频在线观看 | 欧洲极品少妇 | 人妻夜夜爽天天爽三区 | 亚洲区欧美区综合区自拍区 | www国产亚洲精品久久网站 | 国产av无码专区亚洲awww | 少妇愉情理伦片bd | 亚洲狠狠色丁香婷婷综合 | 爱做久久久久久 | 波多野结衣高清一区二区三区 | 天天摸天天碰天天添 | 午夜嘿嘿嘿影院 | 丰满护士巨好爽好大乳 | 亚洲色成人中文字幕网站 | 少妇邻居内射在线 | 日本精品人妻无码免费大全 | 国内老熟妇对白xxxxhd | 欧美人妻一区二区三区 | 国产无遮挡又黄又爽又色 | 国产精品沙发午睡系列 | 免费国产成人高清在线观看网站 | 偷窥日本少妇撒尿chinese | 欧美日韩精品 | 清纯唯美经典一区二区 | 99久久久国产精品无码免费 | 亚洲色偷偷男人的天堂 | 欧美午夜特黄aaaaaa片 | 美女毛片一区二区三区四区 | 欧美成人家庭影院 | 无码人中文字幕 | 国产无套内射久久久国产 | 欧美日本精品一区二区三区 | 一本无码人妻在中文字幕免费 | 岛国片人妻三上悠亚 | 中文字幕无线码免费人妻 | 四十如虎的丰满熟妇啪啪 | 高清国产亚洲精品自在久久 | 久久久精品国产sm最大网站 | 国产激情精品一区二区三区 | 丰满诱人的人妻3 | 欧美自拍另类欧美综合图片区 | 秋霞特色aa大片 | 精品无码国产一区二区三区av | 久久精品人妻少妇一区二区三区 | 少妇厨房愉情理9仑片视频 | av人摸人人人澡人人超碰下载 | 久久精品国产精品国产精品污 | 亚洲毛片av日韩av无码 | 久久亚洲精品成人无码 | v一区无码内射国产 | 精品国产福利一区二区 | 亚洲人成网站色7799 | 中文字幕乱码人妻二区三区 | 亚洲熟妇色xxxxx欧美老妇 | 99久久久无码国产aaa精品 | 蜜桃av抽搐高潮一区二区 | 中文字幕无码免费久久9一区9 | 中文久久乱码一区二区 | 亚洲午夜无码久久 | 妺妺窝人体色www婷婷 | 曰本女人与公拘交酡免费视频 | 免费国产成人高清在线观看网站 | 中文字幕+乱码+中文字幕一区 | 人人妻人人藻人人爽欧美一区 | 99国产精品白浆在线观看免费 | а√天堂www在线天堂小说 | 精品无码一区二区三区的天堂 | 亚洲精品一区三区三区在线观看 | 人人妻人人藻人人爽欧美一区 | 亚洲综合无码一区二区三区 | 青青青爽视频在线观看 | 中文字幕av伊人av无码av | 国产成人无码区免费内射一片色欲 | 一本色道久久综合狠狠躁 | 久久久久久亚洲精品a片成人 | 日本一区二区三区免费高清 | 日日鲁鲁鲁夜夜爽爽狠狠 | 久久亚洲精品中文字幕无男同 | 亚洲国产精品一区二区第一页 | 东京一本一道一二三区 | 女人色极品影院 | 国产色在线 | 国产 | 亚洲中文字幕在线无码一区二区 | 日韩精品无码一区二区中文字幕 | 国产精品自产拍在线观看 | 国产精品igao视频网 | 欧洲熟妇色 欧美 | 亚洲精品一区三区三区在线观看 | 国产激情综合五月久久 | 亚洲乱码国产乱码精品精 | 国产一区二区三区精品视频 | 综合网日日天干夜夜久久 | 日本一本二本三区免费 | 精品偷自拍另类在线观看 | 亚洲国产精品久久久久久 | 国产精品沙发午睡系列 | 日韩人妻无码一区二区三区久久99 | 成人免费视频在线观看 | 人妻无码αv中文字幕久久琪琪布 | 内射爽无广熟女亚洲 | 国产精品高潮呻吟av久久4虎 | 一二三四在线观看免费视频 | 综合人妻久久一区二区精品 | 亚洲一区二区三区在线观看网站 | 欧美 亚洲 国产 另类 | 日本xxxx色视频在线观看免费 | 女人和拘做爰正片视频 | 亚洲欧美精品伊人久久 | 人妻天天爽夜夜爽一区二区 | 日韩亚洲欧美中文高清在线 | 久久久久久久女国产乱让韩 | 日韩少妇白浆无码系列 | 又大又黄又粗又爽的免费视频 | 久久亚洲中文字幕无码 | 精品无码成人片一区二区98 | 一本久久伊人热热精品中文字幕 | 中文字幕色婷婷在线视频 | 久久国产精品偷任你爽任你 | 东北女人啪啪对白 | 无套内谢老熟女 | 国产精品亚洲五月天高清 | 好男人社区资源 | 亚洲国产精品一区二区第一页 | 性欧美牲交在线视频 | 精品国产一区av天美传媒 | √天堂资源地址中文在线 | 欧美zoozzooz性欧美 | 欧洲美熟女乱又伦 | 久久午夜无码鲁丝片 | 人妻aⅴ无码一区二区三区 | 欧美日韩在线亚洲综合国产人 | 67194成是人免费无码 | 成人精品天堂一区二区三区 | 色综合久久久久综合一本到桃花网 | 久久久久亚洲精品男人的天堂 | 亚洲成av人片在线观看无码不卡 | 精品国产成人一区二区三区 | 我要看www免费看插插视频 | 久久国产精品偷任你爽任你 | 久久aⅴ免费观看 | 黑人粗大猛烈进出高潮视频 | 扒开双腿疯狂进出爽爽爽视频 | 国产综合色产在线精品 | 国产亚洲欧美在线专区 | 国产9 9在线 | 中文 | 国产高潮视频在线观看 | 免费国产黄网站在线观看 | 久久久久久亚洲精品a片成人 | 色综合久久久无码网中文 | 国产精品久久国产精品99 | 领导边摸边吃奶边做爽在线观看 | 麻豆国产人妻欲求不满谁演的 | 久久久久久av无码免费看大片 | 国产一区二区三区影院 | 性生交片免费无码看人 | 国产女主播喷水视频在线观看 | 欧美乱妇无乱码大黄a片 | 色噜噜亚洲男人的天堂 | 樱花草在线播放免费中文 | 亚洲狠狠色丁香婷婷综合 | 欧美熟妇另类久久久久久不卡 | 免费观看激色视频网站 | 综合人妻久久一区二区精品 | 女人和拘做爰正片视频 | 国产精品鲁鲁鲁 | 2020久久超碰国产精品最新 | 成人免费视频一区二区 | av在线亚洲欧洲日产一区二区 | 色综合久久久久综合一本到桃花网 | 99er热精品视频 | 欧美国产日韩亚洲中文 | 欧美三级a做爰在线观看 | 欧美性猛交xxxx富婆 | 国产亚洲精品精品国产亚洲综合 | 久久精品国产一区二区三区 | 精品亚洲韩国一区二区三区 | 免费网站看v片在线18禁无码 | 亚洲理论电影在线观看 | 玩弄中年熟妇正在播放 | 亚洲成av人片在线观看无码不卡 | 国产成人无码专区 | 国产两女互慰高潮视频在线观看 | 丰满岳乱妇在线观看中字无码 | 亚洲国产精品久久人人爱 | 欧美性生交xxxxx久久久 | 天天拍夜夜添久久精品 | 久久亚洲中文字幕精品一区 | 国产人妖乱国产精品人妖 | 白嫩日本少妇做爰 | 亚洲高清偷拍一区二区三区 | 亚洲国产精品毛片av不卡在线 | 国产69精品久久久久app下载 | 黑人巨大精品欧美一区二区 | 国产精品无码久久av | 夜先锋av资源网站 | 精品一区二区三区无码免费视频 | 国产精品亚洲综合色区韩国 | 未满小14洗澡无码视频网站 | 人人妻在人人 | 美女毛片一区二区三区四区 | 国产精品怡红院永久免费 | 久久久久国色av免费观看性色 | 国产人妻大战黑人第1集 | 久久久久免费看成人影片 | 欧美性生交xxxxx久久久 | 九九久久精品国产免费看小说 | 97夜夜澡人人爽人人喊中国片 | 国产精品-区区久久久狼 | 国产亚洲视频中文字幕97精品 | 国内少妇偷人精品视频 | 在线成人www免费观看视频 | 永久黄网站色视频免费直播 | 纯爱无遮挡h肉动漫在线播放 | 国产 精品 自在自线 | 我要看www免费看插插视频 | 麻豆av传媒蜜桃天美传媒 | 亚洲成色www久久网站 | 日韩av激情在线观看 | 亚洲成av人在线观看网址 | 国内精品人妻无码久久久影院 | 精品aⅴ一区二区三区 | 免费人成网站视频在线观看 | 亚洲高清偷拍一区二区三区 | 一本久道久久综合狠狠爱 | 精品偷自拍另类在线观看 | 国内精品久久久久久中文字幕 | 久久国产36精品色熟妇 | 久久天天躁狠狠躁夜夜免费观看 | 国产成人av免费观看 | 一二三四在线观看免费视频 | 日本熟妇大屁股人妻 | 国产激情精品一区二区三区 | 丰满人妻精品国产99aⅴ | 天天摸天天碰天天添 | 欧美熟妇另类久久久久久不卡 | 国产人妻人伦精品1国产丝袜 | 性欧美videos高清精品 | 亚洲 a v无 码免 费 成 人 a v | 国产综合色产在线精品 | 中文毛片无遮挡高清免费 | 成人av无码一区二区三区 | 西西人体www44rt大胆高清 | 亚洲 欧美 激情 小说 另类 | 国产农村乱对白刺激视频 | av无码电影一区二区三区 | 性欧美疯狂xxxxbbbb | 亚洲色偷偷偷综合网 | 成在人线av无码免观看麻豆 | 国产成人一区二区三区在线观看 | 丰满少妇高潮惨叫视频 | 在线精品亚洲一区二区 | 女人被男人躁得好爽免费视频 | 在线观看免费人成视频 | 亚洲色偷偷男人的天堂 | 精品无码国产一区二区三区av | 中文字幕人妻无码一区二区三区 | a国产一区二区免费入口 | 色综合久久久无码中文字幕 | 日本精品少妇一区二区三区 | 亚洲春色在线视频 | 中文无码精品a∨在线观看不卡 | 国产成人一区二区三区在线观看 | 国产无遮挡又黄又爽免费视频 | 国产亚洲视频中文字幕97精品 | 久久久久久九九精品久 | 清纯唯美经典一区二区 | 六月丁香婷婷色狠狠久久 | 免费网站看v片在线18禁无码 | 人人妻人人澡人人爽人人精品浪潮 | 大色综合色综合网站 | 欧美zoozzooz性欧美 | 2020最新国产自产精品 | 初尝人妻少妇中文字幕 | 日韩av无码中文无码电影 | 久久综合香蕉国产蜜臀av | 九九综合va免费看 | 内射欧美老妇wbb | 一区二区三区乱码在线 | 欧洲 | 欧美激情内射喷水高潮 | 少妇高潮一区二区三区99 | 丰满人妻被黑人猛烈进入 | 久久综合激激的五月天 | 超碰97人人做人人爱少妇 | 国产成人精品一区二区在线小狼 | 国产网红无码精品视频 | 樱花草在线播放免费中文 | 国产精品无码mv在线观看 | 美女张开腿让人桶 | 久久综合狠狠综合久久综合88 | 久久综合色之久久综合 | 丝袜足控一区二区三区 | 欧美日本精品一区二区三区 | 亚洲国产综合无码一区 | 无码人妻精品一区二区三区不卡 | 撕开奶罩揉吮奶头视频 | 国产精品久久久午夜夜伦鲁鲁 | 2019午夜福利不卡片在线 | 亚洲色偷偷男人的天堂 | 在线观看欧美一区二区三区 | 18无码粉嫩小泬无套在线观看 | 日本又色又爽又黄的a片18禁 | 国产av一区二区三区最新精品 | 水蜜桃色314在线观看 | 国产av人人夜夜澡人人爽麻豆 | 中文字幕 亚洲精品 第1页 | 宝宝好涨水快流出来免费视频 | 亚洲精品国偷拍自产在线观看蜜桃 | 精品国偷自产在线 | 国产成人综合在线女婷五月99播放 | 中国女人内谢69xxxxxa片 | 国产又爽又猛又粗的视频a片 | 国产特级毛片aaaaaa高潮流水 | 99久久久无码国产aaa精品 | 午夜精品久久久久久久久 | 欧美人与动性行为视频 | 荫蒂添的好舒服视频囗交 | 亚洲色偷偷男人的天堂 | 国产熟妇高潮叫床视频播放 | 大屁股大乳丰满人妻 | аⅴ资源天堂资源库在线 | 久久 国产 尿 小便 嘘嘘 | 综合人妻久久一区二区精品 | 夜夜高潮次次欢爽av女 | 欧美大屁股xxxxhd黑色 | 日韩精品a片一区二区三区妖精 | 免费观看又污又黄的网站 | 亚洲中文字幕无码中字 | 国产欧美熟妇另类久久久 | 无码国内精品人妻少妇 | 狠狠cao日日穞夜夜穞av | 日本熟妇乱子伦xxxx | 波多野42部无码喷潮在线 | 午夜福利不卡在线视频 | 大乳丰满人妻中文字幕日本 | 欧美日韩精品 | 国产免费久久精品国产传媒 | 国产乱人伦av在线无码 | 少妇性俱乐部纵欲狂欢电影 | 国产亚洲精品久久久久久久 | 久久综合九色综合欧美狠狠 | 爱做久久久久久 | 久久zyz资源站无码中文动漫 | 国产人妻精品午夜福利免费 | 樱花草在线社区www | 一本色道婷婷久久欧美 | 一本久久伊人热热精品中文字幕 | 无人区乱码一区二区三区 | 国产精品久久国产三级国 | 日韩欧美中文字幕在线三区 | 全黄性性激高免费视频 | 免费观看黄网站 | 亚洲精品欧美二区三区中文字幕 | 欧美性生交xxxxx久久久 | 国产精品久久久一区二区三区 | 动漫av网站免费观看 | 色诱久久久久综合网ywww | 伊在人天堂亚洲香蕉精品区 | 色欲久久久天天天综合网精品 | 亚洲国产精品一区二区美利坚 | 男人的天堂2018无码 | 中文字幕 亚洲精品 第1页 | 人妻少妇精品视频专区 | a在线观看免费网站大全 | 偷窥日本少妇撒尿chinese | 久久国产精品萌白酱免费 | 丰满少妇高潮惨叫视频 | 蜜桃臀无码内射一区二区三区 | 国内综合精品午夜久久资源 | 桃花色综合影院 | 大地资源网第二页免费观看 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲国产精品美女久久久久 | 日韩精品一区二区av在线 | 国产va免费精品观看 | 亚洲熟妇色xxxxx亚洲 | 中文字幕 人妻熟女 | 福利一区二区三区视频在线观看 | 亚洲小说图区综合在线 | 99麻豆久久久国产精品免费 | 巨爆乳无码视频在线观看 | 免费国产黄网站在线观看 | 麻豆国产丝袜白领秘书在线观看 | 人妻体内射精一区二区三四 | 国产成人综合色在线观看网站 | 欧美黑人巨大xxxxx | 夜夜夜高潮夜夜爽夜夜爰爰 | 精品一二三区久久aaa片 | av在线亚洲欧洲日产一区二区 | 国产又爽又猛又粗的视频a片 | 妺妺窝人体色www婷婷 | 男女爱爱好爽视频免费看 | a在线亚洲男人的天堂 | 国产精品无码一区二区三区不卡 | 一个人看的www免费视频在线观看 | 成人综合网亚洲伊人 | 国产网红无码精品视频 | 欧美人与禽猛交狂配 | 女人被男人躁得好爽免费视频 | 精品乱子伦一区二区三区 | 国产人成高清在线视频99最全资源 | 性欧美大战久久久久久久 | 亚洲一区二区三区国产精华液 | 国产亚洲视频中文字幕97精品 | 亚洲精品中文字幕乱码 | 东京一本一道一二三区 | 97久久国产亚洲精品超碰热 | 2019nv天堂香蕉在线观看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 88国产精品欧美一区二区三区 | 性做久久久久久久久 | 亚洲色在线无码国产精品不卡 | 国产精品无码一区二区桃花视频 | 国产成人精品视频ⅴa片软件竹菊 | 蜜臀aⅴ国产精品久久久国产老师 | 久久久久se色偷偷亚洲精品av | 成人性做爰aaa片免费看不忠 | 精品国偷自产在线视频 | 国产精品久久久久久亚洲影视内衣 | 中文字幕日产无线码一区 | 日日摸天天摸爽爽狠狠97 | 日日碰狠狠丁香久燥 | 无码人妻久久一区二区三区不卡 | 奇米影视888欧美在线观看 | 成人无码视频免费播放 | 国产无套内射久久久国产 | 人人澡人人妻人人爽人人蜜桃 | 婷婷色婷婷开心五月四房播播 | 久久人人爽人人爽人人片ⅴ | 国产免费无码一区二区视频 | 久久精品女人天堂av免费观看 | 久久亚洲a片com人成 | 国产真实伦对白全集 | 人妻与老人中文字幕 | 国产三级久久久精品麻豆三级 | a片在线免费观看 | 午夜男女很黄的视频 | 亚洲精品国产精品乱码视色 | 国产精品亚洲一区二区三区喷水 | 久久综合网欧美色妞网 | 日本精品人妻无码免费大全 | 精品人妻人人做人人爽夜夜爽 | 爱做久久久久久 | 亚洲国产欧美国产综合一区 | 国产成人无码a区在线观看视频app | 亚洲中文字幕在线无码一区二区 | 无码av免费一区二区三区试看 | 无码av最新清无码专区吞精 | 久久精品国产99久久6动漫 | 人人妻人人藻人人爽欧美一区 | 丁香花在线影院观看在线播放 | 国产两女互慰高潮视频在线观看 | 亚洲国产成人a精品不卡在线 | 国产免费观看黄av片 | 帮老师解开蕾丝奶罩吸乳网站 | 欧美 丝袜 自拍 制服 另类 | 无码人妻精品一区二区三区下载 | а天堂中文在线官网 | 久久久精品456亚洲影院 | 一本久久a久久精品vr综合 | 国产精品美女久久久 | 人人超人人超碰超国产 | 97精品人妻一区二区三区香蕉 | 久久久久av无码免费网 | 欧美性猛交内射兽交老熟妇 | 蜜桃视频韩日免费播放 | 色婷婷av一区二区三区之红樱桃 | 强开小婷嫩苞又嫩又紧视频 | 午夜理论片yy44880影院 | 久久久www成人免费毛片 | 国产精品丝袜黑色高跟鞋 | 久久亚洲a片com人成 | 5858s亚洲色大成网站www | 精品久久久中文字幕人妻 | 欧美三级不卡在线观看 | 人妻少妇精品无码专区二区 | 国产乡下妇女做爰 | 给我免费的视频在线观看 | 久激情内射婷内射蜜桃人妖 | 好爽又高潮了毛片免费下载 | 亚洲最大成人网站 | 亚洲人交乣女bbw | 亚洲精品无码国产 | 亚洲熟熟妇xxxx | 97人妻精品一区二区三区 | 人人妻人人澡人人爽人人精品 | 麻豆md0077饥渴少妇 | 天堂亚洲免费视频 | 内射欧美老妇wbb | 色狠狠av一区二区三区 | 狠狠色噜噜狠狠狠狠7777米奇 | 日韩在线不卡免费视频一区 | 亚洲一区二区三区在线观看网站 | 中文字幕无码日韩欧毛 | 男女超爽视频免费播放 | 国产精品久久久久久亚洲影视内衣 | 亚洲国产精品一区二区美利坚 | 天天摸天天碰天天添 | 国产精品18久久久久久麻辣 | 亚洲色欲色欲欲www在线 | 奇米影视7777久久精品 | 欧美国产亚洲日韩在线二区 | 国产精品99爱免费视频 | 亚洲熟熟妇xxxx | 无套内谢的新婚少妇国语播放 | 国产色xx群视频射精 | 性色av无码免费一区二区三区 | 久久久久成人片免费观看蜜芽 | 国产精品二区一区二区aⅴ污介绍 | 国产va免费精品观看 | 欧美成人家庭影院 | 无码国产色欲xxxxx视频 | 亚洲人成网站在线播放942 | 久久亚洲中文字幕无码 | 精品熟女少妇av免费观看 | v一区无码内射国产 | 久久精品国产亚洲精品 | 成人精品一区二区三区中文字幕 | 九九久久精品国产免费看小说 | а天堂中文在线官网 | 男人和女人高潮免费网站 | 成人无码影片精品久久久 | 日日摸天天摸爽爽狠狠97 | 国产麻豆精品一区二区三区v视界 | 欧美性生交活xxxxxdddd | 日韩精品无码免费一区二区三区 | 亚洲娇小与黑人巨大交 | 日日摸天天摸爽爽狠狠97 | 欧美第一黄网免费网站 | 亚欧洲精品在线视频免费观看 | 亚洲国产欧美在线成人 | 99精品无人区乱码1区2区3区 | 天天摸天天透天天添 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲中文字幕成人无码 | 免费人成网站视频在线观看 | 麻豆蜜桃av蜜臀av色欲av | 偷窥日本少妇撒尿chinese | 日本精品少妇一区二区三区 | 久久99精品国产麻豆 | 国产九九九九九九九a片 | 国产色xx群视频射精 | 亚洲 高清 成人 动漫 | 成人精品一区二区三区中文字幕 | 亚洲精品午夜无码电影网 | 天干天干啦夜天干天2017 | 亚洲国产高清在线观看视频 | 亚洲毛片av日韩av无码 | 国产一区二区不卡老阿姨 | 强伦人妻一区二区三区视频18 | 四虎永久在线精品免费网址 | 精品久久久久久人妻无码中文字幕 | 亚洲国产精品久久人人爱 | 婷婷色婷婷开心五月四房播播 | 国产人妻大战黑人第1集 | 精品成人av一区二区三区 | 亚洲男人av香蕉爽爽爽爽 | 日本熟妇人妻xxxxx人hd | 99久久婷婷国产综合精品青草免费 | 强奷人妻日本中文字幕 | 日本精品少妇一区二区三区 | 性生交大片免费看l | 日韩欧美中文字幕在线三区 | 小鲜肉自慰网站xnxx | 成人一区二区免费视频 | 97精品人妻一区二区三区香蕉 | 国产成人一区二区三区在线观看 | 性做久久久久久久免费看 | 亚洲精品无码国产 | 亚洲精品中文字幕 | 无码精品国产va在线观看dvd | 高潮毛片无遮挡高清免费 | 亚洲日韩av一区二区三区四区 | 丁香花在线影院观看在线播放 | 麻豆果冻传媒2021精品传媒一区下载 | 精品国产一区二区三区av 性色 | 精品国产一区二区三区四区 | аⅴ资源天堂资源库在线 | 乱码午夜-极国产极内射 | 欧美人与牲动交xxxx | 国产无套内射久久久国产 | 一本久道久久综合婷婷五月 | 亚洲自偷自偷在线制服 | 乱人伦中文视频在线观看 | 国产成人无码av片在线观看不卡 | 天天躁夜夜躁狠狠是什么心态 | 激情爆乳一区二区三区 | 欧美性猛交内射兽交老熟妇 | 亚洲精品成人福利网站 | 免费人成在线视频无码 | 亚洲国产日韩a在线播放 | av人摸人人人澡人人超碰下载 | 国内综合精品午夜久久资源 | 欧美人妻一区二区三区 | 久久综合给合久久狠狠狠97色 | www国产亚洲精品久久久日本 | 亚洲va中文字幕无码久久不卡 | 无码纯肉视频在线观看 | 玩弄人妻少妇500系列视频 | 九月婷婷人人澡人人添人人爽 | 欧美性生交xxxxx久久久 | 欧美精品免费观看二区 | 欧美日韩精品 | 亚洲日韩一区二区 | 久久久久国色av免费观看性色 | 欧美精品国产综合久久 | 亚洲一区二区三区国产精华液 | 性欧美videos高清精品 | 乌克兰少妇xxxx做受 | 国产色在线 | 国产 | 无码人妻黑人中文字幕 | 欧美性生交活xxxxxdddd | 麻豆精品国产精华精华液好用吗 | 性色av无码免费一区二区三区 | 午夜无码人妻av大片色欲 | 夫妻免费无码v看片 | 精品aⅴ一区二区三区 | 国产亚洲精品久久久久久大师 | 正在播放东北夫妻内射 | 精品国产精品久久一区免费式 | 日本xxxx色视频在线观看免费 | 国产小呦泬泬99精品 | 男女下面进入的视频免费午夜 | 久久久中文久久久无码 | 色狠狠av一区二区三区 | 无码人妻久久一区二区三区不卡 | 7777奇米四色成人眼影 | 伊在人天堂亚洲香蕉精品区 | 中文字幕人妻无码一夲道 | 亚洲s码欧洲m码国产av | 三级4级全黄60分钟 | 爽爽影院免费观看 | 激情爆乳一区二区三区 | 人妻有码中文字幕在线 | 国产精品美女久久久久av爽李琼 | 中国大陆精品视频xxxx | 老子影院午夜精品无码 | 色五月五月丁香亚洲综合网 | 在线成人www免费观看视频 | 波多野结衣 黑人 | 黑人大群体交免费视频 | 又大又紧又粉嫩18p少妇 | 国产成人无码区免费内射一片色欲 | 国产精品99久久精品爆乳 | 中文字幕色婷婷在线视频 | 无码av岛国片在线播放 | 宝宝好涨水快流出来免费视频 | 免费观看黄网站 | 亚洲综合色区中文字幕 | 亚洲精品一区二区三区在线 | 久久这里只有精品视频9 | 亚洲精品一区二区三区四区五区 | 久久久精品成人免费观看 | 波多野结衣高清一区二区三区 | 亚洲综合在线一区二区三区 | 台湾无码一区二区 | 日本熟妇乱子伦xxxx | 久久久亚洲欧洲日产国码αv | 亚洲色www成人永久网址 | 伊人久久大香线蕉午夜 | 中文字幕人妻无码一夲道 | 欧美亚洲日韩国产人成在线播放 | 亚洲理论电影在线观看 | 久久久久久久久蜜桃 | 久久五月精品中文字幕 | 东京热男人av天堂 | 国产人妻精品一区二区三区不卡 | 高潮毛片无遮挡高清免费视频 | 久久久久亚洲精品男人的天堂 | 精品水蜜桃久久久久久久 | 精品乱码久久久久久久 | 最近中文2019字幕第二页 | 好屌草这里只有精品 | 日本丰满熟妇videos | 精品久久久久久亚洲精品 | 亚洲国产成人a精品不卡在线 | 久久亚洲a片com人成 | 亚洲精品国产精品乱码不卡 | 天堂а√在线地址中文在线 | 国产69精品久久久久app下载 | 中文亚洲成a人片在线观看 | 美女黄网站人色视频免费国产 | 久久精品99久久香蕉国产色戒 | 日本熟妇人妻xxxxx人hd | 激情国产av做激情国产爱 | 六月丁香婷婷色狠狠久久 | 欧美日本免费一区二区三区 | 成人免费无码大片a毛片 | 狠狠亚洲超碰狼人久久 | 久久久亚洲欧洲日产国码αv | 麻豆精品国产精华精华液好用吗 | 国产卡一卡二卡三 | 国内精品人妻无码久久久影院 | 黑人巨大精品欧美一区二区 | 国产性生交xxxxx无码 | 大屁股大乳丰满人妻 | 水蜜桃av无码 | 亚洲中文字幕乱码av波多ji | 熟女少妇人妻中文字幕 | 久久亚洲精品中文字幕无男同 | 狂野欧美激情性xxxx | 久久精品丝袜高跟鞋 | 国产亚洲tv在线观看 | 亚洲国产精品久久人人爱 | 国产无av码在线观看 | 精品国产一区av天美传媒 | 日本一卡二卡不卡视频查询 | 日本熟妇大屁股人妻 | 人人妻人人澡人人爽欧美一区九九 | 少妇无码av无码专区在线观看 | 久久人人爽人人人人片 | 亚洲va欧美va天堂v国产综合 | 午夜精品久久久久久久 | www一区二区www免费 | 蜜桃av抽搐高潮一区二区 | 国产亚洲tv在线观看 | 国产美女精品一区二区三区 | 国产明星裸体无码xxxx视频 | av人摸人人人澡人人超碰下载 | 毛片内射-百度 | 久久99精品久久久久久 | 中文字幕中文有码在线 | 国产无套粉嫩白浆在线 | 色婷婷av一区二区三区之红樱桃 | 国产福利视频一区二区 | 国产精品va在线播放 | 丰满人妻一区二区三区免费视频 | 最新版天堂资源中文官网 | 亚洲国产综合无码一区 | 精品成人av一区二区三区 | 欧美野外疯狂做受xxxx高潮 | 骚片av蜜桃精品一区 | 中文字幕乱码人妻二区三区 | 亚洲高清偷拍一区二区三区 | 老太婆性杂交欧美肥老太 | 日韩av无码一区二区三区 | 国产麻豆精品精东影业av网站 | 中文字幕 亚洲精品 第1页 | 亚洲日韩一区二区 | 午夜福利电影 | 久久99精品久久久久婷婷 | 久久综合给久久狠狠97色 | 久久久精品人妻久久影视 | 国産精品久久久久久久 | 欧美国产日产一区二区 | 国产99久久精品一区二区 | 亚洲 高清 成人 动漫 | 少妇性荡欲午夜性开放视频剧场 | 欧洲熟妇精品视频 | 久久精品国产精品国产精品污 | 亚洲一区二区三区偷拍女厕 | 永久免费精品精品永久-夜色 | 人妻少妇精品无码专区动漫 | 欧美人与禽zoz0性伦交 | 欧美怡红院免费全部视频 | 国产精品人人爽人人做我的可爱 | 精品水蜜桃久久久久久久 | 国产精品丝袜黑色高跟鞋 | 国产激情无码一区二区 | 国产黑色丝袜在线播放 | 97资源共享在线视频 | 波多野42部无码喷潮在线 | 久久 国产 尿 小便 嘘嘘 | 欧美老人巨大xxxx做受 | 国产无遮挡又黄又爽免费视频 | 精品无码国产自产拍在线观看蜜 | 夜夜高潮次次欢爽av女 | 99久久人妻精品免费二区 | 久久国产精品精品国产色婷婷 | 国产亚洲欧美在线专区 | 国产精品永久免费视频 | 久久久久国色av免费观看性色 | 熟妇激情内射com | 国产成人精品优优av | 中文字幕+乱码+中文字幕一区 | 亚洲精品国产第一综合99久久 | 国产免费久久精品国产传媒 | 午夜免费福利小电影 | 九月婷婷人人澡人人添人人爽 | 免费无码的av片在线观看 | 久久99热只有频精品8 | 一本久道久久综合狠狠爱 | 亚洲 高清 成人 动漫 | 国产人成高清在线视频99最全资源 | 在线观看免费人成视频 | 久久综合久久自在自线精品自 | 精品一区二区三区无码免费视频 | 永久黄网站色视频免费直播 | 中文字幕无码免费久久9一区9 | 日韩精品久久久肉伦网站 | 欧美色就是色 | 国产一区二区三区精品视频 | 四虎影视成人永久免费观看视频 | 久在线观看福利视频 | 亚洲精品一区二区三区在线 | 伊人色综合久久天天小片 | 国产av一区二区精品久久凹凸 | 丰满人妻翻云覆雨呻吟视频 | 国产亚洲精品久久久闺蜜 | 内射巨臀欧美在线视频 | 日本大香伊一区二区三区 | 精品久久久无码人妻字幂 | 国产成人精品必看 | 亚洲午夜福利在线观看 | 亚洲中文字幕在线无码一区二区 | 粉嫩少妇内射浓精videos | 中文字幕+乱码+中文字幕一区 | 亚洲日本va中文字幕 | 亚洲啪av永久无码精品放毛片 | 亚洲欧洲日本无在线码 | 国产精品第一区揄拍无码 | 日本丰满熟妇videos | 在线天堂新版最新版在线8 | 中文字幕人妻丝袜二区 | 在线播放无码字幕亚洲 | 久久久久人妻一区精品色欧美 | 无码av岛国片在线播放 | 亚洲精品久久久久久久久久久 | 色情久久久av熟女人妻网站 | 无遮挡啪啪摇乳动态图 | 99精品无人区乱码1区2区3区 | 鲁一鲁av2019在线 | 377p欧洲日本亚洲大胆 | 精品日本一区二区三区在线观看 | 国产亚洲精品久久久闺蜜 | 一二三四社区在线中文视频 | 亚洲日本一区二区三区在线 | 国产精品高潮呻吟av久久4虎 | 国产午夜亚洲精品不卡 | 国产精品久久久久无码av色戒 | av无码不卡在线观看免费 | 亚洲 日韩 欧美 成人 在线观看 | 色 综合 欧美 亚洲 国产 | 国产莉萝无码av在线播放 | 野外少妇愉情中文字幕 | 精品久久久久香蕉网 | 亚洲国产av精品一区二区蜜芽 | 久久久久免费精品国产 | 中文字幕无码乱人伦 | 亚洲国产日韩a在线播放 | 99re在线播放 | 少妇无套内谢久久久久 | 亚洲人成网站色7799 | 一个人看的www免费视频在线观看 | 亚洲另类伦春色综合小说 | 亚洲日韩乱码中文无码蜜桃臀网站 | 亚洲爆乳精品无码一区二区三区 | 国产精品va在线播放 | 久久国产精品精品国产色婷婷 | 人人澡人人透人人爽 | 国产另类ts人妖一区二区 | 国产黑色丝袜在线播放 | 欧美熟妇另类久久久久久不卡 | 久久久久国色av免费观看性色 | 日本www一道久久久免费榴莲 | 欧美黑人性暴力猛交喷水 | 亚洲区小说区激情区图片区 | 丰满岳乱妇在线观看中字无码 | 亚洲欧美日韩综合久久久 | 老太婆性杂交欧美肥老太 | 牲欲强的熟妇农村老妇女视频 | 国产极品视觉盛宴 | 日本一本二本三区免费 | 成人无码精品1区2区3区免费看 | 国产av无码专区亚洲awww | 色一情一乱一伦 | 中文字幕人成乱码熟女app | 国产精品人人妻人人爽 | 欧美人与善在线com | 久久久久久久人妻无码中文字幕爆 | 中文字幕 人妻熟女 | 大屁股大乳丰满人妻 | 精品人妻人人做人人爽夜夜爽 | 欧美性黑人极品hd | 久久亚洲国产成人精品性色 | 日日天干夜夜狠狠爱 | 国产亚洲精品精品国产亚洲综合 | 亚洲国产精品久久人人爱 | 狠狠色噜噜狠狠狠7777奇米 | 欧美一区二区三区视频在线观看 | 国产欧美精品一区二区三区 | 色综合视频一区二区三区 | 免费国产成人高清在线观看网站 | 中国大陆精品视频xxxx | 国产色视频一区二区三区 | 天天综合网天天综合色 | 又大又黄又粗又爽的免费视频 | 久久久久亚洲精品中文字幕 | 999久久久国产精品消防器材 | 国产人妻久久精品二区三区老狼 | 樱花草在线社区www | 人妻夜夜爽天天爽三区 | 男女下面进入的视频免费午夜 | 亚洲国产一区二区三区在线观看 | 亚洲无人区午夜福利码高清完整版 | 丰满人妻一区二区三区免费视频 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲精品中文字幕久久久久 | 男女猛烈xx00免费视频试看 | 亚洲国产成人a精品不卡在线 | 国产亚洲精品久久久久久大师 | 日产精品99久久久久久 | 5858s亚洲色大成网站www | 日本又色又爽又黄的a片18禁 | 精品一区二区三区波多野结衣 | 久久久久久a亚洲欧洲av冫 | 亚洲精品一区三区三区在线观看 | 色欲av亚洲一区无码少妇 | 国产偷抇久久精品a片69 | 老熟女乱子伦 | 成人无码影片精品久久久 | 奇米影视7777久久精品 | 精品水蜜桃久久久久久久 | 激情综合激情五月俺也去 | 亚洲va中文字幕无码久久不卡 | 又粗又大又硬又长又爽 | 欧美午夜特黄aaaaaa片 | 欧美人与牲动交xxxx | 高潮毛片无遮挡高清免费 | 色婷婷香蕉在线一区二区 | 国产黑色丝袜在线播放 | 在线观看国产午夜福利片 | 丝袜 中出 制服 人妻 美腿 | 久久亚洲中文字幕精品一区 | 国产凸凹视频一区二区 | 精品国产一区av天美传媒 | 黑人玩弄人妻中文在线 | 久久99精品国产麻豆蜜芽 | 人妻少妇精品久久 | 97夜夜澡人人爽人人喊中国片 | 久久久精品成人免费观看 | 国产激情精品一区二区三区 | 国产内射爽爽大片视频社区在线 | 乱中年女人伦av三区 | 亚洲精品久久久久久一区二区 | 欧美国产日韩久久mv | 日日摸日日碰夜夜爽av | 免费乱码人妻系列无码专区 | 麻豆精品国产精华精华液好用吗 | 性色欲情网站iwww九文堂 | 国产熟妇高潮叫床视频播放 | 中文字幕av日韩精品一区二区 | 国产真人无遮挡作爱免费视频 | 香港三级日本三级妇三级 | 欧美黑人性暴力猛交喷水 | 国产特级毛片aaaaaa高潮流水 | 国产精品久久久久9999小说 | 亚洲欧美色中文字幕在线 | 亚洲精品一区二区三区大桥未久 | 天天躁夜夜躁狠狠是什么心态 | 色婷婷综合激情综在线播放 | 任你躁在线精品免费 | 亚洲日韩av片在线观看 | 亚洲色欲色欲欲www在线 | 在教室伦流澡到高潮hnp视频 | 中文字幕乱码人妻无码久久 | 国产免费无码一区二区视频 | 久久久精品欧美一区二区免费 | 天天做天天爱天天爽综合网 | 国产亚洲美女精品久久久2020 | 欧美亚洲日韩国产人成在线播放 | 精品乱码久久久久久久 | 国产两女互慰高潮视频在线观看 | 亚洲综合无码久久精品综合 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 娇妻被黑人粗大高潮白浆 | 在线观看免费人成视频 | 国产午夜手机精彩视频 | 免费人成在线视频无码 | 永久黄网站色视频免费直播 | 国产肉丝袜在线观看 | 欧洲欧美人成视频在线 | 亚洲一区二区三区无码久久 | 青青青手机频在线观看 | 国精产品一区二区三区 | 国产午夜无码视频在线观看 | 国产亚洲精品久久久久久久久动漫 | 亚洲人亚洲人成电影网站色 | 亚洲熟女一区二区三区 | 日本又色又爽又黄的a片18禁 | 国产无套内射久久久国产 | 色婷婷欧美在线播放内射 | 2019nv天堂香蕉在线观看 | 国产午夜亚洲精品不卡下载 | 欧美性黑人极品hd | 亚洲日韩精品欧美一区二区 | 国模大胆一区二区三区 | 国产亚洲人成a在线v网站 | 国产农村妇女高潮大叫 | 亚洲毛片av日韩av无码 | 国产av一区二区精品久久凹凸 | 日本丰满熟妇videos | 国产精品久久久久久亚洲毛片 | 亚洲 激情 小说 另类 欧美 | 午夜无码人妻av大片色欲 | 久久久久av无码免费网 | 性色欲情网站iwww九文堂 | 人人爽人人爽人人片av亚洲 | 一区二区传媒有限公司 | 精品午夜福利在线观看 | 国产一区二区三区影院 | 中文字幕 人妻熟女 | 国产精品亚洲五月天高清 |