久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

1.10.Flink DataStreamAPI(API的抽象级别、Data Sources、connectors、Source容错性保证、Sink容错性保证、自定义sink、partition等)

發布時間:2024/9/27 编程问答 26 豆豆
生活随笔 收集整理的這篇文章主要介紹了 1.10.Flink DataStreamAPI(API的抽象级别、Data Sources、connectors、Source容错性保证、Sink容错性保证、自定义sink、partition等) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1.10.Flink DataStreamAPI
1.10.1.Flink API的抽象級別
1.10.2.DatSource部分詳解
1.10.2.1.DataStream API之Data Sources
1.10.2.2.DataSources API
1.10.2.3.DataStream內置connectors
1.10.2.4.Source容錯性保證
1.10.2.5.Sink容錯性保證
1.10.2.6.自定義sink
1.10.2.7.Table & SQL Connectors
1.10.2.8.自定義source
1.10.2.9.DataStream API之Transformations部分詳解
1.10.2.10.DataStream API之partition
1.10.2.11.DataStream API之Data Sink

1.10.Flink DataStreamAPI

1.10.1.Flink API的抽象級別


?Flink API 最底層的抽象為有狀態實時流處理。其抽象實現是 Process Function,并且 Process Function 被 Flink 框架集成到了 DataStream API 中來為我們使用。它允許用戶在應用程序中自由地處理來自單流或多流的事件(數據),并提供具有全局一致性和容錯保障的狀態。此外,用戶可以在此層抽象中注冊事件時間(event time)和處理時間(processing time)回調方法,從而允許程序可以實現復雜計算。

?Flink API 第二層抽象是 Core APIs。實際上,許多應用程序不需要使用到上述最底層抽象的 API,而是可以使用 Core APIs 進行編程:其中包含 DataStream API(應用于有界/無界數據流場景)和 DataSet API(應用于有界數據集場景)兩部分。Core APIs 提供的流式 API(Fluent API)為數據處理提供了通用的模塊組件,例如各種形式的用戶自定義轉換(transformations)、聯接(joins)、聚合(aggregations)、窗口(windows)和狀態(state)操作等。此層 API 中處理的數據類型在每種編程語言中都有其對應的類。

Process Function 這類底層抽象和 DataStream API 的相互集成使得用戶可以選擇使用更底層的抽象 API 來實現自己的需求。DataSet API 還額外提供了一些原語,比如循環/迭代(loop/iteration)操作。

?Flink API 第三層抽象是 Table API。Table API 是以表(Table)為中心的聲明式編程(DSL)API,例如在流式數據場景下,它可以表示一張正在動態改變的表。Table API 遵循(擴展)關系模型:即表擁有 schema(類似于關系型數據庫中的 schema),并且 Table API 也提供了類似于關系模型中的操作,比如 select、project、join、group-by 和 aggregate 等。Table API 程序是以聲明的方式定義應執行的邏輯操作,而不是確切地指定程序應該執行的代碼。盡管 Table API 使用起來很簡潔并且可以由各種類型的用戶自定義函數擴展功能,但還是比 Core API 的表達能力差。此外,Table API 程序在執行之前還會使用優化器中的優化規則對用戶編寫的表達式進行優化。

表和 DataStream/DataSet 可以進行無縫切換,Flink 允許用戶在編寫應用程序時將 Table API 與 DataStream/DataSet API 混合使用。

?Flink API 最頂層抽象是 SQL。這層抽象在語義和程序表達式上都類似于 Table API,但是其程序實現都是 SQL 查詢表達式。SQL 抽象與 Table API 抽象之間的關聯是非常緊密的,并且 SQL 查詢語句可以在 Table API 中定義的表上執行。

本技術文檔上案例所需的pom.xml如下:

<?xml version="1.0" encoding="UTF-8"?> <project xmlns="http://maven.apache.org/POM/4.0.0"xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance"xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd"><modelVersion>4.0.0</modelVersion><groupId>xxxxx.demo</groupId><artifactId>flink-demo</artifactId><version>1.0-SNAPSHOT</version><properties><project.build.sourceEncoding>UTF-8</project.build.sourceEncoding><!--maven properties --><maven.test.skip>false</maven.test.skip><maven.javadoc.skip>false</maven.javadoc.skip><!-- compiler settings properties --><maven.compiler.source>1.8</maven.compiler.source><maven.compiler.target>1.8</maven.compiler.target><rocketmq.version>4.7.1</rocketmq.version><flink.version>1.11.1</flink.version><commons-lang.version>2.5</commons-lang.version><scala.binary.version>2.12</scala.binary.version></properties><distributionManagement><repository><id>releases</id><layout>default</layout><url>http://ip/nexus/content/repositories/releases/</url></repository><snapshotRepository><id>snapshots</id><name>snapshots</name><url>http://ip/nexus/content/repositories/snapshots/</url></snapshotRepository></distributionManagement><repositories><repository><id>releases</id><layout>default</layout><url>http://ip/nexus/content/repositories/releases/</url></repository><repository><id>snapshots</id><name>snapshots</name><url>http://ip/nexus/content/repositories/snapshots/</url><snapshots><enabled>true</enabled><updatePolicy>always</updatePolicy><checksumPolicy>warn</checksumPolicy></snapshots></repository><repository><id>tianque</id><name>tianque</name><url>http://ip/nexus/content/repositories/tianque/</url></repository><repository><id>public</id><name>public</name><url>http://ip/nexus/content/groups/public/</url></repository><!-- 新加 --><repository><id>cloudera</id><url>https://repository.cloudera.com/artifactory/cloudera-repos/</url></repository></repositories><dependencies><dependency><groupId>org.apache.flink</groupId><artifactId>flink-java</artifactId><version>${flink.version}</version></dependency><!--1.compile : 默認的scope,運行期有效,需要打入包中。2.provided : 編譯器有效,運行期不需要提供,不會打入包中。3.runtime : 編譯不需要,在運行期有效,需要導入包中。(接口與實現分離)4.test : 測試需要,不會打入包中5.system : 非本地倉庫引入、存在系統的某個路徑下的jar。(一般不使用)--><dependency><groupId>org.apache.flink</groupId><artifactId>flink-streaming-java_${scala.binary.version}</artifactId><version>${flink.version}</version><!--<scope>provided</scope>--></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-clients_${scala.binary.version}</artifactId><version>${flink.version}</version></dependency><dependency><groupId>com.tianque.doraemon</groupId><artifactId>issue-business-api</artifactId><version>1.0.6.RELEASE</version></dependency><!-- 使用scala編程的時候使用下面的依賴 start--><dependency><groupId>org.apache.flink</groupId><artifactId>flink-scala_${scala.binary.version}</artifactId><version>${flink.version}</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-streaming-scala_${scala.binary.version}</artifactId><version>${flink.version}</version></dependency><!-- 使用scala編程的時候使用下面的依賴 end--><!-- kafka connector scala 2.12 --><dependency><groupId>org.apache.flink</groupId><artifactId>flink-connector-kafka_${scala.binary.version}</artifactId><version>${flink.version}</version></dependency><dependency><groupId>org.apache.kafka</groupId><artifactId>kafka-clients</artifactId><version>2.0.0</version></dependency><dependency><groupId>org.slf4j</groupId><artifactId>slf4j-api</artifactId><version>1.7.25</version></dependency><dependency><groupId>org.slf4j</groupId><artifactId>slf4j-log4j12</artifactId><version>1.7.25</version><scope>test</scope></dependency><dependency><groupId>org.apache.bahir</groupId><artifactId>flink-connector-redis_2.11</artifactId><version>1.0</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-statebackend-rocksdb_${scala.binary.version}</artifactId><version>${flink.version}</version></dependency><dependency><groupId>org.apache.flink</groupId><artifactId>flink-queryable-state-runtime_${scala.binary.version}</artifactId><version>${flink.version}</version></dependency><dependency><groupId>org.apache.rocketmq</groupId><artifactId>rocketmq-client</artifactId><version>${rocketmq.version}</version></dependency><dependency><groupId>org.apache.rocketmq</groupId><artifactId>rocketmq-acl</artifactId><version>${rocketmq.version}</version></dependency><dependency><groupId>org.apache.rocketmq</groupId><artifactId>rocketmq-common</artifactId><version>${rocketmq.version}</version><exclusions><exclusion><groupId>io.netty</groupId><artifactId>netty-tcnative</artifactId></exclusion></exclusions></dependency><dependency><groupId>commons-lang</groupId><artifactId>commons-lang</artifactId><version>${commons-lang.version}</version></dependency><!--test --><dependency><groupId>junit</groupId><artifactId>junit</artifactId><scope>test</scope><version>4.12</version></dependency><dependency><groupId>org.powermock</groupId><artifactId>powermock-module-junit4</artifactId><version>1.5.5</version><scope>test</scope></dependency><dependency><groupId>org.powermock</groupId><artifactId>powermock-api-mockito</artifactId><version>1.5.5</version><scope>test</scope></dependency><dependency><groupId>org.apache.rocketmq</groupId><artifactId>rocketmq-namesrv</artifactId><version>${rocketmq.version}</version><scope>test</scope></dependency><dependency><groupId>org.apache.rocketmq</groupId><artifactId>rocketmq-broker</artifactId><version>${rocketmq.version}</version><scope>test</scope></dependency><dependency><groupId>com.tianque</groupId><artifactId>caterpillar-sdk</artifactId><version>0.1.4</version></dependency><dependency><groupId>com.alibaba</groupId><artifactId>fastjson</artifactId><version>1.2.73</version></dependency><dependency><groupId>redis.clients</groupId><artifactId>jedis</artifactId><version>3.3.0</version></dependency></dependencies><build><plugins><!-- 編譯插件 --><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-compiler-plugin</artifactId><version>3.6.0</version><configuration><source>${maven.compiler.source}</source><target>${maven.compiler.target}</target><encoding>UTF-8</encoding><compilerVersion>${maven.compiler.source}</compilerVersion><showDeprecation>true</showDeprecation><showWarnings>true</showWarnings></configuration></plugin><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-surefire-plugin</artifactId><version>2.12.4</version><configuration><skipTests>${maven.test.skip}</skipTests></configuration></plugin><plugin><groupId>org.apache.rat</groupId><artifactId>apache-rat-plugin</artifactId><version>0.12</version><configuration><excludes><exclude>README.md</exclude></excludes></configuration></plugin><plugin><artifactId>maven-checkstyle-plugin</artifactId><version>2.17</version><executions><execution><id>verify</id><phase>verify</phase><configuration><configLocation>style/rmq_checkstyle.xml</configLocation><encoding>UTF-8</encoding><consoleOutput>true</consoleOutput><failsOnError>true</failsOnError><includeTestSourceDirectory>false</includeTestSourceDirectory><includeTestResources>false</includeTestResources></configuration><goals><goal>check</goal></goals></execution></executions></plugin><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-javadoc-plugin</artifactId><version>2.10.4</version><configuration><aggregate>true</aggregate><reportOutputDirectory>javadocs</reportOutputDirectory><locale>en</locale></configuration></plugin><!-- scala編譯插件 --><plugin><groupId>net.alchim31.maven</groupId><artifactId>scala-maven-plugin</artifactId><version>3.1.6</version><configuration><scalaCompatVersion>2.11</scalaCompatVersion><scalaVersion>2.11.12</scalaVersion><encoding>UTF-8</encoding></configuration><executions><execution><id>compile-scala</id><phase>compile</phase><goals><goal>add-source</goal><goal>compile</goal></goals></execution><execution><id>test-compile-scala</id><phase>test-compile</phase><goals><goal>add-source</goal><goal>testCompile</goal></goals></execution></executions></plugin><!-- 打jar包插件(會包含所有依賴) --><plugin><groupId>org.apache.maven.plugins</groupId><artifactId>maven-assembly-plugin</artifactId><version>2.6</version><configuration><descriptorRefs><descriptorRef>jar-with-dependencies</descriptorRef></descriptorRefs><archive><manifest><!-- 可以設置jar包的入口類(可選),此處根據自己項目的情況進行修改 --><mainClass>xxxxx.SocketWindowWordCountJava</mainClass></manifest></archive></configuration><executions><execution><id>make-assembly</id><phase>package</phase><goals><goal>single</goal></goals></execution></executions></plugin></plugins></build></project>

1.10.2.DatSource部分詳解

1.10.2.1.DataStream API之Data Sources

?source是程序的數據源輸入,你可以通過StreamExecutionEnvironment.addSource(sourceFunction)來為你的程序添加一個source。

?Flink提供了大量的已經實現好的source方法,你也可以自定義source

  • ?通過實現sourceFunction接口來自定義無并行度的source
  • ?或者你也可以通過實現ParallelSourceFunction接口or繼承RichParallelSourceFunction來自定義有并行度的source。

以下是自定義Source相關的內容

import org.apache.flink.streaming.api.functions.source.SourceFunction;/*** 自定義實現并行度為1的source** 模擬產生從1開始的遞增數字*** 注意:* SourceFunction 和 SourceContext 都需要指定數據類型,如果不指定,代碼運行的時候會報錯* Caused by: org.apache.flink.api.common.functions.InvalidTypesException:* The types of the interface org.apache.flink.streaming.api.functions.source.SourceFunction could not be inferred.* Support for synthetic interfaces, lambdas, and generic or raw types is limited at this point** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class MyNoParalleSource implements SourceFunction<Long>{private long count = 1L;private boolean isRunning = true;/*** 主要的方法* 啟動一個source* 大部分情況下,都需要在這個run方法中實現一個循環,這樣就可以循環產生數據了** @param ctx* @throws Exception*/@Overridepublic void run(SourceContext<Long> ctx) throws Exception {while(isRunning){ctx.collect(count);count++;//每秒產生一條數據Thread.sleep(1000);}}/*** 取消一個cancel的時候會調用的方法**/@Overridepublic void cancel() {isRunning = false;} }

scala代碼:

import org.apache.flink.streaming.api.functions.source.SourceFunction import org.apache.flink.streaming.api.functions.source.SourceFunction.SourceContext/*** 創建自定義并行度為1的source** 實現從1開始產生遞增數字** Created by xxxx on 2020/10/09 on 2018/10/23.*/ class MyNoParallelSourceScala extends SourceFunction[Long]{var count = 1Lvar isRunning = trueoverride def run(ctx: SourceContext[Long]) = {while(isRunning){ctx.collect(count)count+=1Thread.sleep(1000)}}override def cancel() = {isRunning = false}} import org.apache.flink.streaming.api.functions.source.ParallelSourceFunction;/*** 自定義實現一個支持并行度的source* Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class MyParalleSource implements ParallelSourceFunction<Long> {private long count = 1L;private boolean isRunning = true;/*** 主要的方法* 啟動一個source* 大部分情況下,都需要在這個run方法中實現一個循環,這樣就可以循環產生數據了** @param ctx* @throws Exception*/@Overridepublic void run(SourceContext<Long> ctx) throws Exception {while(isRunning){ctx.collect(count);count++;//每秒產生一條數據Thread.sleep(1000);}}/*** 取消一個cancel的時候會調用的方法**/@Overridepublic void cancel() {isRunning = false;} } ```java import org.apache.flink.configuration.Configuration; import org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction;/*** 自定義實現一個支持并行度的source** RichParallelSourceFunction 會額外提供open和close方法* 針對source中如果需要獲取其他鏈接資源,那么可以在open方法中獲取資源鏈接,在close中關閉資源鏈接** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class MyRichParalleSource extends RichParallelSourceFunction<Long> {private long count = 1L;private boolean isRunning = true;/*** 主要的方法* 啟動一個source* 大部分情況下,都需要在這個run方法中實現一個循環,這樣就可以循環產生數據了** @param ctx* @throws Exception*/@Overridepublic void run(SourceContext<Long> ctx) throws Exception {while(isRunning){ctx.collect(count);count++;//每秒產生一條數據Thread.sleep(1000);}}/*** 取消一個cancel的時候會調用的方法**/@Overridepublic void cancel() {isRunning = false;}/*** 這個方法只會在最開始的時候被調用一次* 實現獲取鏈接的代碼* @param parameters* @throws Exception*/@Overridepublic void open(Configuration parameters) throws Exception {System.out.println("open.............");super.open(parameters);}/*** 實現關閉鏈接的代碼* @throws Exception*/@Overridepublic void close() throws Exception {super.close(); }}

使用自己定義的source

import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.time.Time;/*** 使用并行度為1的source** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoWithMyNoPralalleSource {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//獲取數據源DataStreamSource<Long> text = env.addSource(new MyNoParalleSource()).setParallelism(1);//注意:針對此source,并行度只能設置為1DataStream<Long> num = text.map(new MapFunction<Long, Long>() {@Overridepublic Long map(Long value) throws Exception {System.out.println("接收到數據:" + value);return value;}});//每2秒鐘處理一次數據DataStream<Long> sum = num.timeWindowAll(Time.seconds(2)).sum(0);//打印結果sum.print().setParallelism(1);String jobName = StreamingDemoWithMyNoPralalleSource.class.getSimpleName();env.execute(jobName);} } import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.time.Time;/*** 使用多并行度的source** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoWithMyPralalleSource {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//獲取數據源DataStreamSource<Long> text = env.addSource(new MyParalleSource()).setParallelism(2);DataStream<Long> num = text.map(new MapFunction<Long, Long>() {@Overridepublic Long map(Long value) throws Exception {System.out.println("接收到數據:" + value);return value;}});//每2秒鐘處理一次數據DataStream<Long> sum = num.timeWindowAll(Time.seconds(2)).sum(0);//打印結果sum.print().setParallelism(1);String jobName = StreamingDemoWithMyPralalleSource.class.getSimpleName();env.execute(jobName);} } import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.time.Time;/*** 使用多并行度的source** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoWithMyRichPralalleSource {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//獲取數據源DataStreamSource<Long> text = env.addSource(new MyRichParalleSource()).setParallelism(2);DataStream<Long> num = text.map(new MapFunction<Long, Long>() {@Overridepublic Long map(Long value) throws Exception {System.out.println("接收到數據:" + value);return value;}});//每2秒鐘處理一次數據DataStream<Long> sum = num.timeWindowAll(Time.seconds(2)).sum(0);//打印結果sum.print().setParallelism(1);String jobName = StreamingDemoWithMyRichPralalleSource.class.getSimpleName();env.execute(jobName);} }

以下是scala的實現

import org.apache.flink.streaming.api.functions.source.SourceFunction import org.apache.flink.streaming.api.functions.source.SourceFunction.SourceContext/*** 創建自定義并行度為1的source** 實現從1開始產生遞增數字** Created by xxxx on 2020/10/09 on 2018/10/23.*/ class MyNoParallelSourceScala extends SourceFunction[Long]{var count = 1Lvar isRunning = trueoverride def run(ctx: SourceContext[Long]) = {while(isRunning){ctx.collect(count)count+=1Thread.sleep(1000)}}override def cancel() = {isRunning = false}} import org.apache.flink.streaming.api.functions.source.ParallelSourceFunction import org.apache.flink.streaming.api.functions.source.SourceFunction.SourceContext/*** 創建自定義并行度為1的source** 實現從1開始產生遞增數字** Created by xxxx on 2020/10/09 on 2018/10/23.*/ class MyParallelSourceScala extends ParallelSourceFunction[Long]{var count = 1Lvar isRunning = trueoverride def run(ctx: SourceContext[Long]) = {while(isRunning){ctx.collect(count)count+=1Thread.sleep(1000)}}override def cancel() = {isRunning = false}} import org.apache.flink.configuration.Configuration import org.apache.flink.streaming.api.functions.source.RichParallelSourceFunction import org.apache.flink.streaming.api.functions.source.SourceFunction.SourceContext/*** 創建自定義并行度為1的source** 實現從1開始產生遞增數字** Created by xxxx on 2020/10/09 on 2018/10/23.*/ class MyRichParallelSourceScala extends RichParallelSourceFunction[Long]{var count = 1Lvar isRunning = trueoverride def run(ctx: SourceContext[Long]) = {while(isRunning){ctx.collect(count)count+=1Thread.sleep(1000)}}override def cancel() = {isRunning = false}override def open(parameters: Configuration): Unit = super.open(parameters)override def close(): Unit = super.close() } import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.streaming.api.windowing.time.Time/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoWithMyNoParallelSourceScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironment//隱式轉換import org.apache.flink.api.scala._val text = env.addSource(new MyNoParallelSourceScala)val mapData = text.map(line=>{println("接收到的數據:"+line)line})val sum = mapData.timeWindowAll(Time.seconds(2)).sum(0)sum.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}} import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.streaming.api.windowing.time.Time/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoWithMyParallelSourceScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironment//隱式轉換import org.apache.flink.api.scala._val text = env.addSource(new MyParallelSourceScala).setParallelism(2)val mapData = text.map(line=>{println("接收到的數據:"+line)line})val sum = mapData.timeWindowAll(Time.seconds(2)).sum(0)sum.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}} import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.streaming.api.windowing.time.Time/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoWithMyRichParallelSourceScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironment//隱式轉換import org.apache.flink.api.scala._val text = env.addSource(new MyRichParallelSourceScala).setParallelism(2)val mapData = text.map(line=>{println("接收到的數據:"+line)line})val sum = mapData.timeWindowAll(Time.seconds(2)).sum(0)sum.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}}

1.10.2.2.DataSources API

?基于文件

  • ?readTextFile(path)
  • ?讀取文本文件,文件遵循TextInputFormat讀取規則,逐行讀取并返回。
    ?基于socket
  • ?從socket中讀取數據,元素可以通過一個分隔符切開。
    ?基于集合
  • ?fromCollection(Collection)
  • ?通過java 的collection集合創建一個數據流,集合中的所有元素必須是相同類型的。
    ?自定義輸入
  • ?addSource 可以實現讀取第三方數據源的數據
  • ?系統內置提供了一批connectors,連接器會提供對應的source支持【kafka】

基于集合的案例fromCollection(Collection):

import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment;import java.util.ArrayList;/*** @author tuzuoquan* @version 1.0* @ClassName StreamingFromCollection* @description TODO* @date 2020/9/16 13:49**/ public class StreamingFromCollection {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();ArrayList<Integer> data = new ArrayList<>();data.add(10);data.add(15);data.add(20);//指定數據源DataStreamSource<Integer> collectionData = env.fromCollection(data);//通map對數據進行處理 // DataStream<Integer> num = collectionData.map(new MapFunction<Integer, Integer>() { // @Override // public Integer map(Integer value) throws Exception { // return value + 1; // } // });//通map對數據進行處理//DataStream<String>中的String為最終的系統中返回值//new MapFunction<Integer, String>中的String和返回值的類型保值一致//public String map(Integer value)中的String就是返回值中的類型DataStream<String> num = collectionData.map(new MapFunction<Integer, String>() {@Overridepublic String map(Integer value) throws Exception {return value + 1 + "_suffix";}});//直接打印num.print().setParallelism(1);env.execute("StreamingFromCollection");}}

1.10.2.3.DataStream內置connectors

一些比較基本的 Source 和 Sink 已經內置在 Flink 里。 預定義 data sources 支持從文件、目錄、socket,以及 collections 和 iterators 中讀取數據。 預定義 data sinks 支持把數據寫入文件、標準輸出(stdout)、標準錯誤輸出(stderr)和socket。
?Apache Kafka (source/sink)
?Apache Cassandra (sink)
?Amazon Kinesis Streams (source/sink)
?Elasticsearch (sink)
?Hadoop FileSystem (sink)
?RabbitMQ (source/sink)
?Apache NiFi (source/sink)
?Twitter Streaming API (source)
?Google PubSub (source/sink)
?JDBC (sink)

在使用一種連接器時,通常需要額外的第三方組件,比如:數據存儲服務器或者消費隊列。要注意這些列舉的連接器是Flink工程的一部分,包含在發布的源碼中,但是不包含在二進制發行版本中。

1.10.2.4.Source容錯性保證

SourceGuaranteesNotes
Apache Kafka精確一次根據你的版本恰當的Kafka連接器
AWS Kinesis Streams精確一次
RabbitMQ至多一次 (v 0.10) / 精確一次 (v 1.0)
Twitter Streaming API至多一次
Google PubSub至少一次
Collections精確一次
Files精確一次
Sockets至多一次

為了保證端到端精確一次的數據交付(在精確一次的狀態語義上更進一步),sink需要參與checkpointing。下表列舉了Flink與其自帶Sink的交付保證(假設精確一次狀態更新)

1.10.2.5.Sink容錯性保證

SinkGuaranteesNotes
HDFS BucketingSink精確一次實現方法取決于 Hadoop 的版本
Elasticsearch至少一次
Kafka producer至少一次/精確一次當使用事務生產者時,保證精確一次 (v 0.11+)
Cassandra sink至少一次 / 精確一次
AWS Kinesis Streams至少一次
File sinks精確一次
Socket sinks至少一次
Standard output至少一次
Redis sink至少一次

1.10.2.6.自定義sink

?實現自定義的sink

  • ?實現SinkFunction接口
  • ?或者繼承RichSinkFunction

1.10.2.7.Table & SQL Connectors

  • ?Formats
  • ?Kafka
  • ?JDBC
  • ?Elasticsearch
  • ?FileSystem
  • ?HBASE
  • ?DataGen
  • ?Print
  • ?BlackHole

1.10.2.8.自定義source

?實現并行度為1的自定義source

  • ?實現SourceFunction
  • ?一般不需要實現容錯性保證
  • ?處理好cancel方法(cancel應用的時候,這個方法會被調用)
    ?實現并行化的自定義source
  • ?實現ParallelSourceFunction
  • ?或者繼承RichParallelSourceFunction

繼承RichParallelSourceFunction的那些SourceFunction意味著它們都是并行執行的并且可能有一些資源需要open/close

import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.time.Time; import xxx.xxx.streaming.custormSource.MyNoParalleSource;/*** broadcast分區規則** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoWithMyNoPralalleSourceBroadcast {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();env.setParallelism(4);//獲取數據源//注意:針對此source,并行度只能設置為1DataStreamSource<Long> text = env.addSource(new MyNoParalleSource()).setParallelism(1);DataStream<Long> num = text.broadcast().map(new MapFunction<Long, Long>() {@Overridepublic Long map(Long value) throws Exception {long id = Thread.currentThread().getId();System.out.println("線程id:"+id+",接收到數據:" + value);return value;}});//每2秒鐘處理一次數據DataStream<Long> sum = num.timeWindowAll(Time.seconds(2)).sum(0);//打印結果sum.print().setParallelism(1);String jobName = StreamingDemoWithMyNoPralalleSourceBroadcast.class.getSimpleName();env.execute(jobName);} }

1.10.2.9.DataStream API之Transformations部分詳解

  • ?map:輸入一個元素,然后返回一個元素,中間可以做一些清洗轉換等操作
  • ?flatmap:輸入一個元素,可以返回零個,一個或者多個元素
  • ?filter:過濾函數,對傳入的數據進行判斷,符合條件的數據會被留下
import org.apache.flink.api.common.functions.FilterFunction; import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.time.Time; import xxx.xxx.streaming.custormSource.MyNoParalleSource;/*** Filter演示** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoFilter {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//獲取數據源//注意:針對此source,并行度只能設置為1DataStreamSource<Long> text = env.addSource(new MyNoParalleSource()).setParallelism(1);DataStream<Long> num = text.map(new MapFunction<Long, Long>() {@Overridepublic Long map(Long value) throws Exception {System.out.println("原始接收到數據:" + value);return value;}});//執行filter過濾,滿足條件的數據會被留下DataStream<Long> filterData = num.filter(new FilterFunction<Long>() {//把所有的奇數過濾掉@Overridepublic boolean filter(Long value) throws Exception {return value % 2 == 0;}});DataStream<Long> resultData = filterData.map(new MapFunction<Long, Long>() {@Overridepublic Long map(Long value) throws Exception {System.out.println("過濾之后的數據:" + value);return value;}});//每2秒鐘處理一次數據DataStream<Long> sum = resultData.timeWindowAll(Time.seconds(2)).sum(0);//打印結果sum.print().setParallelism(1);String jobName = StreamingDemoFilter.class.getSimpleName();env.execute(jobName);} } import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.streaming.api.windowing.time.Time import xxx.xxx.streaming.custormSource.MyNoParallelSourceScala/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoFilterScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironment//隱式轉換import org.apache.flink.api.scala._val text = env.addSource(new MyNoParallelSourceScala)val mapData = text.map(line=>{println("原始接收到的數據:"+line)line}).filter(_ % 2 == 0)val sum = mapData.map(line=>{println("過濾之后的數據:"+line)line}).timeWindowAll(Time.seconds(2)).sum(0)sum.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}}
  • ?keyBy:根據指定的key進行分組,相同key的數據會進入同一個分區【典型用法見備注】
  • ?reduce:對數據進行聚合操作,結合當前元素和上一次reduce返回的值進行聚合操作,然后返回一個新的值
  • ?aggregations:sum(),min(),max()等
  • ?window:在后面單獨詳解
  • ?Union:合并多個流,新的流會包含所有流中的數據,但是union是一個限制,就是所有合并的流類型必須是一致的。
import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.windowing.time.Time; import xxx.xxx.streaming.custormSource.MyNoParalleSource;/*** union* 合并多個流,新的流會包含所有流中的數據,但是union是一個限制,就是所有合并的流類型必須是一致的** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoUnion {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//獲取數據源//注意:針對此source,并行度只能設置為1DataStreamSource<Long> text1 = env.addSource(new MyNoParalleSource()).setParallelism(1);DataStreamSource<Long> text2 = env.addSource(new MyNoParalleSource()).setParallelism(1);//把text1和text2組裝到一起DataStream<Long> text = text1.union(text2);DataStream<Long> num = text.map(new MapFunction<Long, Long>() {@Overridepublic Long map(Long value) throws Exception {System.out.println("原始接收到數據:" + value);return value;}});//每2秒鐘處理一次數據DataStream<Long> sum = num.timeWindowAll(Time.seconds(2)).sum(0);//打印結果sum.print().setParallelism(1);String jobName = StreamingDemoUnion.class.getSimpleName();env.execute(jobName);} } import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.streaming.api.windowing.time.Time import xxx.xxx.streaming.custormSource.MyNoParallelSourceScala/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoUnionScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironment//隱式轉換import org.apache.flink.api.scala._val text1 = env.addSource(new MyNoParallelSourceScala)val text2 = env.addSource(new MyNoParallelSourceScala)val unionall = text1.union(text2)val sum = unionall.map(line=>{println("接收到的數據:"+line)line}).timeWindowAll(Time.seconds(2)).sum(0)sum.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}}
  • ?Connect:和union類似,但是只能連接兩個流,兩個流的數據類型可以不同,會對兩個流中的數據應用不同的處理方法。
import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.streaming.api.datastream.ConnectedStreams; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.datastream.SingleOutputStreamOperator; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.api.functions.co.CoMapFunction; import xxx.xxx.streaming.custormSource.MyNoParalleSource;/*** connect* 和union類似,但是只能連接兩個流,兩個流的數據類型可以不同,會對兩個流中的數據應用不同的處理方法** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoConnect {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//獲取數據源//注意:針對此source,并行度只能設置為1DataStreamSource<Long> text1 = env.addSource(new MyNoParalleSource()).setParallelism(1);DataStreamSource<Long> text2 = env.addSource(new MyNoParalleSource()).setParallelism(1);SingleOutputStreamOperator<String> text2_str = text2.map(new MapFunction<Long, String>() {@Overridepublic String map(Long value) throws Exception {return "str_" + value;}});ConnectedStreams<Long, String> connectStream = text1.connect(text2_str);SingleOutputStreamOperator<Object> result = connectStream.map(new CoMapFunction<Long, String, Object>() {@Overridepublic Object map1(Long value) throws Exception {return value;}@Overridepublic Object map2(String value) throws Exception {return value;}});//打印結果result.print().setParallelism(1);String jobName = StreamingDemoConnect.class.getSimpleName();env.execute(jobName);} } import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import xxx.xxx.streaming.custormSource.MyNoParallelSourceScala/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoConnectScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironment//隱式轉換import org.apache.flink.api.scala._val text1 = env.addSource(new MyNoParallelSourceScala)val text2 = env.addSource(new MyNoParallelSourceScala)val text2_str = text2.map("str" + _)val connectedStreams = text1.connect(text2_str)val result = connectedStreams.map(line1=>{line1},line2=>{line2})result.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}}
  • ?CoMap, CoFlatMap:在ConnectedStreams中需要使用這種函數,類似于map和flatmap
  • ?Split:根據規則把一個數據流切分為多個流
import org.apache.flink.streaming.api.collector.selector.OutputSelector; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.datastream.SplitStream; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import xxx.xxx.streaming.custormSource.MyNoParalleSource;import java.util.ArrayList;/*** split** 根據規則把一個數據流切分為多個流** 應用場景:* 可能在實際工作中,源數據流中混合了多種類似的數據,多種類型的數據處理規則不一樣,所以就可以在根據一定的規則,* 把一個數據流切分成多個數據流,這樣每個數據流就可以使用不用的處理邏輯了** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoSplit {public static void main(String[] args) throws Exception {//獲取Flink的運行環境StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();//獲取數據源//注意:針對此source,并行度只能設置為1DataStreamSource<Long> text = env.addSource(new MyNoParalleSource()).setParallelism(1);//對流進行切分,按照數據的奇偶性進行區分SplitStream<Long> splitStream = text.split(new OutputSelector<Long>() {@Overridepublic Iterable<String> select(Long value) {ArrayList<String> outPut = new ArrayList<>();if (value % 2 == 0) {outPut.add("even");//偶數} else {outPut.add("odd");//奇數}return outPut;}});//選擇一個或者多個切分后的流DataStream<Long> evenStream = splitStream.select("even");DataStream<Long> oddStream = splitStream.select("odd");DataStream<Long> moreStream = splitStream.select("odd","even");//打印結果moreStream.print().setParallelism(1);String jobName = StreamingDemoSplit.class.getSimpleName();env.execute(jobName);} } import java.utilimport org.apache.flink.streaming.api.collector.selector.OutputSelector import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import xxx.xxx.streaming.custormSource.MyNoParallelSourceScala/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoSplitScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironment//隱式轉換import org.apache.flink.api.scala._val text = env.addSource(new MyNoParallelSourceScala)val splitStream = text.split(new OutputSelector[Long] {override def select(value: Long) = {val list = new util.ArrayList[String]()if(value%2 == 0){list.add("even")// 偶數}else{list.add("odd")// 奇數}list}})val evenStream = splitStream.select("even")evenStream.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}}
  • ?Select:和split配合使用,選擇切分后的流

兩種典型用法:
dataStream.keyBy(“someKey”) // 指定對象中的 "someKey"字段作為分組key
dataStream.keyBy(0) //指定Tuple中的第一個元素作為分組key

注意:以下類型是無法作為key的

  • 1:一個實體類對象,沒有重寫hashCode方法,并且依賴object的hashCode方法
  • 2:一個任意形式的數組類型
  • 3:基本數據類型,int,long

1.10.2.10.DataStream API之partition

?Random partitioning:隨機分區

  • ?dataStream.shuffle()
    ?Rebalancing:對數據集進行再平衡,重分區,消除數據傾斜
  • ?dataStream.rebalance()
    ?Rescaling:解釋見備注
  • ?dataStream.rescale()
    ?Custom partitioning:自定義分區
  • ?自定義分區需要實現Partitioner接口
  • ?dataStream.partitionCustom(partitioner, “someKey”)
  • ?或者dataStream.partitionCustom(partitioner, 0);
    ?Broadcasting:在后面單獨詳解

Rescaling解釋:
舉個例子:
如果上游操作有2個并發,而下游操作有4個并發,那么上游的一個并發結果分配給下游的兩個并發操作,另外的一個并發結果分配給了下游的另外兩個并發操作.另一方面,下游有兩個并發操作而上游又4個并發操作,那么上游的其中兩個操作的結果分配給下游的一個并發操作而另外兩個并發操作的結果則分配給另外一個并發操作。

Rescaling與Rebalancing的區別:
Rebalancing會產生全量重分區,而Rescaling不會。

自定義分區案例:

import org.apache.flink.api.common.functions.Partitioner;/*** Created by xxxx on 2020/10/09*/ public class MyPartition implements Partitioner<Long> {@Overridepublic int partition(Long key, int numPartitions) {System.out.println("分區總數:"+numPartitions);if(key % 2 == 0){return 0;}else{return 1;}} } import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.api.java.tuple.Tuple1; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import xxx.xxx.streaming.custormSource.MyNoParalleSource;/**** 使用自定義分析* 根據數字的奇偶性來分區** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class SteamingDemoWithMyParitition {public static void main(String[] args) throws Exception{StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();env.setParallelism(2);DataStreamSource<Long> text = env.addSource(new MyNoParalleSource());//對數據進行轉換,把long類型轉成tuple1類型DataStream<Tuple1<Long>> tupleData = text.map(new MapFunction<Long, Tuple1<Long>>() {@Overridepublic Tuple1<Long> map(Long value) throws Exception {return new Tuple1<>(value);}});//分區之后的數據DataStream<Tuple1<Long>> partitionData = tupleData.partitionCustom(new MyPartition(), 0);DataStream<Long> result = partitionData.map(new MapFunction<Tuple1<Long>, Long>() {@Overridepublic Long map(Tuple1<Long> value) throws Exception {System.out.println("當前線程id:" + Thread.currentThread().getId() + ",value: " + value);return value.getField(0);}});result.print().setParallelism(1);env.execute("SteamingDemoWithMyParitition");} }

scala案例:

import org.apache.flink.api.common.functions.Partitioner/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ class MyPartitionerScala extends Partitioner[Long]{override def partition(key: Long, numPartitions: Int) = {println("分區總數:"+numPartitions)if(key % 2 ==0){0}else{1}}} import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import xxx.xxx.streaming.custormSource.MyNoParallelSourceScala/*** Created by xxxx on 2020/10/09 on 2018/10/23.*/ object StreamingDemoMyPartitionerScala {def main(args: Array[String]): Unit = {val env = StreamExecutionEnvironment.getExecutionEnvironmentenv.setParallelism(2)//隱式轉換import org.apache.flink.api.scala._val text = env.addSource(new MyNoParallelSourceScala)//把long類型的數據轉成tuple類型val tupleData = text.map(line=>{Tuple1(line)// 注意tuple1的實現方式})val partitionData = tupleData.partitionCustom(new MyPartitionerScala,0)val result = partitionData.map(line=>{println("當前線程id:"+Thread.currentThread().getId+",value: "+line)line._1})result.print().setParallelism(1)env.execute("StreamingDemoWithMyNoParallelSourceScala")}}

1.10.2.11.DataStream API之Data Sink

?writeAsText():將元素以字符串形式逐行寫入,這些字符串通過調用每個元素的toString()方法來獲取
?print() / printToErr():打印每個元素的toString()方法的值到標準輸出或者標準錯誤輸出流中
?自定義輸出addSink【kafka、redis】

關于redis sink的案例:

import org.apache.flink.api.common.functions.MapFunction; import org.apache.flink.api.java.tuple.Tuple2; import org.apache.flink.streaming.api.datastream.DataStream; import org.apache.flink.streaming.api.datastream.DataStreamSource; import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment; import org.apache.flink.streaming.connectors.redis.RedisSink; import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig; import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommand; import org.apache.flink.streaming.connectors.redis.common.mapper.RedisCommandDescription; import org.apache.flink.streaming.connectors.redis.common.mapper.RedisMapper;/*** 接收socket數據,把數據保存到redis中** list** lpush list_key value** Created by xxxx on 2020/10/09 on 2018/10/23.*/ public class StreamingDemoToRedis {public static void main(String[] args) throws Exception{StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();DataStreamSource<String> text = env.socketTextStream("hadoop100", 9000, "\n");//lpsuh l_words word//對數據進行組裝,把string轉化為tuple2<String,String>DataStream<Tuple2<String, String>> l_wordsData = text.map(new MapFunction<String, Tuple2<String, String>>() {@Overridepublic Tuple2<String, String> map(String value) throws Exception {return new Tuple2<>("l_words", value);}});//創建redis的配置FlinkJedisPoolConfig conf = new FlinkJedisPoolConfig.Builder().setHost("hadoop110").setPort(6379).build();//創建redissinkRedisSink<Tuple2<String, String>> redisSink = new RedisSink<>(conf, new MyRedisMapper());l_wordsData.addSink(redisSink);env.execute("StreamingDemoToRedis");}public static class MyRedisMapper implements RedisMapper<Tuple2<String, String>>{//表示從接收的數據中獲取需要操作的redis key@Overridepublic String getKeyFromData(Tuple2<String, String> data) {return data.f0;}//表示從接收的數據中獲取需要操作的redis value@Overridepublic String getValueFromData(Tuple2<String, String> data) {return data.f1;}@Overridepublic RedisCommandDescription getCommandDescription() {return new RedisCommandDescription(RedisCommand.LPUSH);}} } import org.apache.flink.streaming.api.scala.StreamExecutionEnvironment import org.apache.flink.streaming.connectors.redis.RedisSink import org.apache.flink.streaming.connectors.redis.common.config.FlinkJedisPoolConfig import org.apache.flink.streaming.connectors.redis.common.mapper.{RedisCommand, RedisCommandDescription, RedisMapper}/***** Created by xxxx on 2020/10/09 .*/ object StreamingDataToRedisScala {def main(args: Array[String]): Unit = {//獲取socket端口號val port = 9000//獲取運行環境val env: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment//鏈接socket獲取輸入數據val text = env.socketTextStream("hadoop100",port,'\n')//注意:必須要添加這一行隱式轉行,否則下面的flatmap方法執行會報錯import org.apache.flink.api.scala._val l_wordsData = text.map(line=>("l_words_scala",line))val conf = new FlinkJedisPoolConfig.Builder().setHost("hadoop110").setPort(6379).build()val redisSink = new RedisSink[Tuple2[String,String]](conf,new MyRedisMapper)l_wordsData.addSink(redisSink)//執行任務env.execute("Socket window count");}class MyRedisMapper extends RedisMapper[Tuple2[String,String]]{override def getKeyFromData(data: (String, String)) = {data._1}override def getValueFromData(data: (String, String)) = {data._2}override def getCommandDescription = {new RedisCommandDescription(RedisCommand.LPUSH)}} }

總結

以上是生活随笔為你收集整理的1.10.Flink DataStreamAPI(API的抽象级别、Data Sources、connectors、Source容错性保证、Sink容错性保证、自定义sink、partition等)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

少妇高潮喷潮久久久影院 | 成 人 网 站国产免费观看 | 国产偷自视频区视频 | 国产超级va在线观看视频 | 国产亚洲精品久久久闺蜜 | 少妇无码av无码专区在线观看 | 清纯唯美经典一区二区 | 中文字幕无码人妻少妇免费 | 在线看片无码永久免费视频 | 日日天日日夜日日摸 | 亚洲一区二区三区偷拍女厕 | 色婷婷av一区二区三区之红樱桃 | 国内老熟妇对白xxxxhd | 国产精品无码一区二区桃花视频 | 欧美国产日韩久久mv | 中文字幕+乱码+中文字幕一区 | 女人和拘做爰正片视频 | 亚洲午夜久久久影院 | 国产人妻精品午夜福利免费 | 伊人久久大香线蕉亚洲 | 亚洲日韩乱码中文无码蜜桃臀网站 | 久久天天躁夜夜躁狠狠 | 水蜜桃色314在线观看 | 又紧又大又爽精品一区二区 | 欧美人妻一区二区三区 | 在线播放亚洲第一字幕 | 国产亚av手机在线观看 | 少妇性荡欲午夜性开放视频剧场 | 国产亚洲精品久久久久久久久动漫 | 欧美xxxx黑人又粗又长 | 对白脏话肉麻粗话av | 日日橹狠狠爱欧美视频 | 国产亚洲视频中文字幕97精品 | 无码人妻出轨黑人中文字幕 | 野狼第一精品社区 | 无码人妻精品一区二区三区不卡 | 午夜精品久久久内射近拍高清 | 在线观看国产一区二区三区 | 亚洲国产成人av在线观看 | 国产97在线 | 亚洲 | 人妻无码αv中文字幕久久琪琪布 | 国产一区二区三区精品视频 | 牲欲强的熟妇农村老妇女 | 丰满少妇熟乱xxxxx视频 | 亚洲综合无码久久精品综合 | 久9re热视频这里只有精品 | 久久精品国产精品国产精品污 | 99久久人妻精品免费一区 | 成在人线av无码免观看麻豆 | 丰满少妇熟乱xxxxx视频 | 欧美性生交xxxxx久久久 | 国产综合色产在线精品 | 水蜜桃亚洲一二三四在线 | 亚洲毛片av日韩av无码 | 国产一精品一av一免费 | 亚洲日韩一区二区三区 | 国产精品无套呻吟在线 | 熟女俱乐部五十路六十路av | 亚洲精品一区二区三区在线 | 国产av剧情md精品麻豆 | 5858s亚洲色大成网站www | 在线欧美精品一区二区三区 | 最新国产麻豆aⅴ精品无码 | 亚洲人成人无码网www国产 | 99久久久无码国产精品免费 | 国产乱子伦视频在线播放 | 好爽又高潮了毛片免费下载 | 老头边吃奶边弄进去呻吟 | 18黄暴禁片在线观看 | 强开小婷嫩苞又嫩又紧视频 | 最新版天堂资源中文官网 | 国产成人一区二区三区在线观看 | 亚洲精品综合一区二区三区在线 | 无码人妻丰满熟妇区毛片18 | 国产综合在线观看 | 中文亚洲成a人片在线观看 | 成人三级无码视频在线观看 | 暴力强奷在线播放无码 | 亚洲娇小与黑人巨大交 | 中文无码精品a∨在线观看不卡 | 女人被男人躁得好爽免费视频 | 亚洲va中文字幕无码久久不卡 | 久久久久久国产精品无码下载 | 少妇性l交大片欧洲热妇乱xxx | 免费看男女做好爽好硬视频 | 色综合久久久无码中文字幕 | 成人影院yy111111在线观看 | 999久久久国产精品消防器材 | 永久免费观看国产裸体美女 | 曰韩无码二三区中文字幕 | 桃花色综合影院 | 色五月五月丁香亚洲综合网 | 在线天堂新版最新版在线8 | 久久人人爽人人爽人人片av高清 | 在线精品亚洲一区二区 | 中文字幕 亚洲精品 第1页 | 性开放的女人aaa片 | 久久亚洲日韩精品一区二区三区 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲自偷自拍另类第1页 | 丰满诱人的人妻3 | 精品亚洲韩国一区二区三区 | 国产熟女一区二区三区四区五区 | 日韩成人一区二区三区在线观看 | 国产午夜福利100集发布 | 亚洲春色在线视频 | 国产 精品 自在自线 | 99精品国产综合久久久久五月天 | 亚洲欧洲日本综合aⅴ在线 | 无码任你躁久久久久久久 | 丰满人妻被黑人猛烈进入 | 免费男性肉肉影院 | 亚拍精品一区二区三区探花 | 十八禁真人啪啪免费网站 | 98国产精品综合一区二区三区 | 18禁止看的免费污网站 | 国产精品沙发午睡系列 | 未满成年国产在线观看 | 99久久亚洲精品无码毛片 | 九九在线中文字幕无码 | 300部国产真实乱 | 国产乱码精品一品二品 | aⅴ亚洲 日韩 色 图网站 播放 | 国产精品久久久久久亚洲影视内衣 | 精品久久8x国产免费观看 | 国产美女精品一区二区三区 | 国产激情无码一区二区 | 国产人妻精品一区二区三区不卡 | 97夜夜澡人人双人人人喊 | 人人妻在人人 | 激情亚洲一区国产精品 | 精品水蜜桃久久久久久久 | 国产无遮挡又黄又爽免费视频 | 7777奇米四色成人眼影 | 色五月五月丁香亚洲综合网 | 国产乱人伦av在线无码 | 亚洲欧美日韩成人高清在线一区 | 特黄特色大片免费播放器图片 | 丰满少妇高潮惨叫视频 | 无码纯肉视频在线观看 | 天堂无码人妻精品一区二区三区 | 国产精品无码一区二区桃花视频 | 亚洲自偷精品视频自拍 | 丰满少妇高潮惨叫视频 | 亚洲国产精品无码久久久久高潮 | 国产av无码专区亚洲a∨毛片 | 日本精品高清一区二区 | 捆绑白丝粉色jk震动捧喷白浆 | 国产成人精品一区二区在线小狼 | 人妻少妇精品久久 | 鲁鲁鲁爽爽爽在线视频观看 | 中文字幕无码免费久久99 | 在教室伦流澡到高潮hnp视频 | 少妇高潮喷潮久久久影院 | 午夜福利一区二区三区在线观看 | 亚洲 日韩 欧美 成人 在线观看 | 扒开双腿疯狂进出爽爽爽视频 | 97资源共享在线视频 | 精品无码国产自产拍在线观看蜜 | 久久综合香蕉国产蜜臀av | 精品无人国产偷自产在线 | 人妻无码αv中文字幕久久琪琪布 | 精品水蜜桃久久久久久久 | 99精品视频在线观看免费 | 丰满人妻翻云覆雨呻吟视频 | 中文字幕无码人妻少妇免费 | 欧美日韩视频无码一区二区三 | www国产亚洲精品久久网站 | 夜夜躁日日躁狠狠久久av | 熟女少妇人妻中文字幕 | 国产综合色产在线精品 | 水蜜桃亚洲一二三四在线 | 国产乱人伦av在线无码 | 免费观看黄网站 | 99精品久久毛片a片 | 亚洲国产成人av在线观看 | 天天拍夜夜添久久精品 | 久久久婷婷五月亚洲97号色 | 久久国语露脸国产精品电影 | 亚洲熟妇色xxxxx欧美老妇y | 日本一区二区更新不卡 | 久久 国产 尿 小便 嘘嘘 | 台湾无码一区二区 | 好爽又高潮了毛片免费下载 | 乱码av麻豆丝袜熟女系列 | 亚洲大尺度无码无码专区 | 99riav国产精品视频 | 国产成人综合在线女婷五月99播放 | 奇米影视888欧美在线观看 | 亚洲精品一区二区三区婷婷月 | 一二三四在线观看免费视频 | 亚洲一区二区三区播放 | 色综合天天综合狠狠爱 | 国产精品香蕉在线观看 | 国产成人无码av片在线观看不卡 | 激情内射日本一区二区三区 | 亚洲精品无码国产 | 国产性生交xxxxx无码 | 天干天干啦夜天干天2017 | 免费观看的无遮挡av | 99国产精品白浆在线观看免费 | 国产97在线 | 亚洲 | 欧美丰满熟妇xxxx性ppx人交 | 97夜夜澡人人双人人人喊 | 亚洲精品美女久久久久久久 | 久9re热视频这里只有精品 | 曰本女人与公拘交酡免费视频 | 人人妻人人澡人人爽欧美一区九九 | 亚洲综合另类小说色区 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲精品一区二区三区在线观看 | 久久久久免费看成人影片 | 国产午夜亚洲精品不卡下载 | 一个人看的视频www在线 | 内射老妇bbwx0c0ck | 亚洲色偷偷偷综合网 | 中文字幕无码免费久久9一区9 | 久久久久久亚洲精品a片成人 | 在线观看欧美一区二区三区 | 欧美大屁股xxxxhd黑色 | 国产成人精品久久亚洲高清不卡 | 少妇久久久久久人妻无码 | 国产区女主播在线观看 | 少妇无码av无码专区在线观看 | 国产激情无码一区二区 | 久久精品国产大片免费观看 | 色狠狠av一区二区三区 | 无码av岛国片在线播放 | 欧美丰满老熟妇xxxxx性 | 欧美成人家庭影院 | 中文字幕久久久久人妻 | 国产精品办公室沙发 | 网友自拍区视频精品 | 精品乱子伦一区二区三区 | 装睡被陌生人摸出水好爽 | 成人毛片一区二区 | 内射老妇bbwx0c0ck | 国产人妻久久精品二区三区老狼 | 国产一精品一av一免费 | aa片在线观看视频在线播放 | 久久亚洲国产成人精品性色 | 国产婷婷色一区二区三区在线 | 精品欧美一区二区三区久久久 | 又大又紧又粉嫩18p少妇 | 无码av免费一区二区三区试看 | 俺去俺来也www色官网 | 亚欧洲精品在线视频免费观看 | 精品一区二区三区无码免费视频 | 麻豆人妻少妇精品无码专区 | 牲欲强的熟妇农村老妇女视频 | 水蜜桃亚洲一二三四在线 | 久久五月精品中文字幕 | 欧美人与禽猛交狂配 | 国产高清不卡无码视频 | 99久久精品日本一区二区免费 | 久久人妻内射无码一区三区 | 波多野42部无码喷潮在线 | 成年美女黄网站色大免费视频 | 国产精品久久久一区二区三区 | 亚洲国产av精品一区二区蜜芽 | 亚洲の无码国产の无码影院 | 狠狠色丁香久久婷婷综合五月 | 18禁黄网站男男禁片免费观看 | 高清不卡一区二区三区 | 国产精品久久久久久无码 | 亚洲中文字幕成人无码 | 少妇人妻偷人精品无码视频 | 成人一在线视频日韩国产 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 欧美熟妇另类久久久久久不卡 | 亚洲小说春色综合另类 | 熟女体下毛毛黑森林 | 内射巨臀欧美在线视频 | 久久久国产精品无码免费专区 | 少妇太爽了在线观看 | 国产精品18久久久久久麻辣 | 国产一区二区三区影院 | 亚洲精品国产第一综合99久久 | 18禁黄网站男男禁片免费观看 | 日韩精品乱码av一区二区 | 国产网红无码精品视频 | 亚洲a无码综合a国产av中文 | 国产疯狂伦交大片 | 久久天天躁狠狠躁夜夜免费观看 | 蜜桃视频韩日免费播放 | 强辱丰满人妻hd中文字幕 | 国产成人一区二区三区在线观看 | 国产xxx69麻豆国语对白 | 97夜夜澡人人爽人人喊中国片 | 国产精品无码成人午夜电影 | 无码免费一区二区三区 | 免费无码一区二区三区蜜桃大 | 久久婷婷五月综合色国产香蕉 | 免费播放一区二区三区 | 人妻少妇精品无码专区二区 | 好屌草这里只有精品 | 1000部啪啪未满十八勿入下载 | 亚洲天堂2017无码中文 | 99riav国产精品视频 | 亚洲精品国产精品乱码不卡 | 精品aⅴ一区二区三区 | 老熟妇仑乱视频一区二区 | 国产精品久久久久无码av色戒 | 国产美女极度色诱视频www | 成在人线av无码免费 | 国产精品-区区久久久狼 | 亚洲国产av美女网站 | 在线播放无码字幕亚洲 | 波多野结衣aⅴ在线 | www国产亚洲精品久久久日本 | 国产无遮挡又黄又爽又色 | 欧美35页视频在线观看 | 少妇激情av一区二区 | 久久久精品欧美一区二区免费 | 精品国产一区二区三区四区 | 国产精品久久久久久久影院 | 无码人妻精品一区二区三区下载 | 精品久久8x国产免费观看 | √天堂资源地址中文在线 | 草草网站影院白丝内射 | 少妇无套内谢久久久久 | 国产综合色产在线精品 | 亚洲欧美色中文字幕在线 | 欧美猛少妇色xxxxx | 少妇太爽了在线观看 | 久久久久99精品成人片 | 黑人巨大精品欧美黑寡妇 | 人人妻人人澡人人爽欧美一区 | 日韩欧美中文字幕公布 | 国产精品久久久一区二区三区 | 国产农村妇女高潮大叫 | 日本乱偷人妻中文字幕 | 日本又色又爽又黄的a片18禁 | 亚洲精品国偷拍自产在线麻豆 | 99久久精品日本一区二区免费 | 男人的天堂2018无码 | 大屁股大乳丰满人妻 | 成在人线av无码免观看麻豆 | а√天堂www在线天堂小说 | 国产亚av手机在线观看 | 欧美日韩亚洲国产精品 | 国产极品美女高潮无套在线观看 | 国产凸凹视频一区二区 | 久久亚洲国产成人精品性色 | 亚洲日韩av一区二区三区四区 | 又湿又紧又大又爽a视频国产 | 波多野结衣aⅴ在线 | 无码精品人妻一区二区三区av | 精品亚洲成av人在线观看 | 欧美日韩一区二区三区自拍 | 国产真实伦对白全集 | 婷婷五月综合缴情在线视频 | 西西人体www44rt大胆高清 | 亚洲伊人久久精品影院 | 国产成人综合在线女婷五月99播放 | 伊人久久婷婷五月综合97色 | 亚洲色在线无码国产精品不卡 | 鲁鲁鲁爽爽爽在线视频观看 | 一区二区传媒有限公司 | 国产精品福利视频导航 | 波多野结衣aⅴ在线 | 黑人巨大精品欧美黑寡妇 | 日本乱偷人妻中文字幕 | 久久伊人色av天堂九九小黄鸭 | 初尝人妻少妇中文字幕 | 国产精品爱久久久久久久 | 300部国产真实乱 | 一本久道高清无码视频 | 欧美三级不卡在线观看 | 久久午夜夜伦鲁鲁片无码免费 | 国产 浪潮av性色四虎 | 最近免费中文字幕中文高清百度 | 无码一区二区三区在线观看 | 久久视频在线观看精品 | 亚洲 日韩 欧美 成人 在线观看 | 又大又硬又爽免费视频 | 国产精品手机免费 | 亚洲精品一区二区三区在线观看 | 玩弄中年熟妇正在播放 | 天海翼激烈高潮到腰振不止 | 大地资源中文第3页 | 蜜桃臀无码内射一区二区三区 | 丝袜 中出 制服 人妻 美腿 | 国产午夜精品一区二区三区嫩草 | 久久久精品人妻久久影视 | 久久久精品成人免费观看 | www一区二区www免费 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲人成影院在线无码按摩店 | 网友自拍区视频精品 | 沈阳熟女露脸对白视频 | 成熟人妻av无码专区 | 国产精品美女久久久网av | 亚洲男人av天堂午夜在 | 国产精品二区一区二区aⅴ污介绍 | 图片区 小说区 区 亚洲五月 | 亚洲va欧美va天堂v国产综合 | 欧美大屁股xxxxhd黑色 | 亚洲成av人片天堂网无码】 | 国产av人人夜夜澡人人爽麻豆 | 秋霞成人午夜鲁丝一区二区三区 | 国产超级va在线观看视频 | 99精品国产综合久久久久五月天 | 国产午夜福利100集发布 | 青青青手机频在线观看 | 成人无码影片精品久久久 | 少妇被粗大的猛进出69影院 | 少妇性荡欲午夜性开放视频剧场 | 少妇太爽了在线观看 | 国产成人综合色在线观看网站 | 国产精品亚洲一区二区三区喷水 | 国产疯狂伦交大片 | 精品国产aⅴ无码一区二区 | 久久无码中文字幕免费影院蜜桃 | 鲁大师影院在线观看 | 人妻人人添人妻人人爱 | 人妻少妇精品无码专区二区 | 精品国产成人一区二区三区 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 免费男性肉肉影院 | 国产精品怡红院永久免费 | 亚洲人交乣女bbw | 天堂久久天堂av色综合 | 亚洲人成影院在线无码按摩店 | 一本大道久久东京热无码av | 无套内谢老熟女 | 精品一区二区三区波多野结衣 | 人妻少妇被猛烈进入中文字幕 | 人人澡人人妻人人爽人人蜜桃 | 国产va免费精品观看 | 中文字幕日韩精品一区二区三区 | 最近免费中文字幕中文高清百度 | а√资源新版在线天堂 | 99麻豆久久久国产精品免费 | 奇米影视7777久久精品人人爽 | 亚洲精品午夜无码电影网 | 久久www免费人成人片 | 欧美人与善在线com | 国产激情一区二区三区 | 少妇人妻大乳在线视频 | 国产超碰人人爽人人做人人添 | 精品欧美一区二区三区久久久 | 成人毛片一区二区 | 亚洲第一无码av无码专区 | 国产午夜无码精品免费看 | 动漫av一区二区在线观看 | 久久精品无码一区二区三区 | 亚洲天堂2017无码中文 | 欧美黑人乱大交 | 久久99精品久久久久久 | 色五月五月丁香亚洲综合网 | 激情国产av做激情国产爱 | 学生妹亚洲一区二区 | 天天拍夜夜添久久精品大 | 98国产精品综合一区二区三区 | 亲嘴扒胸摸屁股激烈网站 | 亚洲色偷偷男人的天堂 | 亚洲精品久久久久中文第一幕 | 亚洲色偷偷男人的天堂 | 无码精品人妻一区二区三区av | 亚洲精品中文字幕久久久久 | 久久久久99精品成人片 | 亚洲日本va中文字幕 | 国产精品国产三级国产专播 | 亚洲熟妇色xxxxx欧美老妇 | 亚洲一区av无码专区在线观看 | 婷婷六月久久综合丁香 | 国内揄拍国内精品少妇国语 | 成人精品视频一区二区三区尤物 | 久9re热视频这里只有精品 | 欧美 亚洲 国产 另类 | 欧美午夜特黄aaaaaa片 | 黑人粗大猛烈进出高潮视频 | 日本欧美一区二区三区乱码 | 波多野42部无码喷潮在线 | 国产精品无码mv在线观看 | 黑人玩弄人妻中文在线 | 天天摸天天碰天天添 | 熟女俱乐部五十路六十路av | 岛国片人妻三上悠亚 | 午夜免费福利小电影 | 娇妻被黑人粗大高潮白浆 | 日产精品99久久久久久 | 亚洲国产精品无码一区二区三区 | 大肉大捧一进一出视频出来呀 | 天堂а√在线地址中文在线 | 免费播放一区二区三区 | 国产精品亚洲一区二区三区喷水 | 高潮毛片无遮挡高清免费视频 | 欧洲精品码一区二区三区免费看 | 水蜜桃av无码 | 少妇一晚三次一区二区三区 | 强奷人妻日本中文字幕 | 麻豆果冻传媒2021精品传媒一区下载 | 久久久久成人精品免费播放动漫 | 国产sm调教视频在线观看 | 无套内谢老熟女 | а√天堂www在线天堂小说 | 日本高清一区免费中文视频 | 波多野结衣aⅴ在线 | 日韩成人一区二区三区在线观看 | 久久久精品456亚洲影院 | 亚洲高清偷拍一区二区三区 | 成在人线av无码免观看麻豆 | 波多野结衣av在线观看 | 国内精品九九久久久精品 | 内射白嫩少妇超碰 | 亚欧洲精品在线视频免费观看 | 1000部夫妻午夜免费 | 图片区 小说区 区 亚洲五月 | 欧洲美熟女乱又伦 | 国产片av国语在线观看 | 久久久国产一区二区三区 | 久久久成人毛片无码 | 老熟妇仑乱视频一区二区 | 国产超碰人人爽人人做人人添 | 色综合天天综合狠狠爱 | 无码人妻丰满熟妇区毛片18 | 亚洲熟妇色xxxxx亚洲 | 男女超爽视频免费播放 | 成在人线av无码免观看麻豆 | 精品久久久久久亚洲精品 | 国产精品久久久久9999小说 | 任你躁在线精品免费 | 久久久久久亚洲精品a片成人 | 日产精品99久久久久久 | 国产亚洲tv在线观看 | 夜夜影院未满十八勿进 | 国产精品无套呻吟在线 | 最新版天堂资源中文官网 | 久久久无码中文字幕久... | 国产日产欧产精品精品app | 亲嘴扒胸摸屁股激烈网站 | 亚洲第一网站男人都懂 | 欧美阿v高清资源不卡在线播放 | 国产一区二区三区精品视频 | 日韩精品a片一区二区三区妖精 | 丰满少妇熟乱xxxxx视频 | 日韩在线不卡免费视频一区 | 又大又硬又黄的免费视频 | 天干天干啦夜天干天2017 | 午夜成人1000部免费视频 | 无码毛片视频一区二区本码 | 亚洲日韩精品欧美一区二区 | 成人欧美一区二区三区黑人 | 日本在线高清不卡免费播放 | 窝窝午夜理论片影院 | 色婷婷久久一区二区三区麻豆 | 欧美性生交活xxxxxdddd | 色窝窝无码一区二区三区色欲 | 欧美阿v高清资源不卡在线播放 | 色窝窝无码一区二区三区色欲 | 婷婷色婷婷开心五月四房播播 | 狠狠亚洲超碰狼人久久 | 亚洲成a人一区二区三区 | 国产亚洲精品久久久久久国模美 | 久久久精品欧美一区二区免费 | 成人欧美一区二区三区黑人免费 | 女人和拘做爰正片视频 | 国产一区二区三区影院 | 狠狠色丁香久久婷婷综合五月 | 日本在线高清不卡免费播放 | 中文字幕无码av波多野吉衣 | 永久免费观看美女裸体的网站 | 国产色xx群视频射精 | 亚洲精品成人av在线 | 国产精品久久久一区二区三区 | 亚洲人成影院在线无码按摩店 | 亚洲第一无码av无码专区 | 日日摸夜夜摸狠狠摸婷婷 | 内射老妇bbwx0c0ck | 日本一卡二卡不卡视频查询 | 国产在线aaa片一区二区99 | 久精品国产欧美亚洲色aⅴ大片 | 中文精品无码中文字幕无码专区 | 香港三级日本三级妇三级 | 狠狠色噜噜狠狠狠狠7777米奇 | 东北女人啪啪对白 | 人妻有码中文字幕在线 | 四虎4hu永久免费 | 午夜丰满少妇性开放视频 | 国产精品人妻一区二区三区四 | 两性色午夜视频免费播放 | 日本欧美一区二区三区乱码 | 7777奇米四色成人眼影 | 婷婷丁香五月天综合东京热 | 色婷婷综合激情综在线播放 | 亚洲成av人在线观看网址 | 久久精品国产精品国产精品污 | 国产香蕉尹人视频在线 | 国产国语老龄妇女a片 | 露脸叫床粗话东北少妇 | 波多野结衣av在线观看 | аⅴ资源天堂资源库在线 | 亚洲第一无码av无码专区 | 亚洲精品综合五月久久小说 | 国产av一区二区三区最新精品 | 色综合久久中文娱乐网 | 亚洲综合无码一区二区三区 | 又黄又爽又色的视频 | 日本熟妇乱子伦xxxx | 国产尤物精品视频 | 久久国产精品萌白酱免费 | 成熟妇人a片免费看网站 | 少妇邻居内射在线 | 美女张开腿让人桶 | 无码午夜成人1000部免费视频 | 色欲综合久久中文字幕网 | 久久久久久久久蜜桃 | 任你躁国产自任一区二区三区 | 国产乱人伦偷精品视频 | 天堂一区人妻无码 | 黑人玩弄人妻中文在线 | 亚洲热妇无码av在线播放 | 亚洲爆乳无码专区 | 亚洲人成影院在线观看 | 精品人妻人人做人人爽 | 欧美变态另类xxxx | 狠狠色丁香久久婷婷综合五月 | 伊人久久婷婷五月综合97色 | 亚洲高清偷拍一区二区三区 | 国内少妇偷人精品视频免费 | 成人影院yy111111在线观看 | 欧美亚洲国产一区二区三区 | 天堂无码人妻精品一区二区三区 | 久久综合九色综合97网 | 美女扒开屁股让男人桶 | 丰满人妻翻云覆雨呻吟视频 | 在线播放免费人成毛片乱码 | 日日摸日日碰夜夜爽av | 一本久道久久综合婷婷五月 | 亚洲自偷自偷在线制服 | 亚洲精品中文字幕 | 亚洲日本va中文字幕 | 人妻少妇精品无码专区二区 | www国产精品内射老师 | 亚洲乱码中文字幕在线 | 亚洲欧美色中文字幕在线 | 久久人人爽人人人人片 | 亚洲成a人片在线观看日本 | 亚洲精品无码国产 | 欧美35页视频在线观看 | 国产成人无码午夜视频在线观看 | 久久精品视频在线看15 | 国产特级毛片aaaaaa高潮流水 | 日韩亚洲欧美精品综合 | 久久综合香蕉国产蜜臀av | 久久99精品久久久久久动态图 | 久久久精品欧美一区二区免费 | 成人片黄网站色大片免费观看 | 中文字幕 亚洲精品 第1页 | 18无码粉嫩小泬无套在线观看 | 欧美国产日韩久久mv | 精品久久综合1区2区3区激情 | 国产电影无码午夜在线播放 | 国产国语老龄妇女a片 | 久久精品99久久香蕉国产色戒 | 中文字幕精品av一区二区五区 | 亚洲午夜久久久影院 | 99麻豆久久久国产精品免费 | 久久婷婷五月综合色国产香蕉 | 亚洲国产成人a精品不卡在线 | 日本肉体xxxx裸交 | v一区无码内射国产 | 久久人人爽人人爽人人片ⅴ | 欧美日本日韩 | 亚洲国产成人a精品不卡在线 | 中文字幕+乱码+中文字幕一区 | 六月丁香婷婷色狠狠久久 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产无av码在线观看 | 国产成人无码av在线影院 | 免费观看的无遮挡av | 亚洲中文字幕久久无码 | 狠狠噜狠狠狠狠丁香五月 | 国产成人无码区免费内射一片色欲 | 国产成人无码区免费内射一片色欲 | 国产精品igao视频网 | 国内精品九九久久久精品 | 乱人伦中文视频在线观看 | 2020久久香蕉国产线看观看 | 巨爆乳无码视频在线观看 | 精品国产一区av天美传媒 | 国产偷抇久久精品a片69 | 色噜噜亚洲男人的天堂 | 欧洲美熟女乱又伦 | 欧美人与禽zoz0性伦交 | 国产av无码专区亚洲awww | 国产午夜无码精品免费看 | 亚洲经典千人经典日产 | 无码毛片视频一区二区本码 | 国产xxx69麻豆国语对白 | 婷婷五月综合缴情在线视频 | 国产无套内射久久久国产 | 牲交欧美兽交欧美 | 国内少妇偷人精品视频免费 | 澳门永久av免费网站 | 亚洲国产精品一区二区第一页 | 久久久国产精品无码免费专区 | 欧美日韩一区二区免费视频 | 欧美大屁股xxxxhd黑色 | 少妇久久久久久人妻无码 | 日本精品少妇一区二区三区 | 久久aⅴ免费观看 | 亚洲精品一区二区三区在线观看 | www国产精品内射老师 | 一个人看的www免费视频在线观看 | 亚洲小说春色综合另类 | 中文精品无码中文字幕无码专区 | 亚洲国产精品毛片av不卡在线 | 国产麻豆精品精东影业av网站 | 国产精品无码久久av | 小鲜肉自慰网站xnxx | 玩弄中年熟妇正在播放 | 久久人妻内射无码一区三区 | 欧美35页视频在线观看 | 午夜无码人妻av大片色欲 | 兔费看少妇性l交大片免费 | 丰满人妻精品国产99aⅴ | 久久精品人妻少妇一区二区三区 | 成人影院yy111111在线观看 | 最近中文2019字幕第二页 | 欧美 亚洲 国产 另类 | 西西人体www44rt大胆高清 | 国产区女主播在线观看 | 大地资源网第二页免费观看 | 99在线 | 亚洲 | 老熟妇乱子伦牲交视频 | 欧美日韩一区二区综合 | 成年女人永久免费看片 | 精品国产一区av天美传媒 | 无码国产激情在线观看 | 极品嫩模高潮叫床 | 一本大道伊人av久久综合 | 中文字幕乱码亚洲无线三区 | 樱花草在线社区www | 无码午夜成人1000部免费视频 | 国产精品内射视频免费 | 国产精品第一区揄拍无码 | 亚洲综合精品香蕉久久网 | 亚洲一区二区三区 | 99久久婷婷国产综合精品青草免费 | 爱做久久久久久 | 国产艳妇av在线观看果冻传媒 | 日本成熟视频免费视频 | 日日摸日日碰夜夜爽av | 在教室伦流澡到高潮hnp视频 | 丰腴饱满的极品熟妇 | 国产片av国语在线观看 | 国产欧美精品一区二区三区 | 无码av中文字幕免费放 | 国产精品无码一区二区三区不卡 | 少妇人妻偷人精品无码视频 | 妺妺窝人体色www婷婷 | 国产免费无码一区二区视频 | 国产精品美女久久久久av爽李琼 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 东京热一精品无码av | 人妻少妇精品无码专区二区 | 日韩视频 中文字幕 视频一区 | 欧美日韩亚洲国产精品 | 国产内射老熟女aaaa | 98国产精品综合一区二区三区 | 亚洲精品一区二区三区在线观看 | 国内精品九九久久久精品 | 99精品久久毛片a片 | 日韩精品成人一区二区三区 | 亚洲第一无码av无码专区 | 精品偷自拍另类在线观看 | 亚洲精品午夜无码电影网 | 国产无套粉嫩白浆在线 | 国产亚洲精品久久久闺蜜 | 激情人妻另类人妻伦 | 久久久久亚洲精品中文字幕 | 精品人妻中文字幕有码在线 | 国产精品香蕉在线观看 | 99久久精品日本一区二区免费 | 丰满肥臀大屁股熟妇激情视频 | 在线视频网站www色 | 国产成人无码av片在线观看不卡 | 国产午夜无码精品免费看 | 国产av剧情md精品麻豆 | 中文字幕亚洲情99在线 | 18禁黄网站男男禁片免费观看 | 午夜无码人妻av大片色欲 | 国产成人无码午夜视频在线观看 | 久久99精品国产.久久久久 | 在线观看国产午夜福利片 | 亚洲精品国产a久久久久久 | 窝窝午夜理论片影院 | a国产一区二区免费入口 | 偷窥日本少妇撒尿chinese | 亚洲中文字幕无码中文字在线 | 日日躁夜夜躁狠狠躁 | 水蜜桃亚洲一二三四在线 | 国产香蕉97碰碰久久人人 | 中文字幕无码乱人伦 | 国产精品99爱免费视频 | 亚洲天堂2017无码中文 | 黑人巨大精品欧美一区二区 | 中文字幕无码免费久久9一区9 | 国产成人精品三级麻豆 | 久久久久国色av免费观看性色 | 又湿又紧又大又爽a视频国产 | 国产国语老龄妇女a片 | 国产成人精品久久亚洲高清不卡 | 欧美怡红院免费全部视频 | 亚洲色偷偷男人的天堂 | 成人影院yy111111在线观看 | 久久精品人人做人人综合 | 欧美成人家庭影院 | 亚洲色偷偷男人的天堂 | 奇米影视888欧美在线观看 | 国产精品第一国产精品 | 亚洲熟妇色xxxxx欧美老妇 | 国产手机在线αⅴ片无码观看 | 日本www一道久久久免费榴莲 | 日日摸天天摸爽爽狠狠97 | 国产乱人偷精品人妻a片 | 少妇人妻大乳在线视频 | 少妇久久久久久人妻无码 | 久久99精品久久久久久 | 狠狠综合久久久久综合网 | 欧美老熟妇乱xxxxx | 国产精品毛多多水多 | 99久久人妻精品免费一区 | 无码国模国产在线观看 | 欧美日韩久久久精品a片 | 天天躁夜夜躁狠狠是什么心态 | 国产偷国产偷精品高清尤物 | 一本久道久久综合婷婷五月 | 日日躁夜夜躁狠狠躁 | 成人无码精品1区2区3区免费看 | 久久aⅴ免费观看 | 久久综合给久久狠狠97色 | 少妇人妻偷人精品无码视频 | 日韩少妇白浆无码系列 | 丰满人妻一区二区三区免费视频 | 女高中生第一次破苞av | 黑人大群体交免费视频 | 激情人妻另类人妻伦 | 久久久久亚洲精品男人的天堂 | 最近中文2019字幕第二页 | 久久综合激激的五月天 | 国产情侣作爱视频免费观看 | 久久久久久久久蜜桃 | 妺妺窝人体色www在线小说 | 久久久av男人的天堂 | 亚洲男人av香蕉爽爽爽爽 | 国产又爽又黄又刺激的视频 | 精品国精品国产自在久国产87 | 爆乳一区二区三区无码 | 亚洲无人区一区二区三区 | 欧美熟妇另类久久久久久不卡 | 亚洲欧美日韩国产精品一区二区 | 曰本女人与公拘交酡免费视频 | 久久精品国产日本波多野结衣 | 又大又紧又粉嫩18p少妇 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 国产成人综合在线女婷五月99播放 | 成在人线av无码免观看麻豆 | 日本在线高清不卡免费播放 | 成人毛片一区二区 | 国产在线精品一区二区高清不卡 | 天堂а√在线中文在线 | 国产成人av免费观看 | 久久久精品成人免费观看 | 久久亚洲中文字幕精品一区 | 国产色xx群视频射精 | 强伦人妻一区二区三区视频18 | 特级做a爰片毛片免费69 | 亚洲成a人一区二区三区 | 中文字幕 人妻熟女 | 兔费看少妇性l交大片免费 | 男女爱爱好爽视频免费看 | 日本一区二区更新不卡 | 国产成人午夜福利在线播放 | 四十如虎的丰满熟妇啪啪 | 久久综合久久自在自线精品自 | 狂野欧美激情性xxxx | 国产精品美女久久久网av | 免费国产成人高清在线观看网站 | 丁香花在线影院观看在线播放 | 四虎永久在线精品免费网址 | 波多野42部无码喷潮在线 | 国产9 9在线 | 中文 | 天天摸天天透天天添 | 午夜精品久久久内射近拍高清 | 成在人线av无码免观看麻豆 | 亚洲中文字幕无码中文字在线 | 丰满护士巨好爽好大乳 | 日本高清一区免费中文视频 | 日本熟妇大屁股人妻 | 亚洲综合伊人久久大杳蕉 | 丰满人妻翻云覆雨呻吟视频 | 俄罗斯老熟妇色xxxx | 亚洲色欲久久久综合网东京热 | 国产精品久久久久7777 | 国产人妻精品午夜福利免费 | 丰满岳乱妇在线观看中字无码 | 久久精品女人的天堂av | 兔费看少妇性l交大片免费 | 欧洲欧美人成视频在线 | 日韩av无码一区二区三区不卡 | 狠狠综合久久久久综合网 | 日日碰狠狠丁香久燥 | 最近的中文字幕在线看视频 | 亚洲国产精品久久久天堂 | 亚洲熟妇色xxxxx欧美老妇 | 99久久精品国产一区二区蜜芽 | 婷婷六月久久综合丁香 | 久久久www成人免费毛片 | 九九久久精品国产免费看小说 | 国产精品久久久久7777 | 内射白嫩少妇超碰 | 4hu四虎永久在线观看 | 国产又爽又黄又刺激的视频 | 亚洲国产精品无码久久久久高潮 | 欧美丰满老熟妇xxxxx性 | 亚洲中文字幕久久无码 | 男女超爽视频免费播放 | 真人与拘做受免费视频一 | 成人一在线视频日韩国产 | 亚洲人成影院在线无码按摩店 | 亚洲色偷偷偷综合网 | 日本熟妇浓毛 | 国产人妖乱国产精品人妖 | 欧美老人巨大xxxx做受 | 欧美日本日韩 | 又大又硬又黄的免费视频 | 亚洲中文无码av永久不收费 | 国产无套粉嫩白浆在线 | 无遮无挡爽爽免费视频 | 欧美黑人性暴力猛交喷水 | 少妇人妻av毛片在线看 | 日欧一片内射va在线影院 | 亚洲人成网站在线播放942 | 夜夜夜高潮夜夜爽夜夜爰爰 | 天天综合网天天综合色 | 国产在线精品一区二区高清不卡 | 亚洲熟妇自偷自拍另类 | 久久综合香蕉国产蜜臀av | 蜜臀av在线观看 在线欧美精品一区二区三区 | 国产乱人偷精品人妻a片 | 色欲人妻aaaaaaa无码 | 久久国产精品精品国产色婷婷 | 伊人久久大香线焦av综合影院 | 亚洲s色大片在线观看 | 国产真实乱对白精彩久久 | 亚洲欧美日韩国产精品一区二区 | 久久精品一区二区三区四区 | 扒开双腿吃奶呻吟做受视频 | 好男人社区资源 | 国产美女极度色诱视频www | 日日摸日日碰夜夜爽av | 精品无码一区二区三区的天堂 | 麻豆精产国品 | 丰满肥臀大屁股熟妇激情视频 | 欧美黑人性暴力猛交喷水 | 1000部夫妻午夜免费 | 1000部夫妻午夜免费 | 欧美变态另类xxxx | 日本www一道久久久免费榴莲 | 5858s亚洲色大成网站www | 大色综合色综合网站 | 日本大香伊一区二区三区 | 欧美黑人性暴力猛交喷水 | 人人爽人人澡人人高潮 | 亚洲va中文字幕无码久久不卡 | 日日天日日夜日日摸 | 国产色视频一区二区三区 | 一本久道高清无码视频 | 黑人巨大精品欧美一区二区 | 亚洲成av人片天堂网无码】 | 亚洲 a v无 码免 费 成 人 a v | 欧美午夜特黄aaaaaa片 | 国产97在线 | 亚洲 | √天堂资源地址中文在线 | 少妇高潮喷潮久久久影院 | 色狠狠av一区二区三区 | 久热国产vs视频在线观看 | 国产国语老龄妇女a片 | 久久久久久a亚洲欧洲av冫 | 亚洲日本在线电影 | 国产97人人超碰caoprom | 国产精品久久久av久久久 | 免费国产成人高清在线观看网站 | 亚洲人成网站色7799 | 国产成人无码区免费内射一片色欲 | 2020久久香蕉国产线看观看 | 国产午夜视频在线观看 | 亚洲日韩一区二区三区 | 性欧美大战久久久久久久 | 国产精品毛片一区二区 | 国内精品人妻无码久久久影院 | 欧美乱妇无乱码大黄a片 | 精品欧美一区二区三区久久久 | 久久久www成人免费毛片 | 精品国产国产综合精品 | 精品国产成人一区二区三区 | 久久国产精品精品国产色婷婷 | 欧美成人高清在线播放 | 精品无码av一区二区三区 | 久久99精品久久久久久动态图 | 东京一本一道一二三区 | 国产精品久久久久久亚洲毛片 | 国产人妖乱国产精品人妖 | 欧美一区二区三区 | 超碰97人人做人人爱少妇 | 麻花豆传媒剧国产免费mv在线 | 亚洲国产精品久久久天堂 | 欧美freesex黑人又粗又大 | 国产熟女一区二区三区四区五区 | 国产精品人人爽人人做我的可爱 | 亚洲码国产精品高潮在线 | yw尤物av无码国产在线观看 | 亚洲国产精品美女久久久久 | 日韩精品无码一区二区中文字幕 | 男女超爽视频免费播放 | 亚洲色偷偷偷综合网 | 精品aⅴ一区二区三区 | 亚洲日韩av一区二区三区四区 | 国产人妻精品一区二区三区 | 久久精品国产大片免费观看 | 香蕉久久久久久av成人 | 色偷偷人人澡人人爽人人模 | 5858s亚洲色大成网站www | 蜜桃av抽搐高潮一区二区 | 午夜精品久久久久久久 | 中文字幕av无码一区二区三区电影 | 国产无套内射久久久国产 | 夜夜躁日日躁狠狠久久av | 一本加勒比波多野结衣 | 妺妺窝人体色www在线小说 | 欧美熟妇另类久久久久久不卡 | 给我免费的视频在线观看 | 无码国内精品人妻少妇 | 牲欲强的熟妇农村老妇女视频 | 中文久久乱码一区二区 | 国产精品18久久久久久麻辣 | 日本高清一区免费中文视频 | 精品aⅴ一区二区三区 | 国产综合久久久久鬼色 | 国产精品久免费的黄网站 | 老太婆性杂交欧美肥老太 | 亚洲日韩中文字幕在线播放 | 亚洲a无码综合a国产av中文 | 国产一精品一av一免费 | 天堂а√在线地址中文在线 | 国产精品亚洲а∨无码播放麻豆 | 久久亚洲日韩精品一区二区三区 | 国产九九九九九九九a片 | 亚洲 欧美 激情 小说 另类 | 内射爽无广熟女亚洲 | 狠狠色丁香久久婷婷综合五月 | 午夜性刺激在线视频免费 | a在线观看免费网站大全 | 国产亚洲精品久久久久久 | 久久久久免费看成人影片 | 少妇厨房愉情理9仑片视频 | 国精产品一品二品国精品69xx | 成人三级无码视频在线观看 | 日日干夜夜干 | а√资源新版在线天堂 | 内射白嫩少妇超碰 | 亚洲成色www久久网站 | 大乳丰满人妻中文字幕日本 | 天堂а√在线中文在线 | 男人的天堂2018无码 | 精品成人av一区二区三区 | 少妇无码一区二区二三区 | 欧美午夜特黄aaaaaa片 | 国产偷抇久久精品a片69 | 亚洲精品鲁一鲁一区二区三区 | 又黄又爽又色的视频 | 伊人久久大香线焦av综合影院 | 激情国产av做激情国产爱 | 国产成人精品必看 | 97久久超碰中文字幕 | 国产精品理论片在线观看 | 日韩 欧美 动漫 国产 制服 | 国产欧美熟妇另类久久久 | 国产成人一区二区三区别 | 奇米影视7777久久精品 | 免费播放一区二区三区 | 人人妻人人澡人人爽欧美一区 | 日韩精品a片一区二区三区妖精 | 亚洲成a人片在线观看日本 | 亚洲色成人中文字幕网站 | 丰满岳乱妇在线观看中字无码 | 东京热男人av天堂 | 激情人妻另类人妻伦 | 久久99精品久久久久婷婷 | 男人和女人高潮免费网站 | 男人扒开女人内裤强吻桶进去 | 欧美性色19p | 玩弄少妇高潮ⅹxxxyw | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 亚洲а∨天堂久久精品2021 | 精品日本一区二区三区在线观看 | 亚洲精品综合五月久久小说 | 国产莉萝无码av在线播放 | 日日碰狠狠躁久久躁蜜桃 | 色窝窝无码一区二区三区色欲 | 久久精品女人天堂av免费观看 | 99久久精品无码一区二区毛片 | 少妇无码一区二区二三区 | 一本久道高清无码视频 | 亚洲精品综合五月久久小说 | 亚洲 另类 在线 欧美 制服 | 亚洲爆乳无码专区 | 97资源共享在线视频 | 国内综合精品午夜久久资源 | 夜夜影院未满十八勿进 | av小次郎收藏 | 免费人成在线视频无码 | 亚洲热妇无码av在线播放 | 国产 精品 自在自线 | 久久精品国产99精品亚洲 | 国产日产欧产精品精品app | 激情国产av做激情国产爱 | 大地资源网第二页免费观看 | 欧美丰满熟妇xxxx | 日韩精品一区二区av在线 | 成人欧美一区二区三区黑人免费 | 免费观看又污又黄的网站 | 波多野42部无码喷潮在线 | 精品久久久中文字幕人妻 | 性色av无码免费一区二区三区 | 国产av一区二区精品久久凹凸 | 免费看少妇作爱视频 | 亚洲国产欧美日韩精品一区二区三区 | 熟妇人妻无乱码中文字幕 | 国产精品久久久午夜夜伦鲁鲁 | 日本又色又爽又黄的a片18禁 | 我要看www免费看插插视频 | 亚洲 高清 成人 动漫 | yw尤物av无码国产在线观看 | 国产成人无码a区在线观看视频app | 久久精品中文字幕一区 | 久久精品成人欧美大片 | 日本www一道久久久免费榴莲 | 国产免费久久精品国产传媒 | 国产精品久久久久影院嫩草 | 99re在线播放 | 玩弄少妇高潮ⅹxxxyw | 国产成人精品一区二区在线小狼 | 成在人线av无码免费 | 人妻中文无码久热丝袜 | 丰满护士巨好爽好大乳 | 日本高清一区免费中文视频 | 激情人妻另类人妻伦 | 美女极度色诱视频国产 | 奇米影视7777久久精品人人爽 | 性生交大片免费看女人按摩摩 | 扒开双腿吃奶呻吟做受视频 | 又紧又大又爽精品一区二区 | 无码国产激情在线观看 | 国产suv精品一区二区五 | 兔费看少妇性l交大片免费 | 婷婷综合久久中文字幕蜜桃三电影 | 国内精品久久久久久中文字幕 | 亚洲成a人片在线观看无码3d | 欧洲熟妇精品视频 | 综合激情五月综合激情五月激情1 | 国产成人精品视频ⅴa片软件竹菊 | 中文字幕无码视频专区 | 国产精品久久久久无码av色戒 | 国产乱人无码伦av在线a | 一个人看的视频www在线 | 亚洲国产日韩a在线播放 | 无码毛片视频一区二区本码 | 日本va欧美va欧美va精品 | 丝袜人妻一区二区三区 | 久久久中文字幕日本无吗 | 伊人久久大香线蕉av一区二区 | 国产又爽又黄又刺激的视频 | 国产精品国产三级国产专播 | 97人妻精品一区二区三区 | 久久精品99久久香蕉国产色戒 | 国产又爽又黄又刺激的视频 | 免费人成在线观看网站 | 夜精品a片一区二区三区无码白浆 | 最新国产乱人伦偷精品免费网站 | 日本在线高清不卡免费播放 | 午夜男女很黄的视频 | 久久婷婷五月综合色国产香蕉 | 中文字幕日韩精品一区二区三区 | 狠狠色欧美亚洲狠狠色www | 国产亚洲人成a在线v网站 | 免费无码的av片在线观看 | 日本精品人妻无码免费大全 | 狠狠cao日日穞夜夜穞av | 亚洲精品一区国产 | 青青草原综合久久大伊人精品 | av无码久久久久不卡免费网站 | 又大又硬又黄的免费视频 | 又大又黄又粗又爽的免费视频 | 精品无人国产偷自产在线 | 久久精品人妻少妇一区二区三区 | 日本精品久久久久中文字幕 | 7777奇米四色成人眼影 | 永久免费观看国产裸体美女 | 久久精品成人欧美大片 | 欧美人与动性行为视频 | 亚洲阿v天堂在线 | 精品无码国产一区二区三区av | 理论片87福利理论电影 | 久久久精品国产sm最大网站 | 久久zyz资源站无码中文动漫 | 国产人妻人伦精品 | 99久久无码一区人妻 | 国产一区二区三区四区五区加勒比 | 亚洲日韩av一区二区三区中文 | 少妇无套内谢久久久久 | 国产九九九九九九九a片 | 欧美黑人巨大xxxxx | 中文字幕无线码 | 天堂а√在线中文在线 | 高清不卡一区二区三区 | 国产又爽又猛又粗的视频a片 | 野狼第一精品社区 | 扒开双腿吃奶呻吟做受视频 | 少妇的肉体aa片免费 | 欧美日韩在线亚洲综合国产人 | 丰满人妻一区二区三区免费视频 | 亚洲日韩一区二区三区 | 亚洲乱码日产精品bd | 一本久久伊人热热精品中文字幕 | 久久国内精品自在自线 | 成人一在线视频日韩国产 | 一本久道高清无码视频 | 久久伊人色av天堂九九小黄鸭 | 中文字幕无码热在线视频 | 99久久无码一区人妻 | 精品熟女少妇av免费观看 | 丰满肥臀大屁股熟妇激情视频 | 55夜色66夜色国产精品视频 | 狠狠色噜噜狠狠狠狠7777米奇 | 免费乱码人妻系列无码专区 | 国产偷国产偷精品高清尤物 | 欧美丰满老熟妇xxxxx性 | 国产精品无码一区二区三区不卡 | 亚洲成a人片在线观看无码 | 人妻插b视频一区二区三区 | 狂野欧美性猛交免费视频 | 搡女人真爽免费视频大全 | 强伦人妻一区二区三区视频18 | 亚洲一区二区三区偷拍女厕 | 色噜噜亚洲男人的天堂 | 人妻无码久久精品人妻 | 欧美变态另类xxxx | 亚洲精品中文字幕久久久久 | 国产明星裸体无码xxxx视频 | 99久久婷婷国产综合精品青草免费 | 国产成人一区二区三区别 | 少妇邻居内射在线 | 无码av岛国片在线播放 | 欧美日韩一区二区三区自拍 | 欧美阿v高清资源不卡在线播放 | 亚洲人成无码网www | 国产情侣作爱视频免费观看 | 中文字幕av日韩精品一区二区 | 亚洲娇小与黑人巨大交 | 欧美 日韩 人妻 高清 中文 | 亚洲综合无码久久精品综合 | 一二三四在线观看免费视频 | 永久免费观看国产裸体美女 | 久久国内精品自在自线 | 国产美女极度色诱视频www | 天天摸天天碰天天添 | 国产乱码精品一品二品 | 久久久久久久久蜜桃 | 丰满岳乱妇在线观看中字无码 | 色欲综合久久中文字幕网 | 欧美精品一区二区精品久久 | 啦啦啦www在线观看免费视频 | 蜜桃av抽搐高潮一区二区 | 大胆欧美熟妇xx | 动漫av一区二区在线观看 | 亚洲自偷精品视频自拍 | 小鲜肉自慰网站xnxx | 国产精品久久久久无码av色戒 | 欧美xxxxx精品 | 大地资源中文第3页 | 国产欧美精品一区二区三区 | 给我免费的视频在线观看 | 伊人久久婷婷五月综合97色 | 亚洲成av人片在线观看无码不卡 | 在线播放亚洲第一字幕 | 亚洲精品久久久久avwww潮水 | 亚洲精品一区二区三区婷婷月 | 欧美国产日产一区二区 | 欧洲欧美人成视频在线 | 国产av久久久久精东av | 久久综合给合久久狠狠狠97色 | 日韩av无码中文无码电影 | 国产熟女一区二区三区四区五区 | 亚洲爆乳精品无码一区二区三区 | 亚洲欧美精品aaaaaa片 | 小泽玛莉亚一区二区视频在线 | 波多野结衣高清一区二区三区 | 久久精品中文字幕一区 | 国产av一区二区三区最新精品 | 国产明星裸体无码xxxx视频 | 免费无码av一区二区 | 亚洲高清偷拍一区二区三区 | 一区二区三区高清视频一 | 永久免费观看美女裸体的网站 | 伦伦影院午夜理论片 | 国产精品内射视频免费 | 中文无码成人免费视频在线观看 | 亚洲精品国产品国语在线观看 | 色婷婷香蕉在线一区二区 | 国内精品久久毛片一区二区 | 亚洲高清偷拍一区二区三区 | 青春草在线视频免费观看 | √8天堂资源地址中文在线 | 免费看少妇作爱视频 | 欧美日韩久久久精品a片 | 亚洲精品国产第一综合99久久 | 国产一区二区三区影院 | 暴力强奷在线播放无码 | 久久精品人妻少妇一区二区三区 | 亚洲区小说区激情区图片区 | 嫩b人妻精品一区二区三区 | 国产熟女一区二区三区四区五区 | 又粗又大又硬又长又爽 | 国产成人无码一二三区视频 | 午夜嘿嘿嘿影院 | 一本色道婷婷久久欧美 | 无码国内精品人妻少妇 | 国产精品久久久久久久影院 | 熟妇人妻激情偷爽文 | 国产激情艳情在线看视频 | 国产精品久久久午夜夜伦鲁鲁 | 久久久久亚洲精品男人的天堂 | 国产农村乱对白刺激视频 | 色综合久久中文娱乐网 | 亚洲乱亚洲乱妇50p | 成人无码精品1区2区3区免费看 | 国产精品亚洲五月天高清 | 亚洲精品久久久久久久久久久 | 青青久在线视频免费观看 | 成在人线av无码免观看麻豆 | 久久这里只有精品视频9 | 爆乳一区二区三区无码 | 77777熟女视频在线观看 а天堂中文在线官网 | 久久国产精品二国产精品 | 亚洲伊人久久精品影院 | 99久久人妻精品免费一区 | 国产精品怡红院永久免费 | 激情爆乳一区二区三区 | 国产成人精品久久亚洲高清不卡 | 77777熟女视频在线观看 а天堂中文在线官网 | 狂野欧美激情性xxxx | 成人精品视频一区二区 | 亚洲精品国产品国语在线观看 | 在教室伦流澡到高潮hnp视频 | 色噜噜亚洲男人的天堂 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产农村妇女高潮大叫 | 婷婷丁香五月天综合东京热 | 无套内射视频囯产 | 狂野欧美性猛交免费视频 | 久久久精品欧美一区二区免费 | 欧美日本精品一区二区三区 | 国产精品久免费的黄网站 | 日韩成人一区二区三区在线观看 | 国精品人妻无码一区二区三区蜜柚 | 四虎国产精品免费久久 | 少妇无码吹潮 | 亚洲爆乳大丰满无码专区 | 伊人久久大香线蕉av一区二区 | 久久久久99精品国产片 | 日本欧美一区二区三区乱码 | 成人精品视频一区二区 | 波多野结衣av在线观看 | 成人三级无码视频在线观看 | 精品 日韩 国产 欧美 视频 | 水蜜桃av无码 | 99视频精品全部免费免费观看 | 少妇激情av一区二区 | 奇米影视7777久久精品人人爽 | 日韩无套无码精品 | 日本饥渴人妻欲求不满 | 亚洲 激情 小说 另类 欧美 | 激情亚洲一区国产精品 | 无码人妻久久一区二区三区不卡 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 成人亚洲精品久久久久软件 | 日日摸日日碰夜夜爽av | 亚洲 a v无 码免 费 成 人 a v | 伦伦影院午夜理论片 | 成人影院yy111111在线观看 | 在线精品亚洲一区二区 | 丁香花在线影院观看在线播放 | 日韩精品成人一区二区三区 | 国产熟女一区二区三区四区五区 | 亚洲精品综合五月久久小说 | 少妇无码av无码专区在线观看 | 亚洲爆乳无码专区 | 久久久久se色偷偷亚洲精品av | 四十如虎的丰满熟妇啪啪 | 樱花草在线社区www | aⅴ在线视频男人的天堂 | 欧美国产亚洲日韩在线二区 | 久久这里只有精品视频9 | 亚洲色偷偷偷综合网 | 动漫av一区二区在线观看 | 欧美猛少妇色xxxxx | 日本肉体xxxx裸交 | 天天做天天爱天天爽综合网 | 国产香蕉尹人视频在线 | 亚洲 高清 成人 动漫 | 久久久久久a亚洲欧洲av冫 | 天天做天天爱天天爽综合网 | 夜夜影院未满十八勿进 | 特黄特色大片免费播放器图片 | 国产精品亚洲专区无码不卡 | 国产精品爱久久久久久久 | 成在人线av无码免费 | 亚洲精品午夜无码电影网 | 国产免费久久久久久无码 | 亚洲色成人中文字幕网站 | 爆乳一区二区三区无码 | 久久久久免费看成人影片 | 思思久久99热只有频精品66 | 亚洲呦女专区 | www国产精品内射老师 | 大肉大捧一进一出好爽视频 | 国语精品一区二区三区 | 国产激情综合五月久久 | 无码纯肉视频在线观看 | 老司机亚洲精品影院无码 | 国产精品爱久久久久久久 | 成熟人妻av无码专区 | av无码不卡在线观看免费 | 国产精品美女久久久久av爽李琼 | 中国女人内谢69xxxx | 欧美精品国产综合久久 | 国产精品无码mv在线观看 | 熟妇人妻无乱码中文字幕 | 国产凸凹视频一区二区 | 国产亚洲精品久久久久久 | 亚洲日本一区二区三区在线 | 欧美丰满熟妇xxxx性ppx人交 | 国产亚洲日韩欧美另类第八页 | 亚洲精品午夜国产va久久成人 | 久久人人爽人人爽人人片av高清 | 乌克兰少妇性做爰 | 亚洲 a v无 码免 费 成 人 a v | 无码国产乱人伦偷精品视频 | 亚洲国产av美女网站 | 国产特级毛片aaaaaa高潮流水 | 人妻天天爽夜夜爽一区二区 | 无码av免费一区二区三区试看 | 精品国偷自产在线视频 | 2019nv天堂香蕉在线观看 | 18禁黄网站男男禁片免费观看 | 国产猛烈高潮尖叫视频免费 | 人妻无码αv中文字幕久久琪琪布 | 久久99精品久久久久久 | 蜜桃av抽搐高潮一区二区 | 亚洲国产精华液网站w | 国产午夜视频在线观看 | 国产无套内射久久久国产 | 久久久久成人片免费观看蜜芽 | 丰满人妻一区二区三区免费视频 | 国产亚洲欧美日韩亚洲中文色 | 精品成在人线av无码免费看 | 国产精品理论片在线观看 | 天天av天天av天天透 | 国产精品亚洲а∨无码播放麻豆 | 欧美黑人乱大交 | 免费无码的av片在线观看 | 性做久久久久久久久 | 无码人妻黑人中文字幕 | 精品久久综合1区2区3区激情 | 精品久久久久久亚洲精品 | 亚洲成av人在线观看网址 | 无码成人精品区在线观看 | 日本一卡二卡不卡视频查询 | 在线观看免费人成视频 | 特级做a爰片毛片免费69 | 老熟女乱子伦 | 亚洲精品久久久久久一区二区 | 亚洲日韩av一区二区三区四区 | 国精产品一品二品国精品69xx | 国产人妻人伦精品1国产丝袜 | 最新国产乱人伦偷精品免费网站 | 国产乱人无码伦av在线a | 一区二区三区乱码在线 | 欧洲 | 又大又黄又粗又爽的免费视频 | 娇妻被黑人粗大高潮白浆 | av人摸人人人澡人人超碰下载 | 精品少妇爆乳无码av无码专区 | 亚洲男人av香蕉爽爽爽爽 | 日日鲁鲁鲁夜夜爽爽狠狠 | 爱做久久久久久 | 久久久精品人妻久久影视 | 国产精品高潮呻吟av久久 | 亚洲精品www久久久 | 国产精品久久久午夜夜伦鲁鲁 | 少妇被粗大的猛进出69影院 | 日本在线高清不卡免费播放 | a国产一区二区免费入口 | 精品久久久无码中文字幕 | 亚洲国产精华液网站w | 思思久久99热只有频精品66 | 丰满少妇弄高潮了www | 日本乱偷人妻中文字幕 | 51国偷自产一区二区三区 | 亚洲国产日韩a在线播放 | 精品少妇爆乳无码av无码专区 | 又大又硬又爽免费视频 | 亚洲中文无码av永久不收费 | 最近中文2019字幕第二页 | 少妇人妻大乳在线视频 | 99久久精品午夜一区二区 | 成人亚洲精品久久久久软件 | 中文字幕乱码中文乱码51精品 | 久久国产自偷自偷免费一区调 | 亚洲国产成人av在线观看 | 天天躁夜夜躁狠狠是什么心态 | 国产真实伦对白全集 | 国产网红无码精品视频 | 欧美老熟妇乱xxxxx | 波多野结衣 黑人 | 国产suv精品一区二区五 | 国产精品嫩草久久久久 | 亚洲成av人影院在线观看 | 无人区乱码一区二区三区 | 亚洲s码欧洲m码国产av | 成人欧美一区二区三区黑人免费 | 三上悠亚人妻中文字幕在线 | 免费看男女做好爽好硬视频 | 国产激情无码一区二区 | 国产午夜亚洲精品不卡 | 亚洲色偷偷偷综合网 | 樱花草在线播放免费中文 | 波多野结衣 黑人 | 成人欧美一区二区三区黑人免费 | 亚洲国产精品一区二区第一页 | 永久免费观看国产裸体美女 | www国产精品内射老师 | 国产精品高潮呻吟av久久4虎 | 国产熟女一区二区三区四区五区 | 激情综合激情五月俺也去 | 精品久久8x国产免费观看 | 中文字幕av无码一区二区三区电影 | 少妇邻居内射在线 | 色一情一乱一伦一区二区三欧美 | 国产精品久久精品三级 | 中文字幕色婷婷在线视频 | 女人色极品影院 | 午夜免费福利小电影 | 澳门永久av免费网站 | 亚洲成色在线综合网站 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 免费无码午夜福利片69 | 亚洲色大成网站www | 国产精品丝袜黑色高跟鞋 | 欧美成人午夜精品久久久 | 国产精品资源一区二区 | 东北女人啪啪对白 | 久久久久成人片免费观看蜜芽 | 久久精品99久久香蕉国产色戒 | 国产成人无码午夜视频在线观看 | 国语精品一区二区三区 | 亚洲色欲色欲欲www在线 | 精品亚洲成av人在线观看 | 精品国产一区二区三区av 性色 | 欧美野外疯狂做受xxxx高潮 | 蜜桃视频韩日免费播放 | 久热国产vs视频在线观看 | 久热国产vs视频在线观看 | 久久国产精品_国产精品 | 亚洲乱亚洲乱妇50p | 亚洲 a v无 码免 费 成 人 a v | 中文字幕 人妻熟女 | 99久久99久久免费精品蜜桃 | 亚洲成熟女人毛毛耸耸多 | 日本熟妇浓毛 | 国产超碰人人爽人人做人人添 | 最新版天堂资源中文官网 | 99久久精品国产一区二区蜜芽 | 老熟女重囗味hdxx69 | 国内揄拍国内精品少妇国语 | 亚洲综合无码久久精品综合 | 亚洲精品成人av在线 | 亚洲中文字幕在线观看 | 亚洲天堂2017无码中文 | 国产网红无码精品视频 | 欧美 丝袜 自拍 制服 另类 | 男女爱爱好爽视频免费看 | 国产成人无码区免费内射一片色欲 | 麻豆人妻少妇精品无码专区 | 色窝窝无码一区二区三区色欲 | 精品午夜福利在线观看 | 色妞www精品免费视频 | 国产亚洲视频中文字幕97精品 | 无遮挡国产高潮视频免费观看 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲精品一区二区三区大桥未久 | 久久综合色之久久综合 | 夜夜影院未满十八勿进 | 国产成人综合色在线观看网站 | 久久精品丝袜高跟鞋 | 久久久久久久女国产乱让韩 | 久久久国产精品无码免费专区 | 99视频精品全部免费免费观看 | 在线欧美精品一区二区三区 | 在线精品国产一区二区三区 | 国产精品99爱免费视频 | 伊在人天堂亚洲香蕉精品区 | 日韩av无码一区二区三区不卡 | 午夜嘿嘿嘿影院 | 无码帝国www无码专区色综合 | 玩弄中年熟妇正在播放 | 一二三四社区在线中文视频 | 99视频精品全部免费免费观看 | 一个人免费观看的www视频 | 老熟女乱子伦 | 少妇太爽了在线观看 | 国产极品视觉盛宴 | 国内精品久久毛片一区二区 | 亚洲狠狠色丁香婷婷综合 | 久久久婷婷五月亚洲97号色 | 国产精品久久久久久久9999 | 真人与拘做受免费视频一 | 国产成人无码av在线影院 | 美女极度色诱视频国产 | 久久99精品久久久久久动态图 | 欧美精品免费观看二区 | 高中生自慰www网站 | 国产人妖乱国产精品人妖 | 久久熟妇人妻午夜寂寞影院 | 99国产欧美久久久精品 | 久久久久99精品成人片 | 国产小呦泬泬99精品 | 久久综合九色综合97网 | 中文字幕日韩精品一区二区三区 | 亚洲色成人中文字幕网站 | 久久亚洲国产成人精品性色 | 久久成人a毛片免费观看网站 | 亚洲精品一区二区三区大桥未久 | 国产精品久久国产精品99 | 在线看片无码永久免费视频 | 欧美日韩视频无码一区二区三 | 久久久久久久人妻无码中文字幕爆 | 国产精品va在线播放 | 色婷婷久久一区二区三区麻豆 | 亚洲精品无码国产 | 精品国产乱码久久久久乱码 | аⅴ资源天堂资源库在线 | 亚洲国产精品无码一区二区三区 | 老熟妇乱子伦牲交视频 | 欧洲熟妇精品视频 | 国产乱人伦偷精品视频 | av在线亚洲欧洲日产一区二区 | 又大又紧又粉嫩18p少妇 | 日日摸天天摸爽爽狠狠97 | 欧美人与物videos另类 | 人妻少妇精品无码专区二区 | 天天做天天爱天天爽综合网 | 亚洲aⅴ无码成人网站国产app | 丰腴饱满的极品熟妇 | 西西人体www44rt大胆高清 | 国产亚洲精品久久久久久 | 又大又紧又粉嫩18p少妇 | 国产三级精品三级男人的天堂 | 中文字幕日韩精品一区二区三区 | 久久精品人人做人人综合 | 男女下面进入的视频免费午夜 | 国精产品一品二品国精品69xx |