久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

spark shell 删除失效_Spark任务提交源码解析

發(fā)布時(shí)間:2023/12/10 编程问答 27 豆豆
生活随笔 收集整理的這篇文章主要介紹了 spark shell 删除失效_Spark任务提交源码解析 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

1. 前言

反反復(fù)復(fù)搗鼓了很久,終于開始學(xué)習(xí)Spark的源碼了,果不其然,那真的很有趣。這里我打算一本正經(jīng)的胡說(shuō)八道來(lái)講一下Spark作業(yè)的提交過(guò)程。

基礎(chǔ)mac系統(tǒng)基礎(chǔ)環(huán)境如下:

  • JDK 1.8
  • IDEA 2019.3
  • 源碼Spark 2.3.3
  • Scala 2.11.8
  • 提交腳本
  • # 事先準(zhǔn)備好的Spark任務(wù)(源碼example LocalPi)基于local模式
    bash spark-submit
    --class com.lp.test.app.LocalPi
    --master local
    /Users/lipan/Desktop/spark-local/original-spark-local-train-1.0.jar
    10

2. 提交流程

我們?cè)谔峤籗park任務(wù)時(shí)都是從spark-submit(或者spark-shell)來(lái)提交一個(gè)作業(yè)的,從spark-submit腳本一步步深入進(jìn)去看看任務(wù)的整體提交流程。首先看一下整體的流程概要圖:

根據(jù)上圖中的整體流程,接下來(lái)我們對(duì)里面的每一個(gè)流程的源碼進(jìn)行一一剖析跟蹤。

2.1 spark-submit腳本

#!/usr/bin/env bash## 如果SPARK_HOME變量沒有設(shè)置值,則執(zhí)行當(dāng)前目錄下的find-spark-home腳本文件,設(shè)置SPARK_HOME值if [ -z "${SPARK_HOME}" ]; then source "$(dirname "$0")"/find-spark-homefiecho "${SPARK_HOME}"# disable randomized hash for string in Python 3.3+export PYTHONHASHSEED=0# 這里可以看到將接收到的參數(shù)提交到了spark-class腳本執(zhí)行exec "${SPARK_HOME}"/bin/spark-class org.apache.spark.deploy.SparkSubmit "$@"

2.2 spark-class腳本

#!/usr/bin/env bashif [ -z "${SPARK_HOME}" ]; then source "$(dirname "$0")"/find-spark-homefi# 配置一些環(huán)境變量,它會(huì)將conf/spark-env.sh中的環(huán)境變量加載進(jìn)來(lái):. "${SPARK_HOME}"/bin/load-spark-env.sh# Find the java binary 如果有java_home環(huán)境變量會(huì)將java_home/bin/java給RUNNERif [ -n "${JAVA_HOME}" ]; then RUNNER="${JAVA_HOME}/bin/java"else if [ "$(command -v java)" ]; then RUNNER="java" else echo "JAVA_HOME is not set" >&2 exit 1 fifi# Find Spark jars.# 這一段,主要是尋找java命令 尋找spark的jar包# 這里如果我們的jar包數(shù)量多,而且內(nèi)容大,可以事先放到每個(gè)機(jī)器的對(duì)應(yīng)目錄下,這里是一個(gè)優(yōu)化點(diǎn)if [ -d "${SPARK_HOME}/jars" ]; then SPARK_JARS_DIR="${SPARK_HOME}/jars"else SPARK_JARS_DIR="${SPARK_HOME}/assembly/target/scala-$SPARK_SCALA_VERSION/jars"fiif [ ! -d "$SPARK_JARS_DIR" ] && [ -z "$SPARK_TESTING$SPARK_SQL_TESTING" ]; then echo "Failed to find Spark jars directory ($SPARK_JARS_DIR)." 1>&2 echo "You need to build Spark with the target "package" before running this program." 1>&2 exit 1else LAUNCH_CLASSPATH="$SPARK_JARS_DIR/*"fi# Add the launcher build dir to the classpath if requested.if [ -n "$SPARK_PREPEND_CLASSES" ]; then LAUNCH_CLASSPATH="${SPARK_HOME}/launcher/target/scala-$SPARK_SCALA_VERSION/classes:$LAUNCH_CLASSPATH"fi# For testsif [[ -n "$SPARK_TESTING" ]]; then unset YARN_CONF_DIR unset HADOOP_CONF_DIRfi# The launcher library will print arguments separated by a NULL character, to allow arguments with# characters that would be otherwise interpreted by the shell. Read that in a while loop, populating# an array that will be used to exec the final command.# 啟動(dòng)程序庫(kù)將打印由NULL字符分隔的參數(shù),以允許與shell進(jìn)行其他解釋的字符進(jìn)行參數(shù)。在while循環(huán)中讀取它,填充將用于執(zhí)行最終命令的數(shù)組。## The exit code of the launcher is appended to the output, so the parent shell removes it from the# command array and checks the value to see if the launcher succeeded.# 啟動(dòng)程序的退出代碼被追加到輸出,因此父shell從命令數(shù)組中刪除它,并檢查其值,看看啟動(dòng)器是否成功。# 這里spark啟動(dòng)了以SparkSubmit為主類的JVM進(jìn)程。build_command() { "$RUNNER" -Xmx128m -cp "$LAUNCH_CLASSPATH" org.apache.spark.launcher.Main "$@" printf "%d0" $?}# Turn off posix mode since it does not allow process substitution# 關(guān)閉posix模式,因?yàn)樗辉试S進(jìn)程替換。# 調(diào)用build_command org.apache.spark.launcher.Main拼接提交命令set +o posixCMD=()while IFS= read -d '' -r ARG; do CMD+=("$ARG")done < &2 exit 1fiif [ $LAUNCHER_EXIT_CODE != 0 ]; then exit $LAUNCHER_EXIT_CODEfiCMD=("${CMD[@]:0:$LAST}")# ${CMD[@]} 參數(shù)如下# /Library/Java/JavaVirtualMachines/jdk1.8.0_172.jdk/Contents/Home/bin/java -cp /Users/lipan/workspace/source_code/spark-2.3.3/conf/:/Users/lipan/workspace/source_code/spark-2.3.3/assembly/target/scala-2.11/jars/* -Xmx1g org.apache.spark.deploy.SparkSubmit --master local --class com.lp.test.app.LocalPi /Users/lipan/Desktop/spark-local/original-spark-local-train-1.0.jar 10exec "${CMD[@]}"

相對(duì)于spark-submit,spark-class文件的執(zhí)行邏輯稍顯復(fù)雜,總體如下:

  • 檢查SPARK_HOME執(zhí)行環(huán)境
  • 執(zhí)行l(wèi)oad-spark-env.sh文件,加載一些默認(rèn)的環(huán)境變量(包括加載spark-env.sh文件)
  • 檢查JAVA_HOME執(zhí)行環(huán)境
  • 尋找Spark相關(guān)的jar包
  • 執(zhí)行org.apache.spark.launcher.Main解析參數(shù),構(gòu)建CMD命令
  • CMD命令判斷
  • 執(zhí)行org.apache.spark.deploy.SparkSubmit這個(gè)類。
  • 2.3 org.apache.spark.launcher.Main

    java -Xmx128m -cp ...jars org.apache.spark.launcher.Main "$@"

    也就是說(shuō)org.apache.spark.launcher.Main是被spark-class調(diào)用,從spark-class接收參數(shù)。這個(gè)類是提供spark內(nèi)部腳本調(diào)用的工具類,并不是真正的執(zhí)行入口。它負(fù)責(zé)調(diào)用其他類,對(duì)參數(shù)進(jìn)行解析,并生成執(zhí)行命令,最后將命令返回給spark-class的 exec “${CMD[@]}”執(zhí)行。

    可以把”$@”執(zhí)行相關(guān)參數(shù)帶入IDEA中的org.apache.spark.launcher.Main方法中執(zhí)行,操作參考如下:

    package org.apache.spark.launcher;import java.util.ArrayList;import java.util.Arrays;import java.util.HashMap;import java.util.List;import java.util.Map;import static org.apache.spark.launcher.CommandBuilderUtils.*;/** * Command line interface for the Spark launcher. Used internally by Spark scripts. * 這是提供spark內(nèi)部腳本使用工具類 */ class Main { /** * Usage: Main [class] [class args] * 分為spark-submit和spark-class兩種模式 * 如果提交的是class類的話,會(huì)包含其他如:master/worker/history等等 * unix系統(tǒng)的輸出的參數(shù)是集合,而windows參數(shù)是空格分隔 * * spark-class提交過(guò)來(lái)的參數(shù)如下: * org.apache.spark.deploy.SparkSubmit * --class com.lp.test.app.LocalPi * --master local * /Users/lipan/Desktop/spark-local/spark-local-train-1.0.jar */ public static void main(String[] argsArray) throws Exception { checkArgument(argsArray.length > 0, "Not enough arguments: missing class name."); // 判斷參數(shù)列表 List args = new ArrayList<>(Arrays.asList(argsArray)); String className = args.remove(0); // 判斷是否打印執(zhí)行信息 boolean printLaunchCommand = !isEmpty(System.getenv("SPARK_PRINT_LAUNCH_COMMAND")); // 創(chuàng)建命令解析器 AbstractCommandBuilder builder; /** * 構(gòu)建執(zhí)行程序?qū)ο?spark-submit/spark-class * 把參數(shù)都取出并解析,放入執(zhí)行程序?qū)ο笾? * 意思是,submit還是master和worker等程序在這里拆分,并獲取對(duì)應(yīng)的執(zhí)行參數(shù) */ if (className.equals("org.apache.spark.deploy.SparkSubmit")) { try { // 構(gòu)建spark-submit命令對(duì)象 builder = new SparkSubmitCommandBuilder(args); } catch (IllegalArgumentException e) { printLaunchCommand = false; System.err.println("Error: " + e.getMessage()); System.err.println(); // 類名解析--class org.apache.spark.repl.Main MainClassOptionParser parser = new MainClassOptionParser(); try { parser.parse(args); } catch (Exception ignored) { // Ignore parsing exceptions. } // 幫助信息 List help = new ArrayList<>(); if (parser.className != null) { help.add(parser.CLASS); help.add(parser.className); } help.add(parser.USAGE_ERROR); // 構(gòu)建spark-submit幫助信息對(duì)象 builder = new SparkSubmitCommandBuilder(help); } } else { // 構(gòu)建spark-class命令對(duì)象 // 主要是在這個(gè)類里解析了命令對(duì)象和參數(shù) builder = new SparkClassCommandBuilder(className, args); } /** * 這里才真正構(gòu)建了執(zhí)行命令 * 調(diào)用了SparkClassCommandBuilder的buildCommand方法 * 把執(zhí)行參數(shù)解析成了k/v格式 */ Map env = new HashMap<>(); List cmd = builder.buildCommand(env); if (printLaunchCommand) { System.err.println("Spark Command: " + join(" ", cmd)); System.err.println("========================================"); } if (isWindows()) { System.out.println(prepareWindowsCommand(cmd, env)); } else { // In bash, use NULL as the arg separator since it cannot be used in an argument. /** * 輸出參數(shù):/Library/Java/JavaVirtualMachines/jdk1.8.0_172.jdk/Contents/Home/bin/java * -cp /Users/lipan/workspace/source_code/spark-2.3.3/conf/:/Users/lipan/workspace/source_code/spark-2.3.3/assembly/target/scala-2.11/jars/* * -Xmx1g org.apache.spark.deploy.SparkSubmit * --master local * --class com.lp.test.app.LocalPi * /Users/lipan/Desktop/spark-local/original-spark-local-train-1.0.jar 10 * java -cp / org.apache.spark.deploy.SparkSubmit啟動(dòng)該類 */ List bashCmd = prepareBashCommand(cmd, env); for (String c : bashCmd) { System.out.print(c); System.out.print('0'); } } } /** * windows環(huán)境下 */ private static String prepareWindowsCommand(List cmd, Map childEnv) { StringBuilder cmdline = new StringBuilder(); for (Map.Entry e : childEnv.entrySet()) { cmdline.append(String.format("set %s=%s", e.getKey(), e.getValue())); cmdline.append(" && "); } for (String arg : cmd) { cmdline.append(quoteForBatchScript(arg)); cmdline.append(" "); } return cmdline.toString(); } /** * bash環(huán)境,如:Linux */ private static List prepareBashCommand(List cmd, Map childEnv) { if (childEnv.isEmpty()) { return cmd; } List newCmd = new ArrayList<>(); newCmd.add("env"); for (Map.Entry e : childEnv.entrySet()) { newCmd.add(String.format("%s=%s", e.getKey(), e.getValue())); } newCmd.addAll(cmd); return newCmd; } /** * 當(dāng)spark-submit提交失敗時(shí),這里會(huì)再進(jìn)行一次解析,再不行才會(huì)提示用法 */ private static class MainClassOptionParser extends SparkSubmitOptionParser { String className; @Override protected boolean handle(String opt, String value) { if (CLASS.equals(opt)) { className = value; } return false; } @Override protected boolean handleUnknown(String opt) { return false; } @Override protected void handleExtraArgs(List extra) { } } }

    Main中主要涉及到的一些類SparkSubmitCommandBuilderSparkClassCommandBuilderbuildCommand都是在對(duì)參數(shù)和構(gòu)建命令進(jìn)行處理,這里不一一展開詳解。

    2.4 org.apache.spark.deploy.SparkSubmit

    org.apache.spark.launcher.Main中會(huì)解析過(guò)濾參數(shù),構(gòu)建執(zhí)行命令,返回給spark-class腳本,最后通過(guò) exec “${CMD[@]}” 真正調(diào)用SparkSubmit類。

    可通過(guò)解析后提交的參數(shù)”$@”設(shè)置在IDEA中逐步跟蹤源碼,操作參考如下:

    2.4.1 SparkSubmitAction

    在org.apache.spark.launcher.Main類的最前面定義了一個(gè)類SparkSubmitAction枚舉狀態(tài)類。

    /** * Whether to submit, kill, or request the status of an application. * The latter two operations are currently supported only for standalone and Mesos cluster modes. * 這個(gè)類主要是提交app,終止和請(qǐng)求狀態(tài),但目前終止和請(qǐng)求只能在standalone和mesos模式下 */// 繼承了枚舉類,定義了4個(gè)屬性,多了一個(gè)打印spark版本private[deploy] object SparkSubmitAction extends Enumeration { type SparkSubmitAction = Value val SUBMIT, KILL, REQUEST_STATUS, PRINT_VERSION = Value}

    2.4.2 SparkSubmit

    在SparkSubmit類中的方法執(zhí)行可參考如下,在每個(gè)方法中都有詳細(xì)的注釋。具體細(xì)節(jié)也可以根據(jù)文末的鏈接地址中載源碼斷進(jìn)行斷點(diǎn)調(diào)試。

    2.4.2.1 Main
    override def main(args: Array[String]): Unit = { // 初始化logging系統(tǒng),并跟日志判斷是否需要在app啟動(dòng)時(shí)重啟 val uninitLog = initializeLogIfNecessary(true, silent = true) /** * 構(gòu)建spark提交需要的參數(shù)并進(jìn)行賦值 SparkSubmitArguments * 1.解析參數(shù) * 2.從屬性文件填充“sparkProperties”映射(未指定默認(rèn)情況下未:spark-defaults.conf) * 3.移除不是以"spark." 開頭的變量 * 4.參數(shù)填充對(duì)應(yīng)到實(shí)體屬性上 * 5.action參數(shù)驗(yàn)證 */ val appArgs = new SparkSubmitArguments(args) // 參數(shù)不重復(fù)則輸出配置 if (appArgs.verbose) { printStream.println(appArgs) } appArgs.action match { case SparkSubmitAction.SUBMIT => submit(appArgs, uninitLog) case SparkSubmitAction.KILL => kill(appArgs) case SparkSubmitAction.REQUEST_STATUS => requestStatus(appArgs) } }
    2.4.2.2 submit
    /** * 通過(guò)匹配SUBMIT執(zhí)行的submit() * * 首先是根據(jù)不同調(diào)度模式和yarn不同模式,導(dǎo)入調(diào)用類的路徑,默認(rèn)配置及輸入?yún)?shù),準(zhǔn)備相應(yīng)的啟動(dòng)環(huán)境 * 然后通過(guò)對(duì)應(yīng)的環(huán)境來(lái)調(diào)用相應(yīng)子類的main方法 * 這里因?yàn)樯婕暗街貜?fù)調(diào)用,所以采用了@tailrec尾遞歸,即重復(fù)調(diào)用方法的最后一句并返回結(jié)果 * 即:runMain(childArgs, childClasspath, sparkConf, childMainClass, args.verbose) */ @tailrec private def submit(args: SparkSubmitArguments, uninitLog: Boolean): Unit = { /** * 先準(zhǔn)備運(yùn)行環(huán)境,傳入解析的各種參數(shù) * 這里會(huì)先進(jìn)入 * lazy val secMgr = new SecurityManager(sparkConf) * 先初始化SecurityManager后,再進(jìn)入prepareSubmitEnvironment() * prepareSubmitEnvironment()代碼比較長(zhǎng),放到最下面去解析 */ val (childArgs, childClasspath, sparkConf, childMainClass) = prepareSubmitEnvironment(args) // 主要是調(diào)用runMain()啟動(dòng)相應(yīng)環(huán)境的main()的方法 // 環(huán)境準(zhǔn)備好以后,會(huì)先往下運(yùn)行判斷,這里是在等著調(diào)用 def doRunMain(): Unit = { // 提交時(shí)可以指定--proxy-user,如果沒有指定,則獲取當(dāng)前用戶 if (args.proxyUser != null) { val proxyUser = UserGroupInformation.createProxyUser(args.proxyUser, UserGroupInformation.getCurrentUser()) try { proxyUser.doAs(new PrivilegedExceptionAction[Unit]() { override def run(): Unit = { // 這里是真正的執(zhí)行,runMain() runMain(childArgs, childClasspath, sparkConf, childMainClass, args.verbose) } }) } catch { case e: Exception => // Hadoop's AuthorizationException suppresses the exception's stack trace, which // makes the message printed to the output by the JVM not very helpful. Instead, // detect exceptions with empty stack traces here, and treat them differently. if (e.getStackTrace().length == 0) { // scalastyle:off println printStream.println(s"ERROR: ${e.getClass().getName()}: ${e.getMessage()}") // scalastyle:on println exitFn(1) } else { throw e } } } else { // 沒有指定用戶時(shí)執(zhí)行 runMain(childArgs, childClasspath, sparkConf, childMainClass, args.verbose) } } // 啟動(dòng)main后重新初始化logging if (uninitLog) { Logging.uninitialize() } // standalone模式有兩種提交網(wǎng)關(guān), // (1)使用o.a.s.apply.client作為包裝器的傳統(tǒng)RPC網(wǎng)關(guān)和基于REST服務(wù)的網(wǎng)關(guān) // (2)spark1.3后默認(rèn)使用REST // 如果master終端沒有使用REST服務(wù),spark會(huì)故障切換到RPC 這里判斷standalone模式和使用REST服務(wù) if (args.isStandaloneCluster && args.useRest) { // 異常捕獲,判斷正確的話輸出信息,進(jìn)入doRunMain() try { logInfo("Running Spark using the REST application submission protocol.") doRunMain() } catch { // Fail over to use the legacy submission gateway // 否則異常輸出信息,并設(shè)置submit失敗 case e: SubmitRestConnectionException => logWarning(s"Master endpoint ${args.master} was not a REST server. " + "Falling back to legacy submission gateway instead.") args.useRest = false submit(args, false) } // In all other modes, just run the main class as prepared // 其他模式,按準(zhǔn)備的環(huán)境調(diào)用上面的doRunMain()運(yùn)行相應(yīng)的main() // 在進(jìn)入前,初始化了SparkContext和SparkSession } else { doRunMain() } }
    2.4.2.3 prepareSubmitEnvironment
    /** * 準(zhǔn)備各種模式的配置參數(shù) * * @param args 用于環(huán)境準(zhǔn)備的已分析SparkSubmitArguments * @param conf 在Hadoop配置中,僅在單元測(cè)試中設(shè)置此參數(shù)。 * @return a 4-tuple: * (1) the arguments for the child process, * (2) a list of classpath entries for the child, * (3) a map of system properties, and * (4) the main class for the child * 返回一個(gè)4元組(childArgs, childClasspath, sparkConf, childMainClass) * childArgs:子進(jìn)程的參數(shù) * childClasspath:子級(jí)的類路徑條目列表 * sparkConf:系統(tǒng)參數(shù)map集合 * childMainClass:子級(jí)的主類 * * Exposed for testing. * * 由于不同的部署方式其賣弄函數(shù)是不一樣的,主要是由spark的提交參數(shù)決定 */ private[deploy] def prepareSubmitEnvironment( args: SparkSubmitArguments, conf: Option[HadoopConfiguration] = None) : (Seq[String], Seq[String], SparkConf, String) = { try { doPrepareSubmitEnvironment(args, conf) } catch { case e: SparkException => printErrorAndExit(e.getMessage) throw e } } private def doPrepareSubmitEnvironment( args: SparkSubmitArguments, conf: Option[HadoopConfiguration] = None) : (Seq[String], Seq[String], SparkConf, String) = { // Return values val childArgs = new ArrayBuffer[String]() val childClasspath = new ArrayBuffer[String]() // SparkConf 會(huì)默認(rèn)加一些系統(tǒng)參數(shù) val sparkConf = new SparkConf() var childMainClass = "" // 設(shè)置集群模式 // 也就是提交時(shí)指定--master local/yarn/yarn-client/yarn-cluster/spark://192.168.2.1:7077或者 mesos,k8s等運(yùn)行模式 val clusterManager: Int = args.master match { case "yarn" => YARN case "yarn-client" | "yarn-cluster" => printWarning(s"Master ${args.master} is deprecated since 2.0." + " Please use master "yarn" with specified deploy mode instead.") YARN case m if m.startsWith("spark") => STANDALONE case m if m.startsWith("mesos") => MESOS case m if m.startsWith("k8s") => KUBERNETES case m if m.startsWith("local") => LOCAL case _ => printErrorAndExit("Master must either be yarn or start with spark, mesos, k8s, or local") -1 } // 設(shè)置部署模式 --deploy-mode var deployMode: Int = args.deployMode match { case "client" | null => CLIENT case "cluster" => CLUSTER case _ => printErrorAndExit("Deploy mode must be either client or cluster"); -1 } //由于指定“yarn-cluster”和“yarn-client”的不受支持的方式封裝了主模式和部署模式, // 因此我們有一些邏輯來(lái)推斷master和部署模式(如果只指定一種模式),或者在它們不一致時(shí)提前退出 if (clusterManager == YARN) { (args.master, args.deployMode) match { case ("yarn-cluster", null) => deployMode = CLUSTER args.master = "yarn" case ("yarn-cluster", "client") => printErrorAndExit("Client deploy mode is not compatible with master "yarn-cluster"") case ("yarn-client", "cluster") => printErrorAndExit("Cluster deploy mode is not compatible with master "yarn-client"") case (_, mode) => args.master = "yarn" } // Make sure YARN is included in our build if we're trying to use it if (!Utils.classIsLoadable(YARN_CLUSTER_SUBMIT_CLASS) && !Utils.isTesting) { printErrorAndExit( "Could not load YARN classes. " + "This copy of Spark may not have been compiled with YARN support.") } } // 判斷k8s模式master和非testing模式 if (clusterManager == KUBERNETES) { args.master = Utils.checkAndGetK8sMasterUrl(args.master) // Make sure KUBERNETES is included in our build if we're trying to use it if (!Utils.classIsLoadable(KUBERNETES_CLUSTER_SUBMIT_CLASS) && !Utils.isTesting) { printErrorAndExit( "Could not load KUBERNETES classes. " + "This copy of Spark may not have been compiled with KUBERNETES support.") } } // 錯(cuò)判斷不可用模式 (clusterManager, deployMode) match { case (STANDALONE, CLUSTER) if args.isPython => printErrorAndExit("Cluster deploy mode is currently not supported for python " + "applications on standalone clusters.") case (STANDALONE, CLUSTER) if args.isR => printErrorAndExit("Cluster deploy mode is currently not supported for R " + "applications on standalone clusters.") case (KUBERNETES, _) if args.isPython => printErrorAndExit("Python applications are currently not supported for Kubernetes.") case (KUBERNETES, _) if args.isR => printErrorAndExit("R applications are currently not supported for Kubernetes.") case (KUBERNETES, CLIENT) => printErrorAndExit("Client mode is currently not supported for Kubernetes.") case (LOCAL, CLUSTER) => printErrorAndExit("Cluster deploy mode is not compatible with master "local"") case (_, CLUSTER) if isShell(args.primaryResource) => printErrorAndExit("Cluster deploy mode is not applicable to Spark shells.") case (_, CLUSTER) if isSqlShell(args.mainClass) => printErrorAndExit("Cluster deploy mode is not applicable to Spark SQL shell.") case (_, CLUSTER) if isThriftServer(args.mainClass) => printErrorAndExit("Cluster deploy mode is not applicable to Spark Thrift server.") case _ => } // args.deployMode為空則設(shè)置deployMode值為參數(shù),因?yàn)樯厦媾袛嗔薬rgs.deployMode為空deployMode為client (args.deployMode, deployMode) match { case (null, CLIENT) => args.deployMode = "client" case (null, CLUSTER) => args.deployMode = "cluster" case _ => } // 根據(jù)資源管理器和部署模式,進(jìn)行邏輯判斷出幾種特殊運(yùn)行方式。 val isYarnCluster = clusterManager == YARN && deployMode == CLUSTER val isMesosCluster = clusterManager == MESOS && deployMode == CLUSTER val isStandAloneCluster = clusterManager == STANDALONE && deployMode == CLUSTER val isKubernetesCluster = clusterManager == KUBERNETES && deployMode == CLUSTER // 這里主要是添加相關(guān)的依賴 if (!isMesosCluster && !isStandAloneCluster) { // 如果有maven依賴項(xiàng),則解析它們,并將類路徑添加到j(luò)ar中。對(duì)于包含Python代碼的包,也將它們添加到py文件中 val resolvedMavenCoordinates = DependencyUtils.resolveMavenDependencies( args.packagesExclusions, args.packages, args.repositories, args.ivyRepoPath, args.ivySettingsPath) if (!StringUtils.isBlank(resolvedMavenCoordinates)) { args.jars = mergeFileLists(args.jars, resolvedMavenCoordinates) if (args.isPython || isInternal(args.primaryResource)) { args.pyFiles = mergeFileLists(args.pyFiles, resolvedMavenCoordinates) } } // 安裝任何可能通過(guò)--jar或--packages傳遞的R包。Spark包可能在jar中包含R源代碼。 if (args.isR && !StringUtils.isBlank(args.jars)) { RPackageUtils.checkAndBuildRPackage(args.jars, printStream, args.verbose) } } args.sparkProperties.foreach { case (k, v) => sparkConf.set(k, v) } // sparkConf 加載Hadoop相關(guān)配置文件 val hadoopConf = conf.getOrElse(SparkHadoopUtil.newConfiguration(sparkConf)) // 工作臨時(shí)目錄 val targetDir = Utils.createTempDir() // 判斷當(dāng)前模式下sparkConf的k/v鍵值對(duì)中key是否在JVM中全局可用 // 確保keytab在JVM中的任何位置都可用(keytab是Kerberos的身份認(rèn)證,詳情可參考:http://ftuto.lofter.com/post/31e97f_6ad659f) if (clusterManager == YARN || clusterManager == LOCAL || clusterManager == MESOS) { // 當(dāng)前運(yùn)行環(huán)境的用戶不為空,args中yarn模式參數(shù)key列表不為空,則提示key列表文件不存在 if (args.principal != null) { if (args.keytab != null) { require(new File(args.keytab).exists(), s"Keytab file: ${args.keytab} does not exist") // 在sysProps中添加keytab和主體配置,以供以后使用;例如,在spark sql中,用于與HiveMetastore對(duì)話的隔離類裝入器將使用這些設(shè)置。 // 它們將被設(shè)置為Java系統(tǒng)屬性,然后由SparkConf加載 sparkConf.set(KEYTAB, args.keytab) sparkConf.set(PRINCIPAL, args.principal) UserGroupInformation.loginUserFromKeytab(args.principal, args.keytab) } } } // Resolve glob path for different resources. // 設(shè)置全局資源,也就是合并各種模式依賴的路徑的資源和hadoopConf中設(shè)置路徑的資源,各種jars,file,pyfile和壓縮包 args.jars = Option(args.jars).map(resolveGlobPaths(_, hadoopConf)).orNull args.files = Option(args.files).map(resolveGlobPaths(_, hadoopConf)).orNull args.pyFiles = Option(args.pyFiles).map(resolveGlobPaths(_, hadoopConf)).orNull args.archives = Option(args.archives).map(resolveGlobPaths(_, hadoopConf)).orNull // 創(chuàng)建SecurityManager實(shí)例 lazy val secMgr = new SecurityManager(sparkConf) // 在Client模式下,下載遠(yuǎn)程資源文件。 var localPrimaryResource: String = null var localJars: String = null var localPyFiles: String = null if (deployMode == CLIENT) { localPrimaryResource = Option(args.primaryResource).map { downloadFile(_, targetDir, sparkConf, hadoopConf, secMgr) }.orNull localJars = Option(args.jars).map { downloadFileList(_, targetDir, sparkConf, hadoopConf, secMgr) }.orNull localPyFiles = Option(args.pyFiles).map { downloadFileList(_, targetDir, sparkConf, hadoopConf, secMgr) }.orNull } // When running in YARN, for some remote resources with scheme: // 1. Hadoop FileSystem doesn't support them. // 2. We explicitly bypass Hadoop FileSystem with "spark.yarn.dist.forceDownloadSchemes". // We will download them to local disk prior to add to YARN's distributed cache. // For yarn client mode, since we already download them with above code, so we only need to // figure out the local path and replace the remote one. // yarn模式下,hdfs不支持加載到內(nèi)存,所以采用"spark.yarn.dist.forceDownloadSchemes"方案(在添加到Y(jié)ARN分布式緩存之前,文件將被下載到本地磁盤的逗號(hào)分隔列表。用于YARN服務(wù)不支持Spark支持的方案的情況) // 所以先把方案列表文件下載到本地,再通過(guò)相應(yīng)方案加載資源到分布式內(nèi)存中 // 在yarn-client模式中,上面的代碼中已經(jīng)把遠(yuǎn)程文件下載到了本地,只需要獲取本地路徑替換掉遠(yuǎn)程路徑即可 if (clusterManager == YARN) { // 加載方案列表 val forceDownloadSchemes = sparkConf.get(FORCE_DOWNLOAD_SCHEMES) // 判斷是否需要下載的方法 def shouldDownload(scheme: String): Boolean = { forceDownloadSchemes.contains("*") || forceDownloadSchemes.contains(scheme) || Try { FileSystem.getFileSystemClass(scheme, hadoopConf) }.isFailure } // 下載資源的方法 def downloadResource(resource: String): String = { val uri = Utils.resolveURI(resource) uri.getScheme match { case "local" | "file" => resource case e if shouldDownload(e) => val file = new File(targetDir, new Path(uri).getName) if (file.exists()) { file.toURI.toString } else { downloadFile(resource, targetDir, sparkConf, hadoopConf, secMgr) } case _ => uri.toString } } // 下載主要運(yùn)行資源 args.primaryResource = Option(args.primaryResource).map { downloadResource }.orNull // 下載文件 args.files = Option(args.files).map { files => Utils.stringToSeq(files).map(downloadResource).mkString(",") }.orNull args.pyFiles = Option(args.pyFiles).map { pyFiles => Utils.stringToSeq(pyFiles).map(downloadResource).mkString(",") }.orNull // 下載jars args.jars = Option(args.jars).map { jars => Utils.stringToSeq(jars).map(downloadResource).mkString(",") }.orNull // 下載壓縮文件 args.archives = Option(args.archives).map { archives => Utils.stringToSeq(archives).map(downloadResource).mkString(",") }.orNull } // 如果我們正在運(yùn)行python應(yīng)用,請(qǐng)將主類設(shè)置為特定的python運(yùn)行器 if (args.isPython && deployMode == CLIENT) { if (args.primaryResource == PYSPARK_SHELL) { args.mainClass = "org.apache.spark.api.python.PythonGatewayServer" } else { // If a python file is provided, add it to the child arguments and list of files to deploy. // Usage: PythonAppRunner [app arguments] args.mainClass = "org.apache.spark.deploy.PythonRunner" args.childArgs = ArrayBuffer(localPrimaryResource, localPyFiles) ++ args.childArgs if (clusterManager != YARN) { // The YARN backend distributes the primary file differently, so don't merge it. args.files = mergeFileLists(args.files, args.primaryResource) } } if (clusterManager != YARN) { // The YARN backend handles python files differently, so don't merge the lists. args.files = mergeFileLists(args.files, args.pyFiles) } if (localPyFiles != null) { sparkConf.set("spark.submit.pyFiles", localPyFiles) } } // 在R應(yīng)用程序的yarn模式中,添加SparkR包存檔和包含所有構(gòu)建的R庫(kù)的R包存檔到存檔中,以便它們可以隨作業(yè)一起分發(fā) if (args.isR && clusterManager == YARN) { val sparkRPackagePath = RUtils.localSparkRPackagePath if (sparkRPackagePath.isEmpty) { printErrorAndExit("SPARK_HOME does not exist for R application in YARN mode.") } val sparkRPackageFile = new File(sparkRPackagePath.get, SPARKR_PACKAGE_ARCHIVE) if (!sparkRPackageFile.exists()) { printErrorAndExit(s"$SPARKR_PACKAGE_ARCHIVE does not exist for R application in YARN mode.") } val sparkRPackageURI = Utils.resolveURI(sparkRPackageFile.getAbsolutePath).toString // Distribute the SparkR package. // Assigns a symbol link name "sparkr" to the shipped package. args.archives = mergeFileLists(args.archives, sparkRPackageURI + "#sparkr") // Distribute the R package archive containing all the built R packages. if (!RUtils.rPackages.isEmpty) { val rPackageFile = RPackageUtils.zipRLibraries(new File(RUtils.rPackages.get), R_PACKAGE_ARCHIVE) if (!rPackageFile.exists()) { printErrorAndExit("Failed to zip all the built R packages.") } val rPackageURI = Utils.resolveURI(rPackageFile.getAbsolutePath).toString // Assigns a symbol link name "rpkg" to the shipped package. args.archives = mergeFileLists(args.archives, rPackageURI + "#rpkg") } } // TODO: Support distributing R packages with standalone cluster if (args.isR && clusterManager == STANDALONE && !RUtils.rPackages.isEmpty) { printErrorAndExit("Distributing R packages with standalone cluster is not supported.") } // TODO: Support distributing R packages with mesos cluster if (args.isR && clusterManager == MESOS && !RUtils.rPackages.isEmpty) { printErrorAndExit("Distributing R packages with mesos cluster is not supported.") } // 如果我們正在運(yùn)行R應(yīng)用,請(qǐng)將主類設(shè)置為特定的R運(yùn)行器 if (args.isR && deployMode == CLIENT) { if (args.primaryResource == SPARKR_SHELL) { args.mainClass = "org.apache.spark.api.r.RBackend" } else { // If an R file is provided, add it to the child arguments and list of files to deploy. // Usage: RRunner [app arguments] args.mainClass = "org.apache.spark.deploy.RRunner" args.childArgs = ArrayBuffer(localPrimaryResource) ++ args.childArgs args.files = mergeFileLists(args.files, args.primaryResource) } } if (isYarnCluster && args.isR) { // In yarn-cluster mode for an R app, add primary resource to files // that can be distributed with the job args.files = mergeFileLists(args.files, args.primaryResource) } // Special flag to avoid deprecation warnings at the client sys.props("SPARK_SUBMIT") = "true" // 為各種部署模式設(shè)置相應(yīng)參數(shù)這里返回的是元組OptionAssigner類沒有方法,只是設(shè)置了參數(shù)類型 val options = List[OptionAssigner]( // All cluster managers OptionAssigner(args.master, ALL_CLUSTER_MGRS, ALL_DEPLOY_MODES, confKey = "spark.master"), OptionAssigner(args.deployMode, ALL_CLUSTER_MGRS, ALL_DEPLOY_MODES, confKey = "spark.submit.deployMode"), OptionAssigner(args.name, ALL_CLUSTER_MGRS, ALL_DEPLOY_MODES, confKey = "spark.app.name"), OptionAssigner(args.ivyRepoPath, ALL_CLUSTER_MGRS, CLIENT, confKey = "spark.jars.ivy"), OptionAssigner(args.driverMemory, ALL_CLUSTER_MGRS, CLIENT, confKey = "spark.driver.memory"), OptionAssigner(args.driverExtraClassPath, ALL_CLUSTER_MGRS, ALL_DEPLOY_MODES, confKey = "spark.driver.extraClassPath"), OptionAssigner(args.driverExtraJavaOptions, ALL_CLUSTER_MGRS, ALL_DEPLOY_MODES, confKey = "spark.driver.extraJavaOptions"), OptionAssigner(args.driverExtraLibraryPath, ALL_CLUSTER_MGRS, ALL_DEPLOY_MODES, confKey = "spark.driver.extraLibraryPath"), // Propagate attributes for dependency resolution at the driver side OptionAssigner(args.packages, STANDALONE | MESOS, CLUSTER, confKey = "spark.jars.packages"), OptionAssigner(args.repositories, STANDALONE | MESOS, CLUSTER, confKey = "spark.jars.repositories"), OptionAssigner(args.ivyRepoPath, STANDALONE | MESOS, CLUSTER, confKey = "spark.jars.ivy"), OptionAssigner(args.packagesExclusions, STANDALONE | MESOS, CLUSTER, confKey = "spark.jars.excludes"), // Yarn only OptionAssigner(args.queue, YARN, ALL_DEPLOY_MODES, confKey = "spark.yarn.queue"), OptionAssigner(args.numExecutors, YARN, ALL_DEPLOY_MODES, confKey = "spark.executor.instances"), OptionAssigner(args.pyFiles, YARN, ALL_DEPLOY_MODES, confKey = "spark.yarn.dist.pyFiles"), OptionAssigner(args.jars, YARN, ALL_DEPLOY_MODES, confKey = "spark.yarn.dist.jars"), OptionAssigner(args.files, YARN, ALL_DEPLOY_MODES, confKey = "spark.yarn.dist.files"), OptionAssigner(args.archives, YARN, ALL_DEPLOY_MODES, confKey = "spark.yarn.dist.archives"), OptionAssigner(args.principal, YARN, ALL_DEPLOY_MODES, confKey = "spark.yarn.principal"), OptionAssigner(args.keytab, YARN, ALL_DEPLOY_MODES, confKey = "spark.yarn.keytab"), // Other options OptionAssigner(args.executorCores, STANDALONE | YARN | KUBERNETES, ALL_DEPLOY_MODES, confKey = "spark.executor.cores"), OptionAssigner(args.executorMemory, STANDALONE | MESOS | YARN | KUBERNETES, ALL_DEPLOY_MODES, confKey = "spark.executor.memory"), OptionAssigner(args.totalExecutorCores, STANDALONE | MESOS | KUBERNETES, ALL_DEPLOY_MODES, confKey = "spark.cores.max"), OptionAssigner(args.files, LOCAL | STANDALONE | MESOS | KUBERNETES, ALL_DEPLOY_MODES, confKey = "spark.files"), OptionAssigner(args.jars, LOCAL, CLIENT, confKey = "spark.jars"), OptionAssigner(args.jars, STANDALONE | MESOS | KUBERNETES, ALL_DEPLOY_MODES, confKey = "spark.jars"), OptionAssigner(args.driverMemory, STANDALONE | MESOS | YARN | KUBERNETES, CLUSTER, confKey = "spark.driver.memory"), OptionAssigner(args.driverCores, STANDALONE | MESOS | YARN | KUBERNETES, CLUSTER, confKey = "spark.driver.cores"), OptionAssigner(args.supervise.toString, STANDALONE | MESOS, CLUSTER, confKey = "spark.driver.supervise"), OptionAssigner(args.ivyRepoPath, STANDALONE, CLUSTER, confKey = "spark.jars.ivy"), // An internal option used only for spark-shell to add user jars to repl's classloader, // previously it uses "spark.jars" or "spark.yarn.dist.jars" which now may be pointed to // remote jars, so adding a new option to only specify local jars for spark-shell internally. OptionAssigner(localJars, ALL_CLUSTER_MGRS, CLIENT, confKey = "spark.repl.local.jars") ) // 在客戶端模式下,直接啟動(dòng)應(yīng)用程序主類 // 另外,將主應(yīng)用程序jar和所有添加的jar(如果有)添加到classpath if (deployMode == CLIENT) { childMainClass = args.mainClass if (localPrimaryResource != null && isUserJar(localPrimaryResource)) { childClasspath += localPrimaryResource } if (localJars != null) { childClasspath ++= localJars.split(",") } } // 添加主應(yīng)用程序jar和任何添加到類路徑的jar,以yarn客戶端需要這些jar。 // 這里假設(shè)primaryResource和user jar都是本地jar,否則它不會(huì)被添加到y(tǒng)arn客戶端的類路徑中。 if (isYarnCluster) { if (isUserJar(args.primaryResource)) { childClasspath += args.primaryResource } if (args.jars != null) { childClasspath ++= args.jars.split(",") } } if (deployMode == CLIENT) { if (args.childArgs != null) { childArgs ++= args.childArgs } } // 將所有參數(shù)映射到我們選擇的模式的命令行選項(xiàng)或系統(tǒng)屬性 for (opt x.split(",").toSeq).getOrElse(Seq.empty) if (isUserJar(args.primaryResource)) { jars = jars ++ Seq(args.primaryResource) } sparkConf.set("spark.jars", jars.mkString(",")) } // 在standalone cluster模式下,使用REST客戶端提交應(yīng)用程序(Spark 1.3+)。所有Spark參數(shù)都將通過(guò)系統(tǒng)屬性傳遞給客戶端。 if (args.isStandaloneCluster) { if (args.useRest) { childMainClass = REST_CLUSTER_SUBMIT_CLASS childArgs += (args.primaryResource, args.mainClass) } else { // In legacy standalone cluster mode, use Client as a wrapper around the user class childMainClass = STANDALONE_CLUSTER_SUBMIT_CLASS if (args.supervise) { childArgs += "--supervise" } Option(args.driverMemory).foreach { m => childArgs += ("--memory", m) } Option(args.driverCores).foreach { c => childArgs += ("--cores", c) } childArgs += "launch" childArgs += (args.master, args.primaryResource, args.mainClass) } if (args.childArgs != null) { childArgs ++= args.childArgs } } // 讓YARN知道這是一個(gè)pyspark應(yīng)用程序,因此它將分發(fā)所需的庫(kù)。 if (clusterManager == YARN) { if (args.isPython) { sparkConf.set("spark.yarn.isPython", "true") } } if (clusterManager == MESOS && UserGroupInformation.isSecurityEnabled) { setRMPrincipal(sparkConf) } // 在yarn-cluster模式下,將yarn.Client用作用戶類的包裝器 if (isYarnCluster) { childMainClass = YARN_CLUSTER_SUBMIT_CLASS if (args.isPython) { childArgs += ("--primary-py-file", args.primaryResource) childArgs += ("--class", "org.apache.spark.deploy.PythonRunner") } else if (args.isR) { val mainFile = new Path(args.primaryResource).getName childArgs += ("--primary-r-file", mainFile) childArgs += ("--class", "org.apache.spark.deploy.RRunner") } else { if (args.primaryResource != SparkLauncher.NO_RESOURCE) { childArgs += ("--jar", args.primaryResource) } childArgs += ("--class", args.mainClass) } if (args.childArgs != null) { args.childArgs.foreach { arg => childArgs += ("--arg", arg) } } } if (isMesosCluster) { assert(args.useRest, "Mesos cluster mode is only supported through the REST submission API") childMainClass = REST_CLUSTER_SUBMIT_CLASS if (args.isPython) { // Second argument is main class childArgs += (args.primaryResource, "") if (args.pyFiles != null) { sparkConf.set("spark.submit.pyFiles", args.pyFiles) } } else if (args.isR) { // Second argument is main class childArgs += (args.primaryResource, "") } else { childArgs += (args.primaryResource, args.mainClass) } if (args.childArgs != null) { childArgs ++= args.childArgs } } if (isKubernetesCluster) { childMainClass = KUBERNETES_CLUSTER_SUBMIT_CLASS if (args.primaryResource != SparkLauncher.NO_RESOURCE) { childArgs ++= Array("--primary-java-resource", args.primaryResource) } childArgs ++= Array("--main-class", args.mainClass) if (args.childArgs != null) { args.childArgs.foreach { arg => childArgs += ("--arg", arg) } } } // 加載通過(guò)--conf和默認(rèn)屬性文件指定的所有屬性 for ((k, v) // 如果存在,用解析的URI替換舊的URI sparkConf.getOption(config).foreach { oldValue => sparkConf.set(config, Utils.resolveURIs(oldValue)) } } // 清理和格式化python文件的路徑 // 如果默認(rèn)配置中有設(shè)置spark.submit.pyFiles,name--py-files不用添加 sparkConf.getOption("spark.submit.pyFiles").foreach { pyFiles => val resolvedPyFiles = Utils.resolveURIs(pyFiles) val formattedPyFiles = if (!isYarnCluster && !isMesosCluster) { PythonRunner.formatPaths(resolvedPyFiles).mkString(",") } else { // 返回清理和格式化后的python文件路徑 resolvedPyFiles } sparkConf.set("spark.submit.pyFiles", formattedPyFiles) } // 最終prepareSubmitEnvironment()返回的元組,對(duì)應(yīng)了(mainclass args, jars classpath, sparkConf, mainclass path) (childArgs, childClasspath, sparkConf, childMainClass) }
    2.4.2.4 doRunMain
    // 主要是調(diào)用runMain()啟動(dòng)相應(yīng)環(huán)境的main()的方法 // 環(huán)境準(zhǔn)備好以后,會(huì)先往下運(yùn)行判斷,這里是在等著調(diào)用 def doRunMain(): Unit = { // 提交時(shí)可以指定--proxy-user,如果沒有指定,則獲取當(dāng)前用戶 if (args.proxyUser != null) { val proxyUser = UserGroupInformation.createProxyUser(args.proxyUser, UserGroupInformation.getCurrentUser()) try { proxyUser.doAs(new PrivilegedExceptionAction[Unit]() { override def run(): Unit = { // 這里是真正的執(zhí)行,runMain() runMain(childArgs, childClasspath, sparkConf, childMainClass, args.verbose) } }) } catch { case e: Exception => // Hadoop's AuthorizationException suppresses the exception's stack trace, which // makes the message printed to the output by the JVM not very helpful. Instead, // detect exceptions with empty stack traces here, and treat them differently. if (e.getStackTrace().length == 0) { // scalastyle:off println printStream.println(s"ERROR: ${e.getClass().getName()}: ${e.getMessage()}") // scalastyle:on println exitFn(1) } else { throw e } } } else { // 沒有指定用戶時(shí)執(zhí)行 runMain(childArgs, childClasspath, sparkConf, childMainClass, args.verbose) } }
    2.4.2.5 runMain
    /** * 使用提供的啟動(dòng)環(huán)境運(yùn)行子類的main方法。 * 請(qǐng)注意,如果我們正在運(yùn)行集群部署模式或python應(yīng)用程序,則該主類將不是用戶提供的主類。 * * 這里的參數(shù)有子類需要的參數(shù),子類路徑,sparkConf,子類main()路徑,參數(shù)重復(fù)判斷 */private def runMain( childArgs: Seq[String], childClasspath: Seq[String], sparkConf: SparkConf, childMainClass: String, verbose: Boolean): Unit = { if (verbose) { printStream.println(s"Main class:$childMainClass") printStream.println(s"Arguments:${childArgs.mkString("")}") printStream.println(s"Spark config:${Utils.redact(sparkConf.getAll.toMap).mkString("")}") printStream.println(s"Classpath elements:${childClasspath.mkString("")}") printStream.println("") } // 初始化類加載器 val loader = if (sparkConf.get(DRIVER_USER_CLASS_PATH_FIRST)) { // 如果用戶設(shè)置了class,通過(guò)ChildFirstURLClassLoader來(lái)加載 new ChildFirstURLClassLoader(new Array[URL](0), Thread.currentThread.getContextClassLoader) } else { // 如果用戶沒有設(shè)置,通過(guò)MutableURLClassLoader來(lái)加載 new MutableURLClassLoader(new Array[URL](0), Thread.currentThread.getContextClassLoader) } // 設(shè)置由上面自定義的類加載器來(lái)加載class到JVM Thread.currentThread.setContextClassLoader(loader) // 從Classpath中添加jars for (jar e.printStackTrace(printStream) if (childMainClass.contains("thriftserver")) { printStream.println(s"Failed to load main class $childMainClass.") printStream.println("You need to build Spark with -Phive and -Phive-thriftserver.") } System.exit(CLASS_NOT_FOUND_EXIT_STATUS) case e: NoClassDefFoundError => e.printStackTrace(printStream) if (e.getMessage.contains("org/apache/hadoop/hive")) { printStream.println(s"Failed to load hive class.") printStream.println("You need to build Spark with -Phive and -Phive-thriftserver.") } System.exit(CLASS_NOT_FOUND_EXIT_STATUS) } /** * 通過(guò)classOf[]構(gòu)建從屬于mainClass的SparkApplication對(duì)象 * 然后通過(guò)mainclass實(shí)例化了SparkApplication * SparkApplication是一個(gè)抽象類,這里主要是實(shí)現(xiàn)它的start() */ val app: SparkApplication = if (classOf[SparkApplication].isAssignableFrom(mainClass)) { mainClass.newInstance().asInstanceOf[SparkApplication] } else { // SPARK-4170 if (classOf[scala.App].isAssignableFrom(mainClass)) { printWarning("Subclasses of scala.App may not work correctly. Use a main() method instead.") } // 如果mainclass無(wú)法實(shí)例化SparkApplication,則使用替代構(gòu)建子類JavaMainApplication實(shí)例 new JavaMainApplication(mainClass) } @tailrec def findCause(t: Throwable): Throwable = t match { case e: UndeclaredThrowableException => if (e.getCause() != null) findCause(e.getCause()) else e case e: InvocationTargetException => if (e.getCause() != null) findCause(e.getCause()) else e case e: Throwable => e } try { // 啟動(dòng)實(shí)例 app.start(childArgs.toArray, sparkConf) } catch { case t: Throwable => findCause(t) match { case SparkUserAppException(exitCode) => System.exit(exitCode) case t: Throwable => throw t } }}

    2.4.3 SparkApplication

    package org.apache.spark.deployimport java.lang.reflect.Modifierimport org.apache.spark.SparkConf/** * 這是spark任務(wù)的入口抽象類,需要實(shí)現(xiàn)它的無(wú)參構(gòu)造 */private[spark] trait SparkApplication { def start(args: Array[String], conf: SparkConf): Unit}/** * 用main方法包裝標(biāo)準(zhǔn)java類的SparkApplication實(shí)現(xiàn) * * 用main方法包裝標(biāo)準(zhǔn)java類的SparkApplication實(shí)現(xiàn)配置是通過(guò)系統(tǒng)配置文件傳遞,在同一個(gè)JVM中加載太多配置會(huì)可能導(dǎo)致配置溢出 */private[deploy] class JavaMainApplication(klass: Class[_]) extends SparkApplication { override def start(args: Array[String], conf: SparkConf): Unit = { val mainMethod = klass.getMethod("main", new Array[String](0).getClass) if (!Modifier.isStatic(mainMethod.getModifiers)) { throw new IllegalStateException("The main method in the given main class must be static") } val sysProps = conf.getAll.toMap sysProps.foreach { case (k, v) => sys.props(k) = v } mainMethod.invoke(null, args) }}

    如果是在本地模式,到SparkApplication這個(gè)類這里已經(jīng)運(yùn)行結(jié)束。

    但是如果是yarn cluster模式,它創(chuàng)建的實(shí)例是不同的,也就是start()啟動(dòng)的類其實(shí)是YarnClusterApplication,同樣繼承了SparkApplication,在后續(xù)的文章中回繼續(xù)跟進(jìn)。

    3. 源碼地址


    https://github.com/perkinls/spark-2.3.3

    4. 參考文獻(xiàn)

    《Spark內(nèi)核設(shè)計(jì)藝術(shù)》 關(guān)注公眾號(hào)Data Porter 回復(fù): Spark內(nèi)核設(shè)計(jì)藝術(shù)免費(fèi)領(lǐng)取

    https://github.com/apache/spark

    https://github.com/CrestOfWave/Spark-2.3.1

    https://blog.csdn.net/do_yourself_go_on/article/details/75005204

    https://blog.csdn.net/lingeio/article/details/96900714

    歡迎公眾號(hào):Data Porter 免費(fèi)獲取數(shù)據(jù)結(jié)構(gòu)、Java、Scala、Python、大數(shù)據(jù)、區(qū)塊鏈、機(jī)器學(xué)習(xí)等學(xué)習(xí)資料。好手不敵雙拳,雙拳不如四手!希望認(rèn)識(shí)更多的朋友一起成長(zhǎng)、共同進(jìn)步!

    總結(jié)

    以上是生活随笔為你收集整理的spark shell 删除失效_Spark任务提交源码解析的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    搡女人真爽免费视频大全 | 国产电影无码午夜在线播放 | 天干天干啦夜天干天2017 | 精品无人国产偷自产在线 | 亚洲中文字幕在线无码一区二区 | 丁香啪啪综合成人亚洲 | 亚洲人成无码网www | 97人妻精品一区二区三区 | 一本久道高清无码视频 | 欧美变态另类xxxx | 97无码免费人妻超级碰碰夜夜 | 亚洲熟妇色xxxxx欧美老妇y | 一本加勒比波多野结衣 | 国产香蕉97碰碰久久人人 | 久9re热视频这里只有精品 | 国产精品久久久久无码av色戒 | 欧美成人午夜精品久久久 | 欧美一区二区三区视频在线观看 | 国产精品内射视频免费 | 中文精品久久久久人妻不卡 | 又紧又大又爽精品一区二区 | 日韩精品a片一区二区三区妖精 | 日本成熟视频免费视频 | 无码人妻出轨黑人中文字幕 | 国产亚洲精品精品国产亚洲综合 | 免费男性肉肉影院 | 老熟女重囗味hdxx69 | 久久99热只有频精品8 | aa片在线观看视频在线播放 | 成 人 网 站国产免费观看 | 少妇高潮一区二区三区99 | 婷婷色婷婷开心五月四房播播 | 亚洲大尺度无码无码专区 | 国产又爽又黄又刺激的视频 | 香港三级日本三级妇三级 | 高清无码午夜福利视频 | 亚洲 a v无 码免 费 成 人 a v | 国产亚洲精品久久久久久久久动漫 | 午夜不卡av免费 一本久久a久久精品vr综合 | 亚洲精品久久久久中文第一幕 | 蜜桃av抽搐高潮一区二区 | 人人妻人人藻人人爽欧美一区 | 久久婷婷五月综合色国产香蕉 | 亚洲 高清 成人 动漫 | 国内揄拍国内精品少妇国语 | 中文字幕人妻无码一区二区三区 | 中文字幕无码av波多野吉衣 | 色老头在线一区二区三区 | 亚洲国产精品无码久久久久高潮 | 亚洲国产欧美日韩精品一区二区三区 | 2019午夜福利不卡片在线 | 国产人妻人伦精品1国产丝袜 | 免费播放一区二区三区 | 性生交大片免费看女人按摩摩 | 高中生自慰www网站 | 性生交大片免费看l | 国产手机在线αⅴ片无码观看 | 日韩人妻系列无码专区 | 久久综合给久久狠狠97色 | 少妇太爽了在线观看 | 久久国产36精品色熟妇 | 国产精品va在线播放 | 综合激情五月综合激情五月激情1 | 日产精品99久久久久久 | 亚洲精品午夜国产va久久成人 | 老熟女重囗味hdxx69 | 免费国产成人高清在线观看网站 | 精品成人av一区二区三区 | 国产 浪潮av性色四虎 | 国产综合色产在线精品 | 欧美性猛交xxxx富婆 | 亚洲а∨天堂久久精品2021 | 午夜福利不卡在线视频 | 99久久人妻精品免费一区 | 无码午夜成人1000部免费视频 | 日本丰满护士爆乳xxxx | 国产精品自产拍在线观看 | 国产亚洲精品久久久久久大师 | 99久久久无码国产aaa精品 | 中文无码精品a∨在线观看不卡 | 亚洲码国产精品高潮在线 | 啦啦啦www在线观看免费视频 | 东京热男人av天堂 | 亲嘴扒胸摸屁股激烈网站 | 性生交大片免费看女人按摩摩 | 国産精品久久久久久久 | 亚洲自偷自偷在线制服 | 成人无码精品1区2区3区免费看 | 久久综合网欧美色妞网 | 少妇无码一区二区二三区 | 久久久久久久久蜜桃 | 日韩人妻无码一区二区三区久久99 | 久久国产精品精品国产色婷婷 | 国产农村乱对白刺激视频 | 国产精品香蕉在线观看 | 国产两女互慰高潮视频在线观看 | 亚洲热妇无码av在线播放 | 国产成人无码区免费内射一片色欲 | 国产9 9在线 | 中文 | 亚洲一区二区三区偷拍女厕 | 欧美黑人性暴力猛交喷水 | 最新国产麻豆aⅴ精品无码 | 伊在人天堂亚洲香蕉精品区 | 久在线观看福利视频 | 最新版天堂资源中文官网 | 亚洲国产成人a精品不卡在线 | 老司机亚洲精品影院 | 少妇人妻av毛片在线看 | 欧美 日韩 人妻 高清 中文 | 亚洲日韩乱码中文无码蜜桃臀网站 | 欧美人与禽zoz0性伦交 | 亚洲码国产精品高潮在线 | 波多野结衣 黑人 | 国产婷婷色一区二区三区在线 | 夜夜影院未满十八勿进 | 国产综合在线观看 | 欧美国产日韩亚洲中文 | 亚洲国产av精品一区二区蜜芽 | 日本xxxx色视频在线观看免费 | 99精品视频在线观看免费 | 人人爽人人澡人人人妻 | 精品欧美一区二区三区久久久 | 麻豆国产丝袜白领秘书在线观看 | 亚拍精品一区二区三区探花 | 日本精品人妻无码77777 天堂一区人妻无码 | 国产一区二区三区四区五区加勒比 | 伦伦影院午夜理论片 | 性啪啪chinese东北女人 | 久久精品人妻少妇一区二区三区 | 一本久久伊人热热精品中文字幕 | 国产激情一区二区三区 | 97久久国产亚洲精品超碰热 | 色婷婷综合激情综在线播放 | 亚洲伊人久久精品影院 | 欧美大屁股xxxxhd黑色 | 澳门永久av免费网站 | 永久免费精品精品永久-夜色 | 亚洲成色在线综合网站 | 欧美丰满熟妇xxxx性ppx人交 | 国产尤物精品视频 | 亚洲国产一区二区三区在线观看 | 亚洲精品国产品国语在线观看 | 国产av久久久久精东av | 免费国产成人高清在线观看网站 | 日本一区二区三区免费播放 | 成年美女黄网站色大免费视频 | 国产午夜手机精彩视频 | 久久久久免费精品国产 | 麻豆精品国产精华精华液好用吗 | 久久久久久久久蜜桃 | 麻豆精品国产精华精华液好用吗 | 精品日本一区二区三区在线观看 | 亚洲人成无码网www | 亚洲经典千人经典日产 | 亚洲欧美日韩成人高清在线一区 | 性欧美大战久久久久久久 | 国产精品美女久久久久av爽李琼 | 西西人体www44rt大胆高清 | 又色又爽又黄的美女裸体网站 | 婷婷五月综合缴情在线视频 | 乱码av麻豆丝袜熟女系列 | 欧美激情综合亚洲一二区 | 久久亚洲精品中文字幕无男同 | 人妻少妇精品视频专区 | 午夜福利一区二区三区在线观看 | 国产一区二区三区四区五区加勒比 | 特级做a爰片毛片免费69 | 欧美日韩亚洲国产精品 | 国产偷国产偷精品高清尤物 | 99精品无人区乱码1区2区3区 | 国产亚洲精品久久久久久大师 | 六月丁香婷婷色狠狠久久 | 精品久久久久久亚洲精品 | 亚洲综合在线一区二区三区 | 日日摸夜夜摸狠狠摸婷婷 | 98国产精品综合一区二区三区 | 精品 日韩 国产 欧美 视频 | 巨爆乳无码视频在线观看 | 蜜桃视频插满18在线观看 | 国产香蕉尹人综合在线观看 | 亚洲国产精品一区二区美利坚 | 色偷偷人人澡人人爽人人模 | 国内老熟妇对白xxxxhd | 亚洲综合久久一区二区 | 亚洲а∨天堂久久精品2021 | 亚洲人成人无码网www国产 | 99久久精品午夜一区二区 | 无码帝国www无码专区色综合 | 亚洲精品一区二区三区在线 | 国产精品久久久久久久影院 | 亚洲阿v天堂在线 | 天天爽夜夜爽夜夜爽 | 老头边吃奶边弄进去呻吟 | 天天爽夜夜爽夜夜爽 | 国产在线精品一区二区三区直播 | 国产精品a成v人在线播放 | 色一情一乱一伦一区二区三欧美 | 亚洲一区二区三区在线观看网站 | 日韩欧美中文字幕公布 | 牲交欧美兽交欧美 | 日韩精品无码一区二区中文字幕 | 精品久久久无码中文字幕 | 国产精品欧美成人 | 97精品人妻一区二区三区香蕉 | 中文字幕av无码一区二区三区电影 | 亚洲色无码一区二区三区 | 性色av无码免费一区二区三区 | 欧美日本免费一区二区三区 | 亚洲一区二区观看播放 | 精品偷拍一区二区三区在线看 | 国产亚av手机在线观看 | 成人无码影片精品久久久 | 欧美午夜特黄aaaaaa片 | 国产精品美女久久久网av | 国产激情综合五月久久 | 国产乱人无码伦av在线a | 中文无码精品a∨在线观看不卡 | 人人妻在人人 | 老子影院午夜精品无码 | 久久久久av无码免费网 | 亚洲国产精品成人久久蜜臀 | 丰满人妻被黑人猛烈进入 | 亚洲精品综合一区二区三区在线 | 性欧美疯狂xxxxbbbb | 扒开双腿吃奶呻吟做受视频 | 亚洲中文字幕在线观看 | 中文字幕乱妇无码av在线 | 成年女人永久免费看片 | 97夜夜澡人人爽人人喊中国片 | 亚洲呦女专区 | 国产成人精品三级麻豆 | 国产成人无码专区 | 婷婷综合久久中文字幕蜜桃三电影 | 国产成人精品视频ⅴa片软件竹菊 | 狠狠cao日日穞夜夜穞av | 美女毛片一区二区三区四区 | 无码帝国www无码专区色综合 | 国产性生交xxxxx无码 | 国产亚洲美女精品久久久2020 | 亚洲 日韩 欧美 成人 在线观看 | v一区无码内射国产 | 成年美女黄网站色大免费全看 | 18精品久久久无码午夜福利 | 日本丰满护士爆乳xxxx | 国产午夜视频在线观看 | 亚洲熟妇色xxxxx亚洲 | 亚洲大尺度无码无码专区 | 正在播放老肥熟妇露脸 | 最近中文2019字幕第二页 | 亚洲欧美日韩综合久久久 | 国产真人无遮挡作爱免费视频 | 天天摸天天碰天天添 | 成人性做爰aaa片免费看 | 亚洲va欧美va天堂v国产综合 | 午夜男女很黄的视频 | 亚洲gv猛男gv无码男同 | 亚洲精品中文字幕乱码 | 国产va免费精品观看 | 日韩精品无码免费一区二区三区 | 亚洲经典千人经典日产 | 久久天天躁夜夜躁狠狠 | 国内少妇偷人精品视频 | 无遮挡国产高潮视频免费观看 | 亚洲а∨天堂久久精品2021 | 强辱丰满人妻hd中文字幕 | 亚洲天堂2017无码中文 | 久久综合狠狠综合久久综合88 | 熟妇人妻无乱码中文字幕 | 亚洲精品国产第一综合99久久 | 中文字幕亚洲情99在线 | 东北女人啪啪对白 | 成人综合网亚洲伊人 | 国语自产偷拍精品视频偷 | 日日天日日夜日日摸 | 噜噜噜亚洲色成人网站 | 少妇人妻大乳在线视频 | 内射巨臀欧美在线视频 | 久久精品一区二区三区四区 | 欧美老人巨大xxxx做受 | 亚洲色欲色欲天天天www | 最新国产麻豆aⅴ精品无码 | 亚洲 高清 成人 动漫 | 人妻少妇精品无码专区动漫 | av在线亚洲欧洲日产一区二区 | 丰满人妻翻云覆雨呻吟视频 | 亚洲伊人久久精品影院 | 狠狠综合久久久久综合网 | 精品久久综合1区2区3区激情 | 久久精品国产大片免费观看 | 中文字幕人成乱码熟女app | 无码福利日韩神码福利片 | 色综合久久网 | 国产精品久久久久久亚洲毛片 | 亚洲人亚洲人成电影网站色 | 国产精品久久久久久久影院 | 性欧美大战久久久久久久 | 久久国产精品_国产精品 | 亚洲精品久久久久久一区二区 | 亚洲无人区一区二区三区 | 娇妻被黑人粗大高潮白浆 | 中文字幕乱码人妻无码久久 | 午夜男女很黄的视频 | 中文字幕 人妻熟女 | 精品久久8x国产免费观看 | 国产成人精品一区二区在线小狼 | 久久这里只有精品视频9 | 国产香蕉97碰碰久久人人 | 给我免费的视频在线观看 | 99久久人妻精品免费二区 | 国产免费久久精品国产传媒 | 国产乱码精品一品二品 | 欧美丰满少妇xxxx性 | 国产精品无码一区二区桃花视频 | 77777熟女视频在线观看 а天堂中文在线官网 | 丝袜人妻一区二区三区 | 精品无码av一区二区三区 | 人妻无码αv中文字幕久久琪琪布 | 国产真实伦对白全集 | 精品久久久无码中文字幕 | 人妻夜夜爽天天爽三区 | 一本久久伊人热热精品中文字幕 | 97无码免费人妻超级碰碰夜夜 | 久久精品国产大片免费观看 | 国产三级久久久精品麻豆三级 | 午夜性刺激在线视频免费 | 欧美刺激性大交 | 三上悠亚人妻中文字幕在线 | 在线看片无码永久免费视频 | 成年女人永久免费看片 | 欧美老妇与禽交 | 久久视频在线观看精品 | 国产97色在线 | 免 | 欧美日韩综合一区二区三区 | 亚洲gv猛男gv无码男同 | 日本精品高清一区二区 | 波多野42部无码喷潮在线 | 免费视频欧美无人区码 | 亚洲国产精品久久久久久 | 亚洲春色在线视频 | 成在人线av无码免观看麻豆 | а天堂中文在线官网 | 中文字幕乱码人妻二区三区 | 国产内射爽爽大片视频社区在线 | 亚洲精品一区二区三区四区五区 | 亚洲a无码综合a国产av中文 | 国产精品va在线观看无码 | 2020久久香蕉国产线看观看 | 男女性色大片免费网站 | 国产香蕉尹人综合在线观看 | 欧洲熟妇色 欧美 | 黑人巨大精品欧美黑寡妇 | 精品国精品国产自在久国产87 | a在线观看免费网站大全 | 色欲综合久久中文字幕网 | 娇妻被黑人粗大高潮白浆 | 国产特级毛片aaaaaaa高清 | 欧美xxxx黑人又粗又长 | 日本在线高清不卡免费播放 | 国产成人精品优优av | 亚洲综合久久一区二区 | 国产精品人人爽人人做我的可爱 | 亚洲七七久久桃花影院 | 男女性色大片免费网站 | 精品人妻中文字幕有码在线 | 在线欧美精品一区二区三区 | 无码纯肉视频在线观看 | 日韩av无码一区二区三区不卡 | 国产 精品 自在自线 | 国产精品视频免费播放 | 国产又爽又猛又粗的视频a片 | 97久久超碰中文字幕 | 日本又色又爽又黄的a片18禁 | 午夜理论片yy44880影院 | 欧美性猛交xxxx富婆 | 亚洲一区二区三区含羞草 | 国产精品成人av在线观看 | 亚洲国产精品美女久久久久 | 精品久久8x国产免费观看 | 国产手机在线αⅴ片无码观看 | 国产精品第一国产精品 | 亚洲无人区一区二区三区 | 婷婷综合久久中文字幕蜜桃三电影 | 亚洲国产高清在线观看视频 | 久久99精品久久久久久 | √天堂中文官网8在线 | 亚洲综合精品香蕉久久网 | 曰韩无码二三区中文字幕 | 国产亚洲日韩欧美另类第八页 | 亚洲乱码日产精品bd | 熟女少妇在线视频播放 | 双乳奶水饱满少妇呻吟 | 亚洲欧美日韩成人高清在线一区 | 亚洲人亚洲人成电影网站色 | 亚洲性无码av中文字幕 | 久久99热只有频精品8 | 免费观看又污又黄的网站 | 无人区乱码一区二区三区 | 77777熟女视频在线观看 а天堂中文在线官网 | 中文无码成人免费视频在线观看 | 任你躁在线精品免费 | 日本爽爽爽爽爽爽在线观看免 | 亚洲精品一区二区三区四区五区 | 人人妻人人澡人人爽人人精品浪潮 | 日产精品99久久久久久 | 国产精品久久久久9999小说 | 在线观看免费人成视频 | 国产精品永久免费视频 | 2020久久香蕉国产线看观看 | 久青草影院在线观看国产 | 性欧美疯狂xxxxbbbb | 午夜熟女插插xx免费视频 | 亚洲啪av永久无码精品放毛片 | 牲欲强的熟妇农村老妇女 | 丰满护士巨好爽好大乳 | 在线亚洲高清揄拍自拍一品区 | 中文字幕 亚洲精品 第1页 | 少妇无码av无码专区在线观看 | 狂野欧美激情性xxxx | 在线精品亚洲一区二区 | 人人妻人人澡人人爽人人精品 | 亚洲理论电影在线观看 | 1000部啪啪未满十八勿入下载 | 亚洲 欧美 激情 小说 另类 | 亚洲中文字幕无码中字 | 中文字幕无码免费久久9一区9 | 精品久久久无码中文字幕 | 东京热无码av男人的天堂 | 色婷婷久久一区二区三区麻豆 | 久久99国产综合精品 | 精品欧美一区二区三区久久久 | 亚洲春色在线视频 | 四十如虎的丰满熟妇啪啪 | 国产精品第一国产精品 | 久久99久久99精品中文字幕 | 牲交欧美兽交欧美 | 高清国产亚洲精品自在久久 | 久久伊人色av天堂九九小黄鸭 | 性色欲情网站iwww九文堂 | 色综合久久久久综合一本到桃花网 | 丝袜人妻一区二区三区 | 麻豆精品国产精华精华液好用吗 | av在线亚洲欧洲日产一区二区 | 国产网红无码精品视频 | 少妇无套内谢久久久久 | 狠狠色丁香久久婷婷综合五月 | 国产又爽又黄又刺激的视频 | 国产人妻人伦精品 | 东京热男人av天堂 | 精品久久综合1区2区3区激情 | 国产va免费精品观看 | 欧美丰满熟妇xxxx | 亚洲精品中文字幕久久久久 | 亚洲无人区一区二区三区 | 性史性农村dvd毛片 | 国产极品美女高潮无套在线观看 | 学生妹亚洲一区二区 | 性欧美熟妇videofreesex | 熟妇人妻无码xxx视频 | 一本久久a久久精品vr综合 | 无码人妻精品一区二区三区不卡 | 久久久久se色偷偷亚洲精品av | 国语自产偷拍精品视频偷 | 漂亮人妻洗澡被公强 日日躁 | 亚洲乱码日产精品bd | 欧美国产亚洲日韩在线二区 | 亚洲一区二区三区在线观看网站 | 午夜免费福利小电影 | 乌克兰少妇xxxx做受 | 国产又爽又黄又刺激的视频 | 日韩av无码中文无码电影 | 国产精品无码成人午夜电影 | 2020最新国产自产精品 | 亚洲人成网站免费播放 | 97精品国产97久久久久久免费 | 国产成人无码a区在线观看视频app | 亚洲国产高清在线观看视频 | 人妻插b视频一区二区三区 | 欧美丰满熟妇xxxx | 丰满肥臀大屁股熟妇激情视频 | 精品成在人线av无码免费看 | 久久成人a毛片免费观看网站 | 国产精品爱久久久久久久 | 未满小14洗澡无码视频网站 | 国产成人亚洲综合无码 | 亚洲无人区一区二区三区 | 久久综合激激的五月天 | 无码国模国产在线观看 | 国产卡一卡二卡三 | 国产成人亚洲综合无码 | 欧美老妇交乱视频在线观看 | 久久99精品国产麻豆 | 奇米影视7777久久精品 | 奇米影视7777久久精品人人爽 | 好男人社区资源 | 成年美女黄网站色大免费视频 | 自拍偷自拍亚洲精品被多人伦好爽 | 人妻天天爽夜夜爽一区二区 | 精品一区二区不卡无码av | 国产超级va在线观看视频 | 欧美野外疯狂做受xxxx高潮 | 国产人妻精品一区二区三区不卡 | 亚洲狠狠婷婷综合久久 | 精品熟女少妇av免费观看 | 成人无码视频在线观看网站 | 日本va欧美va欧美va精品 | 国产精品亚洲五月天高清 | 久久久精品成人免费观看 | а√天堂www在线天堂小说 | 嫩b人妻精品一区二区三区 | 国产舌乚八伦偷品w中 | 亚洲综合在线一区二区三区 | 国产成人精品一区二区在线小狼 | 国内老熟妇对白xxxxhd | 亚洲 高清 成人 动漫 | 亚洲日本一区二区三区在线 | 欧美日韩亚洲国产精品 | 一本久道久久综合婷婷五月 | 精品国产乱码久久久久乱码 | 久久无码中文字幕免费影院蜜桃 | 久久久久久av无码免费看大片 | 中文字幕乱码亚洲无线三区 | 国产高清av在线播放 | 欧美三级不卡在线观看 | 亚洲国产欧美国产综合一区 | 97精品人妻一区二区三区香蕉 | 最新国产乱人伦偷精品免费网站 | www国产亚洲精品久久久日本 | 久久久精品456亚洲影院 | 久久亚洲精品成人无码 | 精品午夜福利在线观看 | 无码午夜成人1000部免费视频 | 九九久久精品国产免费看小说 | 美女毛片一区二区三区四区 | 免费网站看v片在线18禁无码 | 国内少妇偷人精品视频 | 亚洲成a人片在线观看无码3d | 伊人久久大香线焦av综合影院 | 日韩在线不卡免费视频一区 | 少妇久久久久久人妻无码 | 国产人妖乱国产精品人妖 | 中国大陆精品视频xxxx | 国产超级va在线观看视频 | 扒开双腿疯狂进出爽爽爽视频 | 色一情一乱一伦一区二区三欧美 | 波多野结衣av一区二区全免费观看 | 鲁大师影院在线观看 | 国产午夜无码视频在线观看 | 国产美女精品一区二区三区 | 成熟女人特级毛片www免费 | 丰腴饱满的极品熟妇 | 久久人人爽人人爽人人片ⅴ | av无码电影一区二区三区 | 久久精品成人欧美大片 | 无码吃奶揉捏奶头高潮视频 | 欧美人与善在线com | 午夜福利一区二区三区在线观看 | 丰满少妇高潮惨叫视频 | 无码乱肉视频免费大全合集 | 亚洲理论电影在线观看 | 国产69精品久久久久app下载 | 中文字幕乱码中文乱码51精品 | 国产麻豆精品一区二区三区v视界 | 国产精品高潮呻吟av久久4虎 | 伊人久久大香线蕉av一区二区 | 青春草在线视频免费观看 | 国产精品鲁鲁鲁 | 亚洲第一无码av无码专区 | 久久国产精品二国产精品 | 东京热无码av男人的天堂 | 呦交小u女精品视频 | 麻豆果冻传媒2021精品传媒一区下载 | 国产精品欧美成人 | 色偷偷人人澡人人爽人人模 | 少妇人妻大乳在线视频 | 日韩精品久久久肉伦网站 | 波多野结衣av在线观看 | 永久免费观看国产裸体美女 | 国产亚洲美女精品久久久2020 | 日本大乳高潮视频在线观看 | 欧美精品免费观看二区 | 午夜精品久久久久久久 | 全黄性性激高免费视频 | 国产人妻精品午夜福利免费 | 无码福利日韩神码福利片 | 少妇性俱乐部纵欲狂欢电影 | 亚洲综合在线一区二区三区 | 亚洲小说春色综合另类 | 国产午夜福利100集发布 | 高潮喷水的毛片 | 亚洲aⅴ无码成人网站国产app | 97夜夜澡人人双人人人喊 | 久久精品国产一区二区三区肥胖 | 久久aⅴ免费观看 | 免费无码一区二区三区蜜桃大 | 免费观看的无遮挡av | 成人av无码一区二区三区 | 中文字幕无码日韩专区 | 六十路熟妇乱子伦 | 东京热无码av男人的天堂 | 中文字幕无码视频专区 | 无码国模国产在线观看 | 亚洲熟悉妇女xxx妇女av | 中文亚洲成a人片在线观看 | 中文字幕亚洲情99在线 | 色欲av亚洲一区无码少妇 | 成人片黄网站色大片免费观看 | 欧美人与动性行为视频 | 亚洲国产午夜精品理论片 | 两性色午夜视频免费播放 | 人人澡人摸人人添 | 亚洲国产高清在线观看视频 | 无人区乱码一区二区三区 | a在线亚洲男人的天堂 | 熟妇人妻中文av无码 | 无码人妻丰满熟妇区毛片18 | 欧美35页视频在线观看 | yw尤物av无码国产在线观看 | 少妇无码av无码专区在线观看 | 免费国产黄网站在线观看 | 激情国产av做激情国产爱 | 麻豆精品国产精华精华液好用吗 | 欧洲vodafone精品性 | 久久国产精品二国产精品 | 给我免费的视频在线观看 | 奇米影视7777久久精品 | 性做久久久久久久久 | 少妇无套内谢久久久久 | 亚洲精品久久久久久久久久久 | 小sao货水好多真紧h无码视频 | 免费人成网站视频在线观看 | 波多野结衣高清一区二区三区 | √天堂资源地址中文在线 | 亚洲成av人综合在线观看 | 内射欧美老妇wbb | 日本饥渴人妻欲求不满 | 激情五月综合色婷婷一区二区 | 亚洲精品欧美二区三区中文字幕 | 欧美老熟妇乱xxxxx | 国产av无码专区亚洲a∨毛片 | 婷婷综合久久中文字幕蜜桃三电影 | 西西人体www44rt大胆高清 | 午夜精品久久久久久久久 | 国产真实乱对白精彩久久 | 三上悠亚人妻中文字幕在线 | 国产精品亚洲五月天高清 | 一区二区传媒有限公司 | 久久精品中文闷骚内射 | 色综合久久久无码中文字幕 | 偷窥日本少妇撒尿chinese | 久久午夜无码鲁丝片 | 久久久久久九九精品久 | 人妻与老人中文字幕 | 日韩无套无码精品 | 一个人免费观看的www视频 | 日本精品人妻无码免费大全 | 国产一区二区三区日韩精品 | 国产av剧情md精品麻豆 | 日日麻批免费40分钟无码 | 风流少妇按摩来高潮 | 国产精品美女久久久久av爽李琼 | 呦交小u女精品视频 | 婷婷五月综合缴情在线视频 | 亚洲一区二区三区含羞草 | 亚洲精品一区三区三区在线观看 | 国产特级毛片aaaaaa高潮流水 | 精品一区二区三区无码免费视频 | 欧美精品免费观看二区 | 亚洲综合精品香蕉久久网 | 日韩精品久久久肉伦网站 | 国产精品欧美成人 | 亚洲一区二区三区无码久久 | 1000部夫妻午夜免费 | 国产精品对白交换视频 | 女人高潮内射99精品 | 波多野结衣一区二区三区av免费 | 性欧美熟妇videofreesex | 国产成人午夜福利在线播放 | 亚洲精品综合五月久久小说 | 欧美成人午夜精品久久久 | 无码人妻久久一区二区三区不卡 | 妺妺窝人体色www在线小说 | 日本乱偷人妻中文字幕 | 亚洲 另类 在线 欧美 制服 | 丰满少妇女裸体bbw | 中文字幕亚洲情99在线 | 亚洲国产精华液网站w | 免费乱码人妻系列无码专区 | 亚洲а∨天堂久久精品2021 | 中文字幕乱码人妻二区三区 | 国产99久久精品一区二区 | 1000部啪啪未满十八勿入下载 | 野外少妇愉情中文字幕 | 中文字幕无码免费久久9一区9 | 日本饥渴人妻欲求不满 | 国产午夜手机精彩视频 | 国内揄拍国内精品人妻 | 亚洲精品一区二区三区四区五区 | 无遮挡啪啪摇乳动态图 | 无码人妻精品一区二区三区不卡 | 成人毛片一区二区 | 露脸叫床粗话东北少妇 | 天堂在线观看www | 久久国产36精品色熟妇 | 久久午夜无码鲁丝片午夜精品 | 香蕉久久久久久av成人 | 俺去俺来也www色官网 | 久久久精品人妻久久影视 | 大肉大捧一进一出视频出来呀 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产农村乱对白刺激视频 | 伊人色综合久久天天小片 | 人人妻人人澡人人爽欧美一区 | 九月婷婷人人澡人人添人人爽 | 久久国产精品精品国产色婷婷 | 国精产品一品二品国精品69xx | 俺去俺来也www色官网 | 麻豆av传媒蜜桃天美传媒 | 国产农村妇女高潮大叫 | 久久亚洲精品成人无码 | 欧美猛少妇色xxxxx | 亚洲自偷自偷在线制服 | 自拍偷自拍亚洲精品10p | 狠狠cao日日穞夜夜穞av | 在线a亚洲视频播放在线观看 | 国产色精品久久人妻 | 国产色在线 | 国产 | 蜜臀av无码人妻精品 | 青青草原综合久久大伊人精品 | 欧美怡红院免费全部视频 | 午夜精品一区二区三区的区别 | 日韩欧美中文字幕公布 | 日本精品久久久久中文字幕 | 亚洲色www成人永久网址 | a片免费视频在线观看 | 国产精品福利视频导航 | 国产av剧情md精品麻豆 | 天天综合网天天综合色 | 久久午夜夜伦鲁鲁片无码免费 | 夜夜躁日日躁狠狠久久av | 欧美丰满少妇xxxx性 | 久久久久久久久蜜桃 | 国产偷国产偷精品高清尤物 | 黑人大群体交免费视频 | 国产免费久久久久久无码 | 免费看男女做好爽好硬视频 | 国内揄拍国内精品少妇国语 | 亚洲自偷自拍另类第1页 | 久久久久se色偷偷亚洲精品av | 天堂亚洲2017在线观看 | 国产精品香蕉在线观看 | 国产免费观看黄av片 | 久久熟妇人妻午夜寂寞影院 | 国产绳艺sm调教室论坛 | 99re在线播放 | 久久精品国产99精品亚洲 | 欧洲极品少妇 | 少妇被黑人到高潮喷出白浆 | 亚洲精品综合一区二区三区在线 | 国产免费久久久久久无码 | 精品夜夜澡人妻无码av蜜桃 | 99久久精品国产一区二区蜜芽 | 国产亚洲精品精品国产亚洲综合 | 欧美日本精品一区二区三区 | 日日天干夜夜狠狠爱 | 国产xxx69麻豆国语对白 | 亚洲另类伦春色综合小说 | 中文无码成人免费视频在线观看 | 亚洲色欲久久久综合网东京热 | 亲嘴扒胸摸屁股激烈网站 | 亚洲s码欧洲m码国产av | 亚洲一区二区三区无码久久 | 欧美激情一区二区三区成人 | 精品乱码久久久久久久 | 国产手机在线αⅴ片无码观看 | 最近的中文字幕在线看视频 | 国产一区二区三区日韩精品 | 亚洲国产av精品一区二区蜜芽 | 天下第一社区视频www日本 | 中文字幕乱码亚洲无线三区 | 国产香蕉97碰碰久久人人 | 国产九九九九九九九a片 | 欧美肥老太牲交大战 | 国产艳妇av在线观看果冻传媒 | 日日碰狠狠躁久久躁蜜桃 | 国产偷自视频区视频 | 亚洲精品欧美二区三区中文字幕 | 少妇久久久久久人妻无码 | 免费国产黄网站在线观看 | 精品 日韩 国产 欧美 视频 | 男人扒开女人内裤强吻桶进去 | 九月婷婷人人澡人人添人人爽 | 欧美高清在线精品一区 | 99久久婷婷国产综合精品青草免费 | 久久五月精品中文字幕 | 日韩精品无码免费一区二区三区 | 影音先锋中文字幕无码 | www国产亚洲精品久久久日本 | 色欲人妻aaaaaaa无码 | 2020久久超碰国产精品最新 | 精品成人av一区二区三区 | 无码人妻黑人中文字幕 | 无码人中文字幕 | 精品国产青草久久久久福利 | 丰满人妻被黑人猛烈进入 | 国产精品久久国产三级国 | 国产精品久久久午夜夜伦鲁鲁 | 亚洲综合在线一区二区三区 | 亚洲国产精品无码久久久久高潮 | 97精品人妻一区二区三区香蕉 | 久久熟妇人妻午夜寂寞影院 | 性色av无码免费一区二区三区 | 亚洲成av人综合在线观看 | 国产色精品久久人妻 | 红桃av一区二区三区在线无码av | 人妻体内射精一区二区三四 | 300部国产真实乱 | 免费国产成人高清在线观看网站 | 国产莉萝无码av在线播放 | 国产绳艺sm调教室论坛 | 久久久久免费看成人影片 | 成人免费视频视频在线观看 免费 | 丰满人妻被黑人猛烈进入 | 亚洲熟妇自偷自拍另类 | 伦伦影院午夜理论片 | 日韩精品无码一区二区中文字幕 | 亚洲 高清 成人 动漫 | 老熟妇仑乱视频一区二区 | 亚洲色在线无码国产精品不卡 | 天下第一社区视频www日本 | 久久国产精品_国产精品 | www国产亚洲精品久久久日本 | 中国女人内谢69xxxx | 在线播放免费人成毛片乱码 | 中文毛片无遮挡高清免费 | 成人精品天堂一区二区三区 | 大地资源网第二页免费观看 | 亚洲狠狠色丁香婷婷综合 | 亚洲gv猛男gv无码男同 | 人人妻人人澡人人爽人人精品 | 国产精品多人p群无码 | 夜夜影院未满十八勿进 | 午夜福利一区二区三区在线观看 | 亚洲日本在线电影 | 亚洲成av人片在线观看无码不卡 | 亚洲日本在线电影 | 国产亚洲人成在线播放 | 精品乱子伦一区二区三区 | 老熟女乱子伦 | 在线欧美精品一区二区三区 | 国产精品久久久一区二区三区 | 日韩人妻无码中文字幕视频 | 久久久久人妻一区精品色欧美 | 少妇被黑人到高潮喷出白浆 | 亚洲aⅴ无码成人网站国产app | 蜜桃无码一区二区三区 | 亚洲精品国产a久久久久久 | 亚洲 日韩 欧美 成人 在线观看 | 国内揄拍国内精品人妻 | 特黄特色大片免费播放器图片 | 午夜福利一区二区三区在线观看 | 无码精品人妻一区二区三区av | 综合激情五月综合激情五月激情1 | www国产亚洲精品久久网站 | 麻豆精品国产精华精华液好用吗 | 福利一区二区三区视频在线观看 | 国产精品久久久一区二区三区 | 国产精品无码永久免费888 | a片在线免费观看 | 精品国产一区二区三区av 性色 | 大肉大捧一进一出好爽视频 | 377p欧洲日本亚洲大胆 | 日本丰满熟妇videos | 婷婷综合久久中文字幕蜜桃三电影 | 欧美成人午夜精品久久久 | 久久久久免费精品国产 | 亚洲欧美综合区丁香五月小说 | 久久国语露脸国产精品电影 | 老子影院午夜伦不卡 | 在线视频网站www色 | 国产在线aaa片一区二区99 | 色婷婷综合激情综在线播放 | 人妻人人添人妻人人爱 | 色婷婷av一区二区三区之红樱桃 | 亚洲人成无码网www | 国产精品igao视频网 | 无码精品人妻一区二区三区av | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 日本免费一区二区三区最新 | 欧美性黑人极品hd | 国产在线精品一区二区高清不卡 | 欧美野外疯狂做受xxxx高潮 | 欧美性猛交内射兽交老熟妇 | 国产色xx群视频射精 | 亚洲欧美国产精品专区久久 | 国产午夜手机精彩视频 | 国产在线精品一区二区高清不卡 | 无码人妻黑人中文字幕 | 欧美日韩久久久精品a片 | 极品嫩模高潮叫床 | 成人亚洲精品久久久久软件 | 国产猛烈高潮尖叫视频免费 | 国产精品无码永久免费888 | 呦交小u女精品视频 | www国产精品内射老师 | 黄网在线观看免费网站 | 377p欧洲日本亚洲大胆 | 欧美乱妇无乱码大黄a片 | 国产国语老龄妇女a片 | 噜噜噜亚洲色成人网站 | 人人澡人人妻人人爽人人蜜桃 | 西西人体www44rt大胆高清 | 少妇性l交大片欧洲热妇乱xxx | 一区二区传媒有限公司 | 欧美日韩亚洲国产精品 | 国产精品福利视频导航 | 国产人妻精品一区二区三区 | 久久精品女人天堂av免费观看 | 国产午夜无码视频在线观看 | 久久www免费人成人片 | 内射后入在线观看一区 | 狠狠色欧美亚洲狠狠色www | 国产香蕉97碰碰久久人人 | 中文字幕无码日韩欧毛 | 人妻无码αv中文字幕久久琪琪布 | 国产精品理论片在线观看 | 色综合久久88色综合天天 | 好爽又高潮了毛片免费下载 | 国产成人久久精品流白浆 | 丰满少妇女裸体bbw | 国产suv精品一区二区五 | 亚洲乱码中文字幕在线 | 99国产精品白浆在线观看免费 | 未满小14洗澡无码视频网站 | 乌克兰少妇xxxx做受 | 图片小说视频一区二区 | 成 人 网 站国产免费观看 | 国产成人无码区免费内射一片色欲 | 精品乱码久久久久久久 | 麻豆精品国产精华精华液好用吗 | 老熟妇仑乱视频一区二区 | 又粗又大又硬又长又爽 | 成人女人看片免费视频放人 | 亚洲欧洲无卡二区视頻 | 乱人伦中文视频在线观看 | 国精产品一品二品国精品69xx | 搡女人真爽免费视频大全 | 亚洲精品成人av在线 | 色婷婷久久一区二区三区麻豆 | 亚洲精品成人福利网站 | 国产卡一卡二卡三 | 国产亚洲美女精品久久久2020 | 狠狠色噜噜狠狠狠狠7777米奇 | 久久99精品国产.久久久久 | 97久久国产亚洲精品超碰热 | 99久久精品国产一区二区蜜芽 | 无人区乱码一区二区三区 | 久久精品国产日本波多野结衣 | 波多野结衣一区二区三区av免费 | 曰韩少妇内射免费播放 | 欧美激情综合亚洲一二区 | 在线观看国产一区二区三区 | 国精产品一品二品国精品69xx | 国产熟妇高潮叫床视频播放 | 99国产精品白浆在线观看免费 | 午夜性刺激在线视频免费 | 久久精品国产99久久6动漫 | 伊在人天堂亚洲香蕉精品区 | 亚洲日韩av一区二区三区中文 | 男女猛烈xx00免费视频试看 | 久久人妻内射无码一区三区 | 久热国产vs视频在线观看 | 精品乱码久久久久久久 | 中文字幕无码人妻少妇免费 | 中文字幕乱码人妻二区三区 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲国产精华液网站w | 强辱丰满人妻hd中文字幕 | 无码av免费一区二区三区试看 | 成人免费视频视频在线观看 免费 | 亚洲中文字幕va福利 | 狂野欧美性猛交免费视频 | 国产美女精品一区二区三区 | 俺去俺来也在线www色官网 | 亚洲国产欧美日韩精品一区二区三区 | 欧美日韩亚洲国产精品 | 无码福利日韩神码福利片 | 中文字幕乱码人妻二区三区 | 中文无码精品a∨在线观看不卡 | 日日鲁鲁鲁夜夜爽爽狠狠 | 国产综合久久久久鬼色 | 大地资源网第二页免费观看 | 漂亮人妻洗澡被公强 日日躁 | 亚洲经典千人经典日产 | 亚洲欧美综合区丁香五月小说 | 蜜桃无码一区二区三区 | 亚洲综合精品香蕉久久网 | 熟妇女人妻丰满少妇中文字幕 | 久久精品国产亚洲精品 | 亚洲成色在线综合网站 | 亚洲第一网站男人都懂 | 扒开双腿吃奶呻吟做受视频 | 乱人伦人妻中文字幕无码 | 亚洲一区二区观看播放 | 国内综合精品午夜久久资源 | 人妻尝试又大又粗久久 | 亚洲精品无码人妻无码 | 丝袜美腿亚洲一区二区 | 国产亚洲精品久久久久久大师 | 国产色精品久久人妻 | 少妇性俱乐部纵欲狂欢电影 | 国产国语老龄妇女a片 | 丰满人妻精品国产99aⅴ | 人人爽人人爽人人片av亚洲 | 天堂亚洲免费视频 | 四虎永久在线精品免费网址 | 娇妻被黑人粗大高潮白浆 | 亚洲成a人片在线观看无码 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲爆乳无码专区 | 男女超爽视频免费播放 | 中文字幕亚洲情99在线 | 亚洲人亚洲人成电影网站色 | 国产69精品久久久久app下载 | 国产超级va在线观看视频 | 国产内射爽爽大片视频社区在线 | 免费观看又污又黄的网站 | 国产精品亚洲一区二区三区喷水 | 成年美女黄网站色大免费全看 | 在线观看国产一区二区三区 | 久久这里只有精品视频9 | аⅴ资源天堂资源库在线 | 无码人妻久久一区二区三区不卡 | 人妻少妇精品无码专区动漫 | 欧美人与禽zoz0性伦交 | 日日摸天天摸爽爽狠狠97 | 久久精品国产一区二区三区肥胖 | 在线成人www免费观看视频 | 97夜夜澡人人爽人人喊中国片 | 日本一卡二卡不卡视频查询 | 无码av岛国片在线播放 | 亚洲色无码一区二区三区 | 国产午夜精品一区二区三区嫩草 | av无码久久久久不卡免费网站 | 高清不卡一区二区三区 | 国产亚洲精品久久久闺蜜 | 欧美日韩在线亚洲综合国产人 | 男人的天堂2018无码 | 亚洲精品午夜无码电影网 | 麻豆国产人妻欲求不满谁演的 | 亚洲大尺度无码无码专区 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 久久久精品成人免费观看 | 国产一区二区三区四区五区加勒比 | 综合激情五月综合激情五月激情1 | 蜜臀av在线播放 久久综合激激的五月天 | 300部国产真实乱 | 亚洲国产欧美日韩精品一区二区三区 | 欧美一区二区三区 | 成 人 免费观看网站 | 欧洲欧美人成视频在线 | 好男人www社区 | 成人免费视频在线观看 | 亚洲高清偷拍一区二区三区 | 久久国内精品自在自线 | 天堂无码人妻精品一区二区三区 | 99久久精品无码一区二区毛片 | 欧美性生交xxxxx久久久 | 人妻无码久久精品人妻 | 麻豆成人精品国产免费 | 波多野结衣乳巨码无在线观看 | 激情国产av做激情国产爱 | 色婷婷av一区二区三区之红樱桃 | 婷婷六月久久综合丁香 | 天堂亚洲2017在线观看 | 永久免费精品精品永久-夜色 | 日本欧美一区二区三区乱码 | 日韩在线不卡免费视频一区 | 国产尤物精品视频 | 一本精品99久久精品77 | 国产精品人妻一区二区三区四 | 西西人体www44rt大胆高清 | 国精产品一区二区三区 | 大屁股大乳丰满人妻 | 国产sm调教视频在线观看 | 对白脏话肉麻粗话av | 国产亚洲精品久久久ai换 | 国产精品毛多多水多 | 精品国产成人一区二区三区 | 精品乱子伦一区二区三区 | 亚洲欧美精品伊人久久 | 成人aaa片一区国产精品 | 精品夜夜澡人妻无码av蜜桃 | 国产成人无码av在线影院 | 狠狠色色综合网站 | 国内综合精品午夜久久资源 | 全球成人中文在线 | 国产深夜福利视频在线 | 日本熟妇乱子伦xxxx | 精品无码av一区二区三区 | 久久久无码中文字幕久... | aa片在线观看视频在线播放 | 国产精品嫩草久久久久 | 成人性做爰aaa片免费看不忠 | 97久久超碰中文字幕 | 亚洲综合在线一区二区三区 | 最近免费中文字幕中文高清百度 | 成人免费无码大片a毛片 | 久久99久久99精品中文字幕 | 欧美日韩综合一区二区三区 | 黑森林福利视频导航 | 久久97精品久久久久久久不卡 | 国内精品一区二区三区不卡 | 国产偷抇久久精品a片69 | 成人毛片一区二区 | 色五月丁香五月综合五月 | 又大又紧又粉嫩18p少妇 | av在线亚洲欧洲日产一区二区 | 国产午夜福利亚洲第一 | 久青草影院在线观看国产 | 国产精品毛片一区二区 | 国产莉萝无码av在线播放 | 捆绑白丝粉色jk震动捧喷白浆 | 少妇邻居内射在线 | 精品偷拍一区二区三区在线看 | 亚洲第一无码av无码专区 | 蜜桃av抽搐高潮一区二区 | 国产乱码精品一品二品 | 国产亚洲视频中文字幕97精品 | 亚洲欧美国产精品专区久久 | 精品久久久无码中文字幕 | 999久久久国产精品消防器材 | 欧美日韩色另类综合 | 日本护士xxxxhd少妇 | 天干天干啦夜天干天2017 | 亚洲中文字幕无码一久久区 | 国产av久久久久精东av | 国产熟妇高潮叫床视频播放 | 欧美三级a做爰在线观看 | 国产精品爱久久久久久久 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲国产精品成人久久蜜臀 | 国产av无码专区亚洲a∨毛片 | 少妇久久久久久人妻无码 | 精品国产一区二区三区四区在线看 | 日韩av无码一区二区三区 | 一本久道久久综合狠狠爱 | 国产亚洲tv在线观看 | 漂亮人妻洗澡被公强 日日躁 | 2019午夜福利不卡片在线 | 中文毛片无遮挡高清免费 | 2019nv天堂香蕉在线观看 | 男女性色大片免费网站 | 亚洲国产成人a精品不卡在线 | 日本va欧美va欧美va精品 | www国产亚洲精品久久久日本 | 任你躁国产自任一区二区三区 | 国产精品无码成人午夜电影 | 高潮毛片无遮挡高清免费视频 | 日韩人妻无码中文字幕视频 | 夜精品a片一区二区三区无码白浆 | 小泽玛莉亚一区二区视频在线 | 5858s亚洲色大成网站www | 窝窝午夜理论片影院 | 国产色在线 | 国产 | 国产艳妇av在线观看果冻传媒 | 亚洲国产成人a精品不卡在线 | 丰满妇女强制高潮18xxxx | 国产亚av手机在线观看 | 少妇性l交大片欧洲热妇乱xxx | 无码国产乱人伦偷精品视频 | 无套内谢的新婚少妇国语播放 | 欧美国产日韩亚洲中文 | 图片小说视频一区二区 | 亚洲日韩av一区二区三区中文 | 久久无码中文字幕免费影院蜜桃 | 无码一区二区三区在线 | 偷窥日本少妇撒尿chinese | 亚洲精品无码国产 | 免费观看黄网站 | 一个人看的www免费视频在线观看 | 人妻少妇精品无码专区动漫 | 少妇人妻av毛片在线看 | 亚洲熟妇色xxxxx欧美老妇y | 精品 日韩 国产 欧美 视频 | 免费男性肉肉影院 | 十八禁视频网站在线观看 | 国产真实乱对白精彩久久 | 国产九九九九九九九a片 | 国产电影无码午夜在线播放 | 日本一卡二卡不卡视频查询 | 欧美喷潮久久久xxxxx | 国产亚洲美女精品久久久2020 | 国产黑色丝袜在线播放 | 国产熟妇高潮叫床视频播放 | 亚洲人成网站在线播放942 | 丰满人妻翻云覆雨呻吟视频 | 国产精品99爱免费视频 | 丰满岳乱妇在线观看中字无码 | 国产精品无码mv在线观看 | 久久久成人毛片无码 | 好男人www社区 | 真人与拘做受免费视频 | 久久久中文久久久无码 | 少妇无套内谢久久久久 | 亚洲人成网站在线播放942 | 最近中文2019字幕第二页 | 小sao货水好多真紧h无码视频 | 理论片87福利理论电影 | 国产又爽又黄又刺激的视频 | 午夜精品久久久内射近拍高清 | 久久久久99精品国产片 | 中文字幕无码日韩欧毛 | 国产成人午夜福利在线播放 | 成人影院yy111111在线观看 | 久久午夜夜伦鲁鲁片无码免费 | 自拍偷自拍亚洲精品10p | 乌克兰少妇性做爰 | 99re在线播放 | 久久久无码中文字幕久... | 日本精品人妻无码免费大全 | 欧美日本精品一区二区三区 | 欧洲极品少妇 | 内射后入在线观看一区 | 领导边摸边吃奶边做爽在线观看 | 亚洲午夜久久久影院 | 色综合久久88色综合天天 | 荫蒂被男人添的好舒服爽免费视频 | 国产精品办公室沙发 | 2019午夜福利不卡片在线 | 亚洲 欧美 激情 小说 另类 | 国产一区二区三区影院 | 国产片av国语在线观看 | 免费观看的无遮挡av | 日本成熟视频免费视频 | 欧美老熟妇乱xxxxx | 男女下面进入的视频免费午夜 | 免费播放一区二区三区 | 久久久久久亚洲精品a片成人 | 欧美自拍另类欧美综合图片区 | 精品无码av一区二区三区 | 国产精品欧美成人 | 欧美成人午夜精品久久久 | 无码纯肉视频在线观看 | √天堂中文官网8在线 | 免费男性肉肉影院 | 丰满人妻一区二区三区免费视频 | 国产精品多人p群无码 | 真人与拘做受免费视频 | 亚洲天堂2017无码中文 | 撕开奶罩揉吮奶头视频 | 久久99精品国产麻豆蜜芽 | 国产情侣作爱视频免费观看 | 国产真实伦对白全集 | 一二三四社区在线中文视频 | 国产在线精品一区二区三区直播 | 国产精品久久久久9999小说 | 国产精品丝袜黑色高跟鞋 | 精品无码一区二区三区爱欲 | 大胆欧美熟妇xx | 国产香蕉尹人综合在线观看 | 午夜不卡av免费 一本久久a久久精品vr综合 | 亚洲啪av永久无码精品放毛片 | 亚洲自偷自偷在线制服 | 欧洲熟妇精品视频 | 国产av无码专区亚洲awww | 无遮挡国产高潮视频免费观看 | 国内揄拍国内精品少妇国语 | 欧美刺激性大交 | 日韩人妻无码一区二区三区久久99 | 久久久婷婷五月亚洲97号色 | 国产又粗又硬又大爽黄老大爷视 | 成年美女黄网站色大免费全看 | 人妻无码αv中文字幕久久琪琪布 | 久久综合网欧美色妞网 | 六月丁香婷婷色狠狠久久 | 中文亚洲成a人片在线观看 | 久久国语露脸国产精品电影 | 88国产精品欧美一区二区三区 | 樱花草在线社区www | 欧美猛少妇色xxxxx | 国内精品一区二区三区不卡 | 欧美黑人巨大xxxxx | 激情爆乳一区二区三区 | 久久99精品国产麻豆 | 国产香蕉97碰碰久久人人 | 一本久道久久综合狠狠爱 | 蜜桃臀无码内射一区二区三区 | 亚洲男人av香蕉爽爽爽爽 | 欧美性生交xxxxx久久久 | 人妻无码久久精品人妻 | 熟女体下毛毛黑森林 | 伊人久久大香线蕉亚洲 | 国语自产偷拍精品视频偷 | 亚洲中文字幕va福利 | 欧美丰满熟妇xxxx性ppx人交 | 色一情一乱一伦一视频免费看 | 一本色道久久综合亚洲精品不卡 | 一本久久a久久精品vr综合 | 久久久精品成人免费观看 | 成人欧美一区二区三区黑人 | 婷婷五月综合缴情在线视频 | 最新国产麻豆aⅴ精品无码 | 熟妇人妻中文av无码 | 乱码av麻豆丝袜熟女系列 | 亚洲综合在线一区二区三区 | 丰满妇女强制高潮18xxxx | 精品国产一区二区三区av 性色 | 无码福利日韩神码福利片 | 国产色在线 | 国产 | 亚洲一区二区三区 | 精品国产精品久久一区免费式 | 亚洲色欲色欲天天天www | 中文字幕日产无线码一区 | 久久人人爽人人人人片 | 无码国模国产在线观看 | 无码吃奶揉捏奶头高潮视频 | 九九热爱视频精品 | 亚洲人成网站色7799 | 日本xxxx色视频在线观看免费 | 国内老熟妇对白xxxxhd | 国产精品18久久久久久麻辣 | 国产97在线 | 亚洲 | 中文字幕av无码一区二区三区电影 | 日产精品高潮呻吟av久久 | 国内少妇偷人精品视频 | 少妇性荡欲午夜性开放视频剧场 | 国产成人综合美国十次 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 中文字幕乱码人妻二区三区 | 少妇一晚三次一区二区三区 | 国产欧美熟妇另类久久久 | 日本又色又爽又黄的a片18禁 | 中文字幕乱妇无码av在线 | 美女张开腿让人桶 | 麻花豆传媒剧国产免费mv在线 | 一区二区三区乱码在线 | 欧洲 | 午夜成人1000部免费视频 | 国产一区二区不卡老阿姨 | 国产一区二区三区精品视频 | 永久免费精品精品永久-夜色 | a片在线免费观看 | 麻豆国产97在线 | 欧洲 | 老太婆性杂交欧美肥老太 | 久久成人a毛片免费观看网站 | 中文字幕无码日韩专区 | 精品夜夜澡人妻无码av蜜桃 | 玩弄人妻少妇500系列视频 | 日本一卡二卡不卡视频查询 | 少妇的肉体aa片免费 | 红桃av一区二区三区在线无码av | 无套内谢的新婚少妇国语播放 | 亚洲综合另类小说色区 | 久久精品成人欧美大片 | 日产国产精品亚洲系列 | aⅴ亚洲 日韩 色 图网站 播放 | 色婷婷久久一区二区三区麻豆 | 国产在线一区二区三区四区五区 | 欧美 丝袜 自拍 制服 另类 | 精品无码国产一区二区三区av | 国产综合久久久久鬼色 | 亚洲国产精品一区二区第一页 | 国产精品无码成人午夜电影 | 中文字幕无码免费久久9一区9 | 成年美女黄网站色大免费全看 | 特级做a爰片毛片免费69 | 欧美肥老太牲交大战 | 精品熟女少妇av免费观看 | 国产激情综合五月久久 | 亚洲中文字幕在线无码一区二区 | 精品国产精品久久一区免费式 | 国产精品国产三级国产专播 | 国产成人亚洲综合无码 | 成年女人永久免费看片 | 久久久中文久久久无码 | 亚洲中文字幕在线无码一区二区 | 国产精品毛片一区二区 | 亚洲 激情 小说 另类 欧美 | 国产精品-区区久久久狼 | 一区二区三区乱码在线 | 欧洲 | 曰韩无码二三区中文字幕 | 国产亚洲精品久久久久久久久动漫 | 特黄特色大片免费播放器图片 | 亚洲gv猛男gv无码男同 | 亚洲国产综合无码一区 | 国产农村乱对白刺激视频 | 久久婷婷五月综合色国产香蕉 | 性生交大片免费看女人按摩摩 | 欧美一区二区三区视频在线观看 | 婷婷五月综合缴情在线视频 | 久久精品一区二区三区四区 | 曰韩无码二三区中文字幕 | 精品 日韩 国产 欧美 视频 | 亚洲小说图区综合在线 | 亚洲国产精品一区二区美利坚 | 久久精品人人做人人综合 | 天天做天天爱天天爽综合网 | 亚洲区欧美区综合区自拍区 | 天天爽夜夜爽夜夜爽 | 色婷婷欧美在线播放内射 | 亚洲国产精品无码久久久久高潮 | 西西人体www44rt大胆高清 | 午夜精品久久久久久久久 | 中文字幕+乱码+中文字幕一区 | 亚洲国产综合无码一区 | 亚洲欧美精品伊人久久 | 久久熟妇人妻午夜寂寞影院 | 亚洲s码欧洲m码国产av | 国产成人无码av在线影院 | 国产九九九九九九九a片 | 天堂亚洲免费视频 | 2020久久香蕉国产线看观看 | 99视频精品全部免费免费观看 | 老熟女乱子伦 | 亚洲精品久久久久avwww潮水 | 俄罗斯老熟妇色xxxx | 图片小说视频一区二区 | 国产亚洲人成a在线v网站 | ass日本丰满熟妇pics | 日韩欧美成人免费观看 | 日本一区二区更新不卡 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 亚洲色欲久久久综合网东京热 | 欧美日韩精品 | 国产精品沙发午睡系列 | 久久久久99精品成人片 | 国产av久久久久精东av | 精品国精品国产自在久国产87 | 精品欧美一区二区三区久久久 | 午夜性刺激在线视频免费 | 国产午夜手机精彩视频 | 亚洲人成影院在线观看 | 久久久久免费精品国产 | 又大又紧又粉嫩18p少妇 | 少妇被粗大的猛进出69影院 | 久久国产精品萌白酱免费 | 蜜臀av在线播放 久久综合激激的五月天 | 任你躁在线精品免费 | 一区二区三区乱码在线 | 欧洲 | 国产97人人超碰caoprom | 色欲久久久天天天综合网精品 | 久久99精品国产.久久久久 | 国产av人人夜夜澡人人爽麻豆 | 永久免费观看美女裸体的网站 | 亚洲国产精品毛片av不卡在线 | 欧洲精品码一区二区三区免费看 | 黑人巨大精品欧美黑寡妇 | 日本www一道久久久免费榴莲 | 国产精品久久精品三级 | 丰满妇女强制高潮18xxxx | 青青青手机频在线观看 | 99国产精品白浆在线观看免费 | 最近的中文字幕在线看视频 | 无码一区二区三区在线观看 | av小次郎收藏 | 最近中文2019字幕第二页 | 国产肉丝袜在线观看 | 中文字幕乱妇无码av在线 | 亚欧洲精品在线视频免费观看 | 国产香蕉尹人综合在线观看 | 台湾无码一区二区 | 久久亚洲中文字幕无码 | 国产深夜福利视频在线 | 67194成是人免费无码 | 色偷偷人人澡人人爽人人模 | 欧美国产亚洲日韩在线二区 | 国产97人人超碰caoprom | 亚洲另类伦春色综合小说 | 亚洲大尺度无码无码专区 | 欧美大屁股xxxxhd黑色 | 久久亚洲精品中文字幕无男同 | 欧美日本精品一区二区三区 | 亚洲精品一区国产 | 人人妻人人澡人人爽欧美一区 | 久久精品国产一区二区三区肥胖 | 中文字幕无码乱人伦 | 国产欧美熟妇另类久久久 | 色综合久久久久综合一本到桃花网 | 亚洲の无码国产の无码步美 | 亚洲成a人一区二区三区 | 精品aⅴ一区二区三区 | 漂亮人妻洗澡被公强 日日躁 | 亚洲成色www久久网站 | 欧美精品免费观看二区 | 亚洲色欲色欲天天天www | 午夜精品一区二区三区的区别 | 国产亚洲精品久久久久久久久动漫 | 午夜理论片yy44880影院 | 亚洲欧洲中文日韩av乱码 | 亚洲最大成人网站 | 久久精品国产亚洲精品 | 在线看片无码永久免费视频 | 国产av无码专区亚洲awww | 亚洲精品国产品国语在线观看 | 天天爽夜夜爽夜夜爽 | 日本熟妇乱子伦xxxx | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 88国产精品欧美一区二区三区 | 人人妻人人澡人人爽人人精品 | 鲁大师影院在线观看 | 色窝窝无码一区二区三区色欲 | 3d动漫精品啪啪一区二区中 | 国产一区二区不卡老阿姨 | 久久国产自偷自偷免费一区调 | 午夜福利试看120秒体验区 | aⅴ在线视频男人的天堂 | 欧美日韩人成综合在线播放 | 国产熟妇另类久久久久 | 亚洲国产成人a精品不卡在线 | 97se亚洲精品一区 | 女人被男人爽到呻吟的视频 | 亚洲成av人在线观看网址 | 中文无码成人免费视频在线观看 | 麻豆国产97在线 | 欧洲 | 女人和拘做爰正片视频 | 成人毛片一区二区 | 又粗又大又硬又长又爽 | 在线亚洲高清揄拍自拍一品区 | 亚洲国产一区二区三区在线观看 | a在线观看免费网站大全 | 成在人线av无码免观看麻豆 | 夜先锋av资源网站 | 亚洲日韩av一区二区三区四区 | 疯狂三人交性欧美 | 国产卡一卡二卡三 | v一区无码内射国产 | 国产精品18久久久久久麻辣 | 7777奇米四色成人眼影 | av香港经典三级级 在线 | 丰满肥臀大屁股熟妇激情视频 | 国产卡一卡二卡三 | av人摸人人人澡人人超碰下载 | 老司机亚洲精品影院无码 | 亚洲日韩av一区二区三区四区 | 波多野结衣aⅴ在线 | 亚洲国产av美女网站 | 亚洲区小说区激情区图片区 | 国产9 9在线 | 中文 | 亚洲精品中文字幕久久久久 | 乱码av麻豆丝袜熟女系列 | 亚洲成a人一区二区三区 | 蜜臀av在线播放 久久综合激激的五月天 | 久久精品丝袜高跟鞋 | 黑人粗大猛烈进出高潮视频 | 欧美人与动性行为视频 | 中文字幕无码热在线视频 | 国产97人人超碰caoprom | 亚洲自偷自拍另类第1页 | 精品国偷自产在线 | 亚洲国产成人a精品不卡在线 | 男女性色大片免费网站 | 亚洲爆乳大丰满无码专区 | 免费看少妇作爱视频 | 露脸叫床粗话东北少妇 | 伊人久久婷婷五月综合97色 | 无遮挡国产高潮视频免费观看 | 精品aⅴ一区二区三区 | 波多野结衣av一区二区全免费观看 | 又大又紧又粉嫩18p少妇 | 红桃av一区二区三区在线无码av | 日欧一片内射va在线影院 | 爱做久久久久久 | 丰满人妻一区二区三区免费视频 | 曰韩无码二三区中文字幕 | 麻豆蜜桃av蜜臀av色欲av | 未满成年国产在线观看 | 久久精品国产99精品亚洲 | 亚洲国产精品一区二区美利坚 | 一个人免费观看的www视频 | 东京无码熟妇人妻av在线网址 | 人妻有码中文字幕在线 | 成人动漫在线观看 | 成人性做爰aaa片免费看 | 丰满护士巨好爽好大乳 | 精品久久久久久人妻无码中文字幕 | 成人无码视频在线观看网站 | 成人三级无码视频在线观看 | 国产偷自视频区视频 | 欧美刺激性大交 | 大肉大捧一进一出视频出来呀 | 婷婷五月综合缴情在线视频 | 中文字幕乱码人妻二区三区 | 成人精品一区二区三区中文字幕 | 亚洲呦女专区 | 久久无码中文字幕免费影院蜜桃 | 丰满人妻翻云覆雨呻吟视频 | 久久久久久久人妻无码中文字幕爆 | 亚洲 a v无 码免 费 成 人 a v | 色诱久久久久综合网ywww | www一区二区www免费 | 麻豆国产丝袜白领秘书在线观看 | 婷婷色婷婷开心五月四房播播 | 无码国内精品人妻少妇 | 中国女人内谢69xxxxxa片 | 亚洲精品综合一区二区三区在线 | 伊人久久大香线蕉av一区二区 | 亚洲午夜无码久久 | 人妻熟女一区 | 亚洲综合在线一区二区三区 | 亚洲色欲色欲欲www在线 | 亚洲国产精品久久久久久 | 亚洲一区二区三区四区 | 色婷婷久久一区二区三区麻豆 | 国产va免费精品观看 | 免费国产成人高清在线观看网站 | 国产成人一区二区三区在线观看 | 亚洲最大成人网站 | 九月婷婷人人澡人人添人人爽 | 日韩欧美成人免费观看 | 精品国产福利一区二区 | 久久精品99久久香蕉国产色戒 | 国产精品办公室沙发 | 亚洲色在线无码国产精品不卡 | 好爽又高潮了毛片免费下载 | 色 综合 欧美 亚洲 国产 | 免费无码午夜福利片69 | 一二三四在线观看免费视频 | 色老头在线一区二区三区 | 日日噜噜噜噜夜夜爽亚洲精品 | 久久午夜无码鲁丝片午夜精品 | 亚洲中文无码av永久不收费 | 在线观看国产一区二区三区 | 国产在线精品一区二区三区直播 | 帮老师解开蕾丝奶罩吸乳网站 | 日本欧美一区二区三区乱码 | 国产精品永久免费视频 | 成 人 免费观看网站 | 久久国产精品_国产精品 | 男女下面进入的视频免费午夜 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 国产人妻人伦精品1国产丝袜 | 色情久久久av熟女人妻网站 | 欧美熟妇另类久久久久久多毛 | 色噜噜亚洲男人的天堂 | 国产麻豆精品精东影业av网站 | 国产成人综合美国十次 | 婷婷五月综合缴情在线视频 | 国产九九九九九九九a片 | 老子影院午夜伦不卡 | 中文字幕人妻无码一夲道 | 野狼第一精品社区 | 国产人妻人伦精品1国产丝袜 | 免费乱码人妻系列无码专区 | 免费人成在线视频无码 | 久久99精品国产麻豆 | 乌克兰少妇性做爰 | 无码福利日韩神码福利片 | 亚洲欧洲日本综合aⅴ在线 | 欧美xxxx黑人又粗又长 | 中文毛片无遮挡高清免费 | 久在线观看福利视频 | 亚洲 激情 小说 另类 欧美 | 东京热一精品无码av | 人妻无码αv中文字幕久久琪琪布 | 在线天堂新版最新版在线8 | 精品久久久久久亚洲精品 | 亚洲国产高清在线观看视频 | 一本色道久久综合亚洲精品不卡 | 久久亚洲中文字幕精品一区 | 色综合天天综合狠狠爱 | 少妇被黑人到高潮喷出白浆 | 老司机亚洲精品影院无码 | 少妇被粗大的猛进出69影院 | 国产乡下妇女做爰 | 精品午夜福利在线观看 | 日本熟妇人妻xxxxx人hd | 青青久在线视频免费观看 | 一个人看的www免费视频在线观看 | 丰满少妇人妻久久久久久 | 亚洲欧美色中文字幕在线 | 免费看少妇作爱视频 | 亚洲小说图区综合在线 | 黑人粗大猛烈进出高潮视频 | 7777奇米四色成人眼影 | 国产精品人人爽人人做我的可爱 | 亚洲欧美国产精品久久 | 国产人妻人伦精品 |