008 Spark中standalone模式的HA(了解,知道怎么配置即可)
standalone也存在單節點問題,這里主要是配置兩個master。
1.官網
2.具體的配置
?
3.配置方式一(不是太理想)
這種知識基于未來可以重啟,但是不能在宕機的時候提供服務。
方式一:Single-Node Recovery with Local File System
類似于Hadoop1中的SecondaryNameNode
當出現單點故障的時候,需要手動啟動master,然后master會讀剛剛斷掉之前的日志,類似于secondarynamenode方式。
做法:
1. 修改conf/sparn-env.sh配置文件,打開conf/sparn-env.sh
2. 給參數SPARK_DAEMON_JAVA_OPTS添加配置參數
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=FILESYSTEM -Dspark.deploy.recoveryDirectory=/tmp/xxxx"
一個參數是恢復模式,一個參數是恢復路勁
?
4.配置方式二(比較給力)
方式二:Standby Masters with ZooKeeper
類似于Hadoop2中的NameNode的HA機制,因此會自動轉移
做法:
1. 修改conf/sparn-env.sh配置文件
2. 給參數SPARK_DAEMON_JAVA_OPTS添加配置參數
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=hadoop-senior01:2181,hadoop-senior02:2181,hadoop-senior03:2181 -Dspark.deploy.zookeeper.dir=/spark"
?
總結
以上是生活随笔為你收集整理的008 Spark中standalone模式的HA(了解,知道怎么配置即可)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: C#的默认访问权限
- 下一篇: bootstrap42-Bootstra