在Win10安装上Hadoop2.7.5伪分布式集群
環境:Win10 64位 + Java8 + Hadoop2.7.5
為什么不安裝Java9?
因為裝完了Hadoop,下一步要裝Spark,而Spark適配的Scala版本是2.11,而Scala2.11適配Java8。
1. 安裝Java8并配置
上官網http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html下載64位的jdk8,雙擊exe文件執行安裝。(安裝目錄最好不要帶空格)
- 新建環境變量JAVA_HOME,值為jdk安裝目錄(我的是C:\Install\jdk1.8.0_161)
- 新建環境變量JRE_HOME,值為jre安裝目錄(我的是C:\Install\jre)
- 新建環境變量CLASSPATH,值為.;%JAVA_HOME%\lib\dt.jar;%JAVA_HOME%\lib\tools.jar
- 在環境變量path里添加%JAVA_HOME%\bin和%JRE_HOME%\bin
- 最后在終端輸入java -version,出現類似如下結果即可:
2. 安裝Hadoop并配置
1.官網http://hadoop.apache.org/releases.html下載Hadoop2.7.5,解壓至安裝目錄
2.上https://pan.baidu.com/s/1_C4TALLBW9TbIrJMC4JKtA 密碼: dc63 下載一個支持在windows運行hadoop的工具,解壓,用解壓后的bin目錄覆蓋hadoop的bin目錄(親測這個工具適用于hadoop2.5和2.7,其他的尚且不知)
3.新建環境變量HADOOP_HOME, 值為hadoop安裝目錄(我這里是C:\Install\hadoop-2.7.5)
4.將%HADOOP_HOME\bin%添加至環境變量path
5.在C:/Install/hadoop-2.7.5目錄新建workplace目錄,進入workplace,新建子文件夾temp、data、name
6.修改hadoop配置文件
編輯C:\Install\hadoop-2.7.5\etc\hadoop\core-site.xml
<configuration><property><name>hadoop.tmp.dir</name><value>/C:/Install/hadoop-2.7.5/workplace/temp</value></property><property><name>dfs.name.dir</name><value>/C:/Install/hadoop-2.7.5/workplace/name</value></property><property><name>fs.default.name</name><value>hdfs://localhost:9000</value></property><property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value></property> </configuration>編輯C:\Install\hadoop-2.7.5\etc\hadoop\mapred-site.xml
<configuration><property><name>mapreduce.framework.name</name><value>yarn</value></property><property><name>mapred.job.tracker</name><value>hdfs://localhost:9001</value></property> </configuration>編輯C:\Install\hadoop-2.7.5\etc\hadoop\hdfs-site.xml
<configuration><!-- 這個參數設置為1,因為是單機版hadoop --><property><name>dfs.replication</name><value>1</value></property><property><name>dfs.data.dir</name><value>/D:/dev/hadoop-2.5.2/workplace/data</value></property><property><name>dfs.namenode.name.dir</name><value>/C:/Install/hadoop-2.7.5/workplace/name</value></property><property><name>dfs.datanode.data.dir</name><value>/C:/Install/hadoop-2.7.5/workplace/data</value></property> </configuration>編輯C:\Install\hadoop-2.7.5\etc\hadoop\yarn-site.xml
<configuration><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><property><name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name><value>org.apache.hadoop.mapred.ShuffleHandler</value></property> </configuration>編輯C:\Install\hadoop-2.7.5\etc\hadoop\hadoop-env.cmd
找到set JAVA_HOME=%JAVA_HOME%, 將%JAVA_HOME%替換為C:\Install\jdk1.8.0_161
7.終端運行hdfs namenode -format,出現類似INFO util.ExitUtil: Exiting with status 0則說明沒有錯
8.切換到hadoop的sbin目錄,執行start-all.cmd
9.終端輸入jps,看到如下的結果即可
3. web ui界面
http://localhost:8088/cluster
http://localhost:50070/dfshealth.html#tab-overview
轉載:本文非原創,參考自https://blog.csdn.net/antgan/article/details/52067441,感謝作者
總結
以上是生活随笔為你收集整理的在Win10安装上Hadoop2.7.5伪分布式集群的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 程序员是怎样练打字速度
- 下一篇: 非线性模型的最小二乘(LS)近似解