大数据学习(1)Hadoop安装
集群架構(gòu)
Hadoop的安裝其實(shí)就是HDFS和YARN集群的配置,從下面的架構(gòu)圖可以看出,HDFS的每一個(gè)DataNode都需要配置NameNode的位置。同理YARN中的每一個(gè)NodeManager都需要配置ResourceManager的位置。
NameNode和ResourceManager的作用如此重要,在集群環(huán)境下,他們存在單點(diǎn)問題嗎?在Hadoop1.0中確實(shí)存在,不過在2.0中已經(jīng)得到解決,具體參考:
https://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithNFS.html
https://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-name-node/index.html
?
?
?
?
?
配置
因?yàn)槊颗_(tái)機(jī)器上的配置都是一樣的,所以配置時(shí)一般是配置好一臺(tái)服務(wù)器,然后復(fù)制到其他服務(wù)器上。
JAVA_HOME
在hadoop-env.sh文件中配置JAVA_HOME.
core-site.xml
配置hdfs文件系統(tǒng),通過fs.defaultFS配置hdfs的NameNode節(jié)點(diǎn)。
<property><name>fs.defaultFS</name><value>hdfs://{hdfs-name-node-server-host}:9000</value> </property>通過hadoop.tmp.dir配置hadoop運(yùn)行時(shí)產(chǎn)生文件的存儲(chǔ)目錄
<property><name>hadoop.tmp.dir</name><value>/usr/local/hadoop-data/tmp</value> </property>?
hdfs-site.xml
配置文件副本數(shù)量和second?namenode:
<property><name>dfs.replication</name><value>1</value> </property><property><name>dfs.secondary.http.address</name><value>{second-namenode-host}:50090</value> </property>?
yarn-site.xml
配置YARN的ResourceManager:
<property><name>yarn.resourcemanager.hostname</name><value>{resource-manager-host}</value> </property>和reducer獲取數(shù)據(jù)的方式:
<property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value> </property>?
最后記得把hadoop的bin和sbin目錄添加到環(huán)境變量中:
export HADOOP_HOME=/user/local/hadoop-2.6.5 export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin?
格式化namenode
hdfs namenode -format (hadoop namenode -format)?
啟動(dòng)Hadoop
先啟動(dòng)HDFS的NameNode:
hadoop-daemon.sh start datanode在集群的DataNode上啟動(dòng)DataNode:
hadoop-daemon.sh start datanode查看啟動(dòng)結(jié)果
[root@server1 ~]# jps 2111 Jps 2077 NameNode如果啟動(dòng)成功,通過http://server1:50070,可以看到類似下面的頁面:
?
再啟動(dòng)YARN
hadoop下的sbin目錄下的文件是用來管理hadoop服務(wù)的:
hadoop-dameon.sh:用來單獨(dú)啟動(dòng)namenode或datanode;
start/stop-dfs.sh:配合/etc/hadoop/slaves,可以批量啟動(dòng)/關(guān)閉NameNode和集群中的其他DataNode;
start/stop-yarn.sh:配合/etc/hadoop/slaves,可以批量啟動(dòng)/關(guān)閉ResourceManager和集群中的其他NodeManager;
bin目錄下的文件可以提供hdfs、yarn和mapreduce服務(wù):
[root@server1 bin]# hadoop fs Usage: hadoop fs [generic options][-appendToFile <localsrc> ... <dst>][-cat [-ignoreCrc] <src> ...][-checksum <src> ...][-chgrp [-R] GROUP PATH...][-chmod [-R] <MODE[,MODE]... | OCTALMODE> PATH...][-chown [-R] [OWNER][:[GROUP]] PATH...][-copyFromLocal [-f] [-p] [-l] <localsrc> ... <dst>][-copyToLocal [-p] [-ignoreCrc] [-crc] <src> ... <localdst>][-count [-q] [-h] <path> ...][-cp [-f] [-p | -p[topax]] <src> ... <dst>][-createSnapshot <snapshotDir> [<snapshotName>]][-deleteSnapshot <snapshotDir> <snapshotName>][-df [-h] [<path> ...]][-du [-s] [-h] <path> ...][-expunge][-get [-p] [-ignoreCrc] [-crc] <src> ... <localdst>][-getfacl [-R] <path>][-getfattr [-R] {-n name | -d} [-e en] <path>][-getmerge [-nl] <src> <localdst>][-help [cmd ...]][-ls [-d] [-h] [-R] [<path> ...]][-mkdir [-p] <path> ...][-moveFromLocal <localsrc> ... <dst>][-moveToLocal <src> <localdst>][-mv <src> ... <dst>][-put [-f] [-p] [-l] <localsrc> ... <dst>][-renameSnapshot <snapshotDir> <oldName> <newName>][-rm [-f] [-r|-R] [-skipTrash] <src> ...][-rmdir [--ignore-fail-on-non-empty] <dir> ...][-setfacl [-R] [{-b|-k} {-m|-x <acl_spec>} <path>]|[--set <acl_spec> <path>]][-setfattr {-n name [-v value] | -x name} <path>][-setrep [-R] [-w] <rep> <path> ...][-stat [format] <path> ...][-tail [-f] <file>][-test -[defsz] <path>][-text [-ignoreCrc] <src> ...][-touchz <path> ...][-usage [cmd ...]]?
?
?
參考:
最新安裝文檔:http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/ClusterSetup.html
2.6.5安裝文檔:http://hadoop.apache.org/docs/r2.6.5/hadoop-project-dist/hadoop-common/SingleCluster.html
Secondary Namenode:http://blog.madhukaraphatak.com/secondary-namenode---what-it-really-do/
?
轉(zhuǎn)載于:https://www.cnblogs.com/at0x7c00/p/8042205.html
總結(jié)
以上是生活随笔為你收集整理的大数据学习(1)Hadoop安装的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: haproxy1.8安装配置
- 下一篇: jquery validate验证方法