Hadoop之——Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)

网友投稿 306 2022-11-20

Hadoop之——Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)

在上一篇《Hadoop之——Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)前期准备​》一文中,我们讲解了基于HA搭建Hadoop集群环境的基础准备,并配置了SSH无密码登录,同时向大家简要的讲解了Hadoop的相关知识。这边博文是基于上篇《Hadoop之——Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)前期准备​》一文搭建Hadoop环境的,请大家先阅读上一篇博文《Hadoop之——Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)前期准备​》,然后我们再一起搭建Hadoop集群环境。如果您已经阅读了《Hadoop之——Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)前期准备》, 那么现在我们就可以正式进行基于HA搭建Hadoop集群环境了。

一、Hadoop(HA)集群的规划

集群规划

主机名

IP

NameNode

DataNode

Yarn

ZooKeeper

JournalNode

liuyazhuang145

192.168.0.145

liuyazhuang146

192.168.0.146

liuyazhuang147

192.168.0.147

二、Hadoop(HA)集群环境搭建

注:我们搭建环境集中在liuyazhuang145主机上搭建,搭建完毕将相应的文件拷贝到liuyazhuang146和liuyazhuang147主机。

1、安装JDK

1.1下载JDK

可以到Oracle官网下载Linux版本的JDK,链接为:​​-zxvf jdk-7u72-linux-x64.tar.gz 进行解压

1.3配置环境变量

在命令行输入vim /etc/profile打开profile文件,在文件末尾添加如下代码:

JAVA_HOME=/usr/local/jdk1.7.0_72CLASS_PATH=.:$JAVA_HOME/libPATH=$JAVA_HOME/bin:$PATHexport JAVA_HOME CLASS_PATH PATH

输入命令source /etc/profile使环境变量生效

1.4拷贝文件

在命令行输入如下命令将JDK环境和/etc/profile文件拷贝到liuyazhuang146和liuyazhuang147主机上。

scp -r /usr/local/jdk1.7.0_72 liuyazhuang146:/usr/localscp -r /usr/local/jdk1.7.0_72 liuyazhuang147:/usr/localscp /etc/profile liuyazhuang146:/etc/scp /etc/profile liuyazhuang147:/etc/

同时,我们分别在liuyazhuang146和liuyazhuang147主机上执行命令source /etc/profile使环境变量生效

至此,JDK环境搭建完成。

2、搭建Zookeeper集群

2.1下载Zookeeper

在Apache官网下载Zookeeper,链接为:​​-zxvf zookeeper-3.4.9.tar.gz对zookeeper进行解压。

2.3Zookeeper集群搭建

切换到Zookeeper的conf目录下执行以下命令

cp zoo_sample.cfg zoo.cfg

然后输入vim zoo.cfg命令 配置如下:

# The number of milliseconds of each ticktickTime=2000# The number of ticks that the initial # synchronization phase can takeinitLimit=10# The number of ticks that can pass between # sending a request and getting an acknowledgementsyncLimit=5# the directory where the snapshot is stored.# do not use /tmp for storage, /tmp here is just # example sakes.dataDir=/usr/local/zookeeper-3.4.9/datadataLogDir=/usr/local/zookeeper-3.4.9/datalog# the port at which the clients will connectclientPort=2181# the maximum number of client connections.# increase this if you need to handle more clients#maxClientCnxns=60## Be sure to read the maintenance section of the # administrator guide before turning on autopurge.## The number of snapshots to retain in dataDir#autopurge.snapRetainCount=3# Purge task interval in hours# Set to "0" to disable auto purge feature#autopurge.purgeInterval=1server.1=liuyazhuang145:2888:3888server.2=liuyazhuang146:2888:3888server.3=liuyazhuang147:2888:3888

同时在Zookeeper目录下新建data和dataLog两个目录用来存放Zookeeper的myid文件和日志文件,

mkdir datamkdir dataLog

将目录切换到zookeeper的data目录下

执行命令

vim myid

按下键盘i输入1后,按下esc键,再按下shift+; (也就是输入冒号:),再输入wq退出,此时就在zookeeper的data目录下创建了一个myid文件,这个myid的文件中的内容为1。

2.4配置Zookeeper环境变量

为操作方便,我们也将Zookeeper配置到环境变量中,加上之前配置的JDK,我们在profile的配置如下:

JAVA_HOME=/usr/local/jdk1.7.0_72CLASS_PATH=.:$JAVA_HOME/libZOOKEEPER_HOME=/usr/local/zookeeper-3.4.9PATH=$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$PATHexport JAVA_HOME HADOOP_HOME CLASS_PATH PATH

2.5拷贝文件

将Zookeeper环境和profile文件分别拷贝到liuyazhuang146和liuyazhuang147主机上。如下命令:

scp -r /usr/local/zookeeper-3.4.9 liuyazhuang146:/usr/localscp -r /usr/local/zookeeper-3.4.9 liuyazhuang147:/usr/localscp /ect/profile liuyazhuang146:/etc/scp /ect/profile liuyazhuang147:/etc/

同时,我们分别在liuyazhuang146和liuyazhuang147主机上执行命令source /etc/profile使环境变量生效。

2.6修改其他主机的myid文件

注:别忘了将liuyazhuang146主机上Zookeeper中myid文件内容修改为2  将liuyazhuang147主机上Zookeeper中myid文件内容修改为3

至此,Zookeeper集群环境搭建完毕。

3、Hadoop集群环境搭建

同样的,我们也是现在liuyazhuang145主机上搭建Hadoop环境,然后将环境拷贝到liuyazhuang146主机和liuyazhuang147主机上。

3.1下载Hadoop

同样的,我们也是在Apache官网下载的Hadoop,我这里下载的hadoop 2.5.2版本的。

3.2解压Hadoop

输入命令tar -zxvf hadoop-2.5.2.tar.gz解压Hadoop

3.3配置Hadoop

1) core-site.xml

fs.defaultFS hdfs://ns hadoop.tmp.dir /usr/local/hadoop-2.5.2/tmp io.file.buffer.size 4096 ha.zookeeper.quorum liuyazhuang145:2181,liuyazhuang146:2181,liuyazhuang147:2181

2) hdfs-site.xml

dfs.nameservices ns dfs.ha.namenodes.ns nn1,nn2 dfs.namenode.rpc-address.ns.nn1 liuyazhuang145:9000 dfs.namenode. liuyazhuang145:50070 dfs.namenode.rpc-address.ns.nn2 liuyazhuang146:9000 dfs.namenode. liuyazhuang146:50070 dfs.namenode.shared.edits.dir qjournal://liuyazhuang145:8485;liuyazhuang146:8485;liuyazhuang147:8485/ns dfs.journalnode.edits.dir /usr/local/hadoop-2.5.2/journal dfs.ha.automatic-failover.enabled true dfs.client.failover.proxy.provider.ns org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods sshfence dfs.ha.fencing.ssh.private-key-files /root/.ssh/id_rsa dfs.namenode.name.dir file:///usr/local/hadoop-2.5.2/hdfs/name dfs.datanode.data.dir file:///usr/local/hadoop-2.5.2/hdfs/data dfs.replication 2 dfs.webhdfs.enabled true

3) mapred-site.xml

mapreduce.framework.name yarn

4) yarn-site.xml

yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname liuyazhuang147

在hadoop下手动创建journal目录,在hadoop下手动创建/hdfs/name目录和/hdfs/data目录

别分输入如下命令:

mkdir -p /usr/local/hadoop-2.5.2/journalmkdir -p /usr/local/hadoop-2.5.2/hdfs/namemkdir -p /usr/local/hadoop-2.5.2/hdfs/data

注:后续如果Hadoop启动失败,可能是配置文件的编码问题,如果是配置文件的编码问题,则将上面的配置文件中的中文注释全部删除掉即可。

5) hadoop-env.sh

找到文件的export JAVA_HOME=${JAVA_HOME} 一行,将其修改为export JAVA_HOME=/usr/local/jdk1.7.0_72

6)slaves

liuyazhuang145liuyazhuang146liuyazhuang147

7)配置Hadoop环境变量

加上之前配置的JDK环境变量和Zookeeper环境变量,/etc/profile文件如下所示:

JAVA_HOME=/usr/local/jdk1.7.0_72CLASS_PATH=.:$JAVA_HOME/libHADOOP_HOME=/usr/local/hadoop-2.5.2ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.9PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$ZOOKEEPER_HOME/bin:$PATHexport JAVA_HOME HADOOP_HOME CLASS_PATH PATH

8)复制Hadoop环境到其他主机

在命令行分别输入如下命令

scp -r /usr/local/hadoop-2.5.2 liuyazhuang146:/usr/localscp -r /usr/local/hadoop-2.5.2 liuyazhuang147:/usr/localscp /etc/profile liuyazhuang146:/etcscp /etc/profile liuyazhuang147:/etc

同时,我们分别在liuyazhuang146和liuyazhuang147主机上执行命令source /etc/profile使环境变量生效。

至此,Hadoop集群环境搭建完毕。

三、集群的启动

1、启动Zookeeper集群

分别在liuyazhuang145、liuyazhuang146、liuyazhuang147上执行如下命令启动zookeeper集群;

zkServer.sh start

验证集群zookeeper集群是否启动,分别在liuyazhuang145、liuyazhuang146、liuyazhuang147上执行如下命令验证zookeeper集群是否启动,集群启动成功,有两个follower节点跟一个leader节点;

如下:

2、启动journalnode集群

在liuyazhuang145上执行如下命令完成JournalNode集群的启动

[root@liuyazhuang145 ~]# hadoop-daemons.sh start journalnode

执行jps命令,可以查看到JournalNode的java进程pid

3、格式化zkfc,在zookeeper中生成ha节点

在liuyazhaung145执行如下命令,完成格式化

hdfs zkfc –formatZK

(注意,这条命令最好手动输入,直接copy执行有可能会有问题)

4、 格式化hdfs

hadoop namenode –format

(注意,这条命令最好手动输入,直接copy执行有可能会有问题)

5、 启动NameNode

首先在mast1上启动active节点,在liuyazhuang145上执行如下命令

[root@liuyazhuang145 ~]# hadoop-daemon.sh start namenode

在liuyazhuang146上同步namenode的数据,同时启动standby的namenode,命令如下

#把NameNode的数据同步到liuyazhuang146上 [root@liuyazhuang146 ~]# hdfs namenode -bootstrapStandby #启动liuyazhuang146上的namenode作为standby [root@liuyazhuang146 ~]# hadoop-daemon.sh start namenode

6、启动启动datanode

在liuyazhuang145上执行如下命令

[root@liuyazhuang145 ~]# hadoop-daemons.sh start datanode

7、 启动yarn

在作为资源管理器上的机器上启动,我这里是liuyazhuang147,执行如下命令完成yarn的启动

[root@liuyzhuang147 ~]# start-yarn.sh

8、启动ZKFC

在liuyazhaung145上执行如下命令,完成ZKFC的启动

[hadoop@liuyazhuang145 ~]# hadoop-daemons.sh start zkfc

全部启动完后分别在liuyazhuang145,liuyazhuang146,liuyazhuang147上执行jps是可以看到下面这些进程

liuyazhuang145:[root@liuyazhuang145 ~]# jps3914 DFSZKFailoverController3557 DataNode4081 NameNode2552 QuorumPeerMain3357 JournalNode3669 NodeManager5716 Jps[root@liuyazhuang145 ~]# liuyazhuang146:[root@liuyazhuang146 ~]# jps3719 NameNode3129 DataNode6543 Jps2460 QuorumPeerMain3451 DFSZKFailoverController3241 NodeManager3025 JournalNode[root@liuyazhuang146 ~]# liuyazhuang147:[root@liuyazhuang147 ~]# jps2700 JournalNode2838 DataNode3569 Jps2952 ResourceManager3040 NodeManager2471 QuorumPeerMain[root@liuyazhuang147 ~]#

四、测试HA的高可用性

启动后liuyazhuang145的namenode和liuyazhuang146的namenode如下所示:

此时,我们停掉liuyazhuang145主机上的namenode

在liuyazhuang145主机上执行命令hadoop-daemon.sh stop namenode  ,此时liuyazhuang146上的namenode变为active状态

此时,我们启动liuyazhuang145上的namenode,在命令行输入命令:hadoop-daemon.sh start namenode

此时,我们看到liuyazhuang145上的namenode为standby状态  liuyazhuang146上的namenode为active状态

如果liuyazhuang146上的namenode挂掉,liuyazhuang145上的namenode就会变为active状态,再次重启liuyazhuang146上的namenode,liuyazhuang146上的namenode即变为standby状态,实现了namenode的高可用。

五、附录

增减DataNode需要更改的文件:

hdfs-site.xml

slaves

/etc/hosts

另外如果新加入节点,需要更新集群内所有节点的公钥,以便互相之间可以无密码访问。

至此,Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)搭建完毕。

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:Hadoop之——Hadoop2.5.2 HA高可靠性集群搭建(Hadoop+Zookeeper)前期准备
下一篇:接入网的定义_接入网的主要功能
相关文章

 发表评论

暂时没有评论,来抢沙发吧~