Hadoop HA 集群配置文件
> 1、hadoop-env.sh配置
export JAVA_HOME=(jdk安装地址)
> 2、hdfs-site.xml配置文件
<此新名称服务的逻辑名称> dfs.nameservices name> mycluster value><名称服务中每个NameNode的唯一标识符> dfs.ha.namenodes.mycluster name>master,slave1 value> property> dfs.namenode.rpc-address.mycluster.master name> master:50070 value> property> dfs.namenode.rpc-address.mycluster.slave1 name> slave1:50070 value> property><每个NameNode监听的标准HTTP地址> dfs.namenode. name> master:9000 value> property> dfs.namenode. name> slave1:9000 value> property><配置JournalNodes 集群的URI>dfs.namenode.shared.edits.dirqjournal://master:8485;slave1:8485;slave2:8485/mycluster<配置故障转移代理类>dfs.client.failover.proxy.provider.myclusterorg.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider dfs.ha.fencing.methods name> sshfence value> property> dfs.ha.fencing.ssh.private-key-files name> /root/.ssh/id_rsa value> property> dfs.ha.fencing.methods name> shell(/bin/true) value> property> dfs.journalnode.edits.dir name>/usr/local/src/hadoop/data/journalnode/jn value><自动故障转移> dfs.ha.automatic-failover.enabled name> true value> property>
> 3、core-site.xml配置文件
<指定hdfs的nameservice>fs.defaultFShdfs://mycluster<指定hadoop临时目录>hadoop.tmp.dir/opt/tmp/hadoop/haha.zookeeper.quorummaster:2181,slave1:2181,slave2:2181
> 4、mapred-site.xml配置
mapreduce.farmework.nameyarn
> 5、yarn-site.xml配置
<打开高可用>yarn.resourcemanager.ha.enabledtrue<启用自动故障转移 >yarn.resourcemanager.ha.automatic-failover.enabledtrueyarn.resourcemanager.cluster-idyarn-rm-clusteryarn.resourcemanager.ha.rm-idsrm1,rm2yarn.resourcemanager.hostname.rm1masteryarn.resourcemanager.hostname.rm2server1yarn.resourcemanager.zk-addressmaster:2181,server1:2181,server2:2181<配置YARN的yarn.resourcemanager.webapp.address.rm2slave1:8088
yarn.nodemanager.aux-servicesmapreduce_shuffle
> 6、slaves配置(DataNode)masterslave1slave2
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
暂时没有评论,来抢沙发吧~