大数据组件-Hadoop全分布式部署

网友投稿 222 2022-11-20

大数据组件-Hadoop全分布式部署

????????‍????博主介绍:大家好,我是芝士味的椒盐,一名在校大学生,热爱分享知识,很高兴在这里认识大家????

????擅长领域:Java、大数据、运维、电子

????????如果本文章各位小伙伴们有帮助的话,????关注+????????点赞+????评论+????收藏,相应的有空了我也会回访,互助!!!

????另本人水平有限,旨在创作简单易懂的文章,在文章描述时如有错,恳请各位大佬指正,在此感谢!!!

集群规划

检查三台机器之间是否可以ping通这里的三台主机ip分别如下:​​#hadoop1 192.168.123.75 #hadoop2 192.168.123.76 #hadoop3 192.168.123.77 ​​在/etc/sudoers中设置hadoop的权限(三台)​​root ALL=(ALL) ALL hadoop ALL=(ALL) NOPASSWD:ALL ​​修改分别修改三台机的network和hostname的名字为:192.168.123.75→master192.168.123.76→slave1192.168.123.77→slave2查看并永久关闭防火墙​​#查看防火墙状态 systemctl status firewalld.service #关闭防火墙 systemctl stop firewalld.service #永久关闭防火墙 systemctl disable firewalld.server ​​开启SSH免密登录

master:​​#生产密钥对 ssh-keygen -t rsa #三连击回车 ssh-copy-id master #将master的公钥传到远程主机上 scp -r /home/hadoop/.ssh/authorized_keys slave1:/home/hadoop/.ssh/authorized_keys scp -r /home/hadoop/.ssh/authorized_keys slave2:/home/hadoop/.ssh/authorized_keys ​​slave1:​​#生产密钥对 ssh-keygen -t rsa #三连击回车 ssh-copy-id master ​​slave2:​​#生产密钥对 ssh-keygen -t rsa #三连击回车 ssh-copy-id master ​​验证登录其他节点是否无需密码,无需密码说明成功​​ssh slave1 ​​

使用xftp上传​​jdk-8u144-linux-x64.tar.gz​​和​​hadoop-2.6.0.tar.gz​​ 到/usr/local/src/目录下解压文件,并且重命名​​tar -zxvf jdk-8u144-linux-x64.tar.gz tar -zxvf hadoop-2.6.0.tar.gz ​​​​mv jdk1.8.0-bin jdk8 mv hadoop2.6.0-bin hadoop ​​在~/.bash_profile配置环境变量​​export JAVA_HOME=/usr/local/src/jdk8 export PATH=$PATH:$JAVA_HOME/bin export HADOOP_HOME=/usr/local/src/hadoop export PATH=$PATH:$HADOOP_HOME/sbin ​​​​#使环境变量生效 source ~/.bash_profile ​​

测试jdk是否正常​​java -version ​​

在/usr/local/src/hadoop/etc/hadoop/下做以下配置

配置slaves​​#对应每台的host映射 master slave1 slave2 ​​​​配置hadoop-env.sh​​、​​mapred-env.sh​​、​​yarn-env.sh​​,添加jdk路径​​export JAVA_HOME=/use/local/src/jdk8 ​​配置core-site.xml​​ fs.defaultFS hdfs://master:9000 hadoop.tmp.dir /usr/local/src/hadoop/data/tmp ​​配置hdfs-site.xml​​ dfs.replicaiotn 3 dfs.namenode.secondary.http-address slave2:50090 ​​配置yarn-site.xml​​ yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname slave1 ​​配置mapred-site.xml​​ mapreduce.framework.name yarn ​​

分发配置文件及软件

分发环境变量​​#目前master位于~/目录下 scp -r ~/.bash_profiel slave1:$PWD scp -r ~/.bash_profiel slave2:$PWD ​​

别忘了到slave1、slave2上source一把

分发jdk​​#当前master位于/usr/local/src/目录下 scp -r ./jdk8 slave1:$PWD scp -r ./jdk8 slave2:$PWD ​​分发hadoop​​#当前master为于/usr/local/src/目录下 scp -r ./hadoop slave1:$PWD scp -r ./hadoop slave2:$PWD ​​

格式化hdfs磁盘​​#在集群的主节点上进行格式化这里为master,格式化status应该为0,不为0需要根据info进行修改 hdfs namenode -format ​​启动hdfs和yarn​​#master节点上启动 start-dfs.sh #在有resourcemanager所在的机器上使用 start-yarn.sh ​​

启动之后可以通过​​http://master:9000​​进行网页访问,可以看到集群信息

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:DisplayPort数字视讯接口的兼容性测试解决方案
下一篇:Java NIO实现聊天室功能
相关文章

 发表评论

暂时没有评论,来抢沙发吧~