hadoop的两类配置文件及3种启动/关闭方式

网友投稿 268 2022-11-23

hadoop的两类配置文件及3种启动/关闭方式

hadoop配置文件     默认配置文件:四个模块相对应的jar包中:$HADOOP_HOME/share/hadoop        *core-default.xml        *hdfs-default.xml        *yarn-default.xml        *mapred-default.xml    用户自定义配置文件:$HADOOP_HOME/etc/hadoop/        *core-site.xml        *hdfs-site.xml        *yarn-site.xml        *mapred-site.xml     *启动方式1:各个服务器逐一启动(比较常用,可编写shell脚本)        hdfs:            sbin/hadoop-daemon.sh start|stop namenode            sbin/hadoop-daemon.sh start|stop datanode            sbin/hadoop-daemon.sh start|stop secondarynamenode        yarn:            sbin/yarn-daemon.sh start|stop resourcemanager               sbin/yarn-daemon.sh start|stop nodemanager        mapreduce:            sbin/mr-jobhistory-daemon.sh start|stop historyserver                *启动方式2:各个模块分开启动:需要配置ssh对等性,需要在namenode上运行        hdfs:            sbin/start-dfs.sh            sbin/start-yarn.sh        yarn:            sbin/stop-dfs.sh            sbin/stop-yarn.sh    *启动方式3:全部启动:不建议使用,这个命令需要在namenode上运行,但是会同时叫secondaryname节点也启动到namenode节点            sbin/start-all.sh            sbin/stop-all.sh

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:常见的组态软件有哪些
下一篇:电脑内存条安装教程_电脑内存条安装注意事项
相关文章

 发表评论

暂时没有评论,来抢沙发吧~