(5)Hadoop 两类配置文件 以及HDFS垃圾回收

网友投稿 316 2022-11-25

(5)Hadoop 两类配置文件 以及HDFS垃圾回收

(1)配置文件

1)默认配置文件   位置:模块相对应的jar包中

比如:common模块   $HADOOP_HOME/share/hadoop/common/hadoop-common-xxx.jar 中

*core-default.xml

*hdfs-default.xml

*yarn-default.xml

*mapred-default.xml

2)用户自定义配置文件   位置:$HADOOP_HOME/etc/hadoop/*

*core-site.xml

*hdfs-site.xml

*yarn-site.xml

*mapred-site.xml

(2)HDFS垃圾回收

core-default.xml中有一个配置项 fs.trash.interval    这个配置项的值就是删除HDFS文件系统中文件后  文件在垃圾想中存留的时间  默认是0  实际生产环境 一定要配置 不能是0

fs.trash.interval 7 * 24 * 60

修改完之后重启才能生效

(3)一些属性是配置文件中找不到的 需要到代码中找 这个就需要深入学习了 暂时我还没学会

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:深入理解Java设计模式之中介者模式
下一篇:(2) hadoop 配置部署启动HDFS及本地模式运行MapReduce案例(使用HDFS上数据)
相关文章

 发表评论

暂时没有评论,来抢沙发吧~