c语言sscanf函数的用法是什么
472
2022-11-23
hdfs datanode通过添加数据盘扩容
最近,在生产环境中,hdfs集群数据量已达到存储的90%,亟需对存储空间进行扩容。
通过调研和实验,确定添加datanoe的存储目录比较适合我们的生产环境!在这里记录一下添加数据目录的过程。
第一步:备份hdfs-site.xml配置文件
cp hdfs-site.xml hdfs-site.xml.20210714.bak
第二步:添加数据磁盘、格式化,并挂载到/data2目录
#格式化磁盘mkfs.ext4 /dev/sdb#挂载磁盘到/data2mount -t ext4 /dev/sdb /data2#添加开机挂载vim /etc/fstab
第三步:创建hdfs数据存储目录
mkdir /data2/hadoop
注意:如果hadoop集群有用户权限,需要修改相应权限,例如:chown -R hadoop.hdfs /data2/hadoop
第四步:修改hdfs-site.xml文件(所有节点),增加dfs.datanode.data.dir数据目录(用逗号分隔)
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~