c语言sscanf函数的用法是什么
288
2022-11-25
Hadoop框架:HDFS读写机制与API详解
一、读写机制
1、数据写入
客户端访问NameNode请求上传文件; NameNode检查目标文件和目录是否已经存在; NameNode响应客户端是否可以上传; 客户端请求NameNode文件块Block01上传服务位置; NameNode响应返回3个DataNode节点; 客户端通过输入流建立DataNode01传输通道; DataNode01调用DataNode02,DataNode02调用DataNode03,通信管道建立完成; DataNode01、DataNode02、DataNode03逐级应答客户端。 客户端向DataNode01上传第一个文件块Block; DataNode01接收后传给DataNode02,DataNode02传给DataNode03; Block01传输完成之后,客户端再次请求NameNode上传第二个文件块;
2、数据读取
客户端通过向NameNode请求下载文件; NameNode查询获取文件元数据并返回; 客户端通过元数据信息获取文件DataNode地址; 就近原则选择一台DataNode服务器,请求读取数据; DataNode传输数据返回给客户端; 客户端以本地处理目标文件;
二、基础API案例
1、基础演示接口
public interface HdfsFileService { // 创建文件夹 void mkdirs(String path) throws Exception ; // 文件判断 void isFile(String path) throws Exception ; // 修改文件名 void reName(String oldFile, String newFile) throws Exception ; // 文件详情 void fileDetail(String path) throws Exception ; // 文件上传 void copyFromLocalFile(String local, String path) throws Exception ; // 拷贝到本地:下载 void copyToLocalFile(String src, String dst) throws Exception ; // 删除文件夹 void delete(String path) throws Exception ; // IO流上传 void ioUpload(String path, String local) throws Exception ; // IO流下载 void ioDown(String path, String local) throws Exception ; // 分块下载 void blockDown(String path, String local1, String local2) throws Exception ; }
2、命令API用法
@Service
public class HdfsFileServiceImpl implements HdfsFileService {
@Resource
private HdfsConfig hdfsConfig ;
@Override
public void mkdirs(String path) throws Exception {
// 1、获取文件系统
Configuration configuration = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI(hdfsConfig.getNameNode()),
configuration, "root");
// 2、创建目录
fileSystem.mkdirs(new Path(path));
// 3、关闭资源
fileSystem.close();
}
@Override
public void isFile(String path) throws Exception {
// 1、获取文件系统
Configuration configuration = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI(hdfsConfig.getNameNode()),
configuration, "root");
// 2、判断文件和文件夹
FileStatus[] fileStatuses = fileSystem.listStatus(new Path(path));
for (FileStatus fileStatus : fileStatuses) {
if (fileStatus.isFile()) {
System.out.println("文件:"+fileStatus.getPath().getName());
}else {
System.out.println("文件夹:"+fileStatus.getPath().getName());
}
}
// 3、关闭资源
fileSystem.close();
}
@Override
public void reName(String oldFile, String newFile) throws Exception {
// 1、获取文件系统
Configuration configuration = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI(hdfsConfig.getNameNode()),
configuration, "root");
// 2、修改文件名
fileSystem.rename(new Path(oldFile), new Path(newFile));
// 3、关闭资源
fileSystem.close();
}
@Override
public void fileDetail(String path) throws Exception {
// 1、获取文件系统
Configuration configuration = new Configuration();
FileSystem fileSystem = FileSystem.get(new URI(hdfsConfig.getNameNode()),
configuration, "root");
// 2、读取文件详情
RemoteIterator
3、合并切割文件
cat hadoop-2.7.2.zip.block1 hadoop-2.7.2.zip.block2 > hadoop.zip
三、机架感知
Hadoop2.7的文档说明
第一个副本和client在一个节点里,如果client不在集群范围内,则这第一个node是随机选取的;第二个副本和第一个副本放在相同的机架上随机选择;第三个副本在不同的机架上随机选择,减少了机架间的写流量,通常可以提高写性能,机架故障的概率远小于节点故障的概率,因此该策略不会影响数据的稳定性。
四、网络拓扑
HDFS写数据的过程中,NameNode会选择距离待上传数据最近距离的DataNode接收数据,基于机架感知,NameNode就可以画出上图所示的datanode网络拓扑图。D1,R1都是交换机,最底层是datanode。
Distance(/D1/R1/N1,/D1/R1/N1)=0 相同的节点 Distance(/D1/R1/N1,/D1/R1/N2)=2 同一机架下的不同节点 Distance(/D1/R1/N1,/D1/R2/N1)=4 同一IDC下的不同datanode Distance(/D1/R1/N1,/D2/R3/N1)=6 不同IDC下的datanode
$$End$$
Gitee主页:https://gitee.com/cicadasmile/butte-java-note
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~