hadoop 3.2.1 伪分布与分布式环境构建

网友投稿 302 2022-11-24

hadoop 3.2.1 伪分布与分布式环境构建

hadoop 3.2.1 伪分布与分布式环境构建

标签(空格分隔): 大数据运维专栏

一:环境准备 二:安装Hadoop3.2.1 三:运行一个wordcount 测试 四:Hadoop 分布式构建与测试

一:环境准备:

1.1 系统环境介绍

系统:CentOS7.5x64 主机名: cat /etc/hosts ------ 192.168.11.192 fat01.flyfish.com 192.168.11.195 fat02.flyfish.com 192.168.11.197 fat03.flyfish.com ------- jdk版本: jdk1.8.181 hadoop版本 : hadoop3.2.1

1.2 部署jdk1.8.181

rpm -ivh jdk-8u181-linux-x64.rpm vim /etc/profile --- ## JAVA_HOME export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 export CLASSPATH=$JAVA_HOME/jre/lib:$JAVA_HOME/lib export PATH=$PATH:$JAVA_HOME/bin --- source /etc/profile java -version

二: 安装Hadoop3.2.1 配置伪分布

2.1 准备下载Hadoop3.2.1 版本

下载: wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz 解压: tar -zxvf hadoop-3.2.1.tar.gz

2.2 设定Hadoop 安装目录

mkdir -p /opt/bigdata ## 将Hadoop 安装到 /opt/bigdata 目录下面 mv hadoop-3.2.1 /opt/bigdata/hadoop

2.3 配置Hadoop 的配置文件

2.3.1 编译core-site.xml

编译 core-site.xml cd /opt/bigdata/hadoop/etc/hadoop/ vim core-site.xml ----- hadoop.tmp.dir /opt/bigdata/hadoop/data hadoop_temp fs.default.name hdfs://fat01.flyfish.com:8020 hdfs_derect ----

2.3.2 编辑hdfs-site.xml

vim hdfs-site.xml --- dfs.replication 1 num dfs.namenode.http-address fat01.flyfish.com:50070 ---

2.3.3 编辑mapred-site.xml

vim mapred-site.xml ---- mapreduce.framework.name yarn mapreduce.jobhistory.webapp.address fat01.flyfish.com:19888 yarn.app.mapreduce.am.env HADOOP_MAPRED_HOME=/opt/bigdata/hadoop mapreduce.map.env HADOOP_MAPRED_HOME=/opt/bigdata/hadoop mapreduce.reduce.env HADOOP_MAPRED_HOME=/opt/bigdata/hadoop -----

2.3.4 编辑yarn-site.xml

vim yarn-site.xml ---- yarn.nodemanager.aux-services mapreduce_shuffle -----

2.4 关于jdk 的环境变量配置

echo "export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64" >> hadoop-env.sh echo "export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64" >> mapred-env.sh echo "export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64" >> yarn-env.sh

2.5 格式化 namenode文件系统:

cd /opt/bigdata/hadoop bin/hdfs namenode -format

2.6 启动Hadoop 的 hdfs

bin/hdfs --daemon start namenode bin/hdfs --daemon start datanode 浏览器访问: 启动Hadoop的yarn

bin/yarn --daemon start resourcemanager bin/yarn --daemon start nodemanager

2.8 启动historyserver

bin/mapred --daemon start historyserver

三:运行一个wordcount 测试

cd /opt/bigdata/hadoop bin/hdfs dfs -mkdir /input bin/hdfs dfs -put word.txt /input bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /input /output1

bin/hdfs dfs -get /output1

四:Hadoop 分布构建

4.1 分布构建

承接上文伪分布基础上部署: 角色分配图:

cd /opt/bigdata/hadoop/etc/ vim core-site.xml ---- hadoop.tmp.dir /opt/bigdata/hadoop/data hadoop_temp fs.default.name hdfs://fat01.flyfish.com:8020 hdfs_derect ----

编辑hdfs-site.xml 文件: dfs.replication 3 dfs.namenode.http-address fat01.flyfish.com:50070 dfs.namenode.secondary.http-address fat02.flyfish.com:50090

编辑mared-site.xml vim mared-site.xml ----- mapreduce.framework.name yarn mapreduce.jobhistory.address fat02.flyfish.com:10020 mapreduce.jobhistory.webapp.address fat02.flyfish.com:19888 yarn.app.mapreduce.am.env HADOOP_MAPRED_HOME=/opt/bigdata/hadoop mapreduce.map.env HADOOP_MAPRED_HOME=/opt/bigdata/hadoop mapreduce.reduce.env HADOOP_MAPRED_HOME=/opt/bigdata/hadoop -----

编辑yarn-site.xml vim yarn-site.xml ---- yarn.nodemanager.aux-services mapreduce_shuffle yarn.resourcemanager.hostname fat02.flyfish.com yarn.log-aggregation-enable true yarn.log-aggregation.retain-seconds 604800 ----

编辑hadoop-env.sh 文件: vim hadoop-env.sh --- export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 export HADOOP_PID_DIR=/opt/bigdata/hadoop/data/tmp export HADOOP_SECURE_DN_PID_DIR=/opt/bigdata/hadoop/data/tmp ----

编辑mapred-env.sh 文件: vim mapred-env.sh ---- export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 export HADOOP_MAPRED_PID_DIR=/opt/bigdata/hadoop/data/tmp ----

编辑yarn-env.sh 文件: vim yarn-env.sh ---- export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 -----

编辑works 文件 vim works --- fat01.flyfish.com fat02.flyfish.com fat03.flyfish.com ---

同步所有节点 cd /opt/ tar –zcvf bigdata.tar.gz bigdata scp bigdata.tar.gz root@192.168.11.195:/opt/ scp bigdata.tar.gz root@192.168.11.197:/opt/ 然后到每个节点上面去 解压这个 bigdata.tar.gz 删掉原有节点上面格式数据 cd /opt/bigdata/hadoop/data rm -rf *

4.2 格式化数据节点

fat01.flyfish.com 主机上执行: cd /opt/bigdata/hadoop/bin ./hdfs namenode –format

启动之前先决定 启动用户是是是什么这边默认是root cd /opt/bigdata/hadoop/sbin 对于start-dfs.sh和stop-dfs.sh文件,添加下列参数: ---- #!/usr/bin/env bash HDFS_DATANODE_USER=root HDFS_DATANODE_SECURE_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root ----

vim start-yarn.sh --- YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root ----

4.3 启动角色

启动hdfs fat01.flyfish.com 主机上执行: cd hadoop/sbin/ ./start-dfs.sh

打开 hdfs web http://192.168.11.192:50070

启动yarn fat02.flyfish.com cd hadoop/sbin/ start-yarn.sh 启动historyserver mapred --daemon start jobhistoryserver

打开yarn的界面: 的页面 http://192.168.11.195:19888

启动角色对比

fat01.flyfish.com jps

fat02.flyfish.com jps

fat03.flyfish.com jps

至此 Hadoop 分布式环境搭建完成

4.4 关于启动job测试

cd /opt/bigdata/hadoop bin/hdfs dfs -mkdir /input bin/hdfs dfs -put word.txt /input bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /input /output1

hdfs dfs -ls /input hdfs dfs -cat /output1/part-r-00000

版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。

上一篇:java 相交链表的实现示例
下一篇:2019年iPhone或将会使用TYPE-C充电口
相关文章

 发表评论

暂时没有评论,来抢沙发吧~