c语言sscanf函数的用法是什么
302
2022-11-24
hadoop 3.2.1 伪分布与分布式环境构建
hadoop 3.2.1 伪分布与分布式环境构建
标签(空格分隔): 大数据运维专栏
一:环境准备 二:安装Hadoop3.2.1 三:运行一个wordcount 测试 四:Hadoop 分布式构建与测试
一:环境准备:
1.1 系统环境介绍
系统:CentOS7.5x64 主机名: cat /etc/hosts ------ 192.168.11.192 fat01.flyfish.com 192.168.11.195 fat02.flyfish.com 192.168.11.197 fat03.flyfish.com ------- jdk版本: jdk1.8.181 hadoop版本 : hadoop3.2.1
1.2 部署jdk1.8.181
rpm -ivh jdk-8u181-linux-x64.rpm vim /etc/profile --- ## JAVA_HOME export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 export CLASSPATH=$JAVA_HOME/jre/lib:$JAVA_HOME/lib export PATH=$PATH:$JAVA_HOME/bin --- source /etc/profile java -version
二: 安装Hadoop3.2.1 配置伪分布
2.1 准备下载Hadoop3.2.1 版本
下载: wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.2.1/hadoop-3.2.1.tar.gz 解压: tar -zxvf hadoop-3.2.1.tar.gz
2.2 设定Hadoop 安装目录
mkdir -p /opt/bigdata ## 将Hadoop 安装到 /opt/bigdata 目录下面 mv hadoop-3.2.1 /opt/bigdata/hadoop
2.3 配置Hadoop 的配置文件
2.3.1 编译core-site.xml
编译 core-site.xml
cd /opt/bigdata/hadoop/etc/hadoop/
vim core-site.xml
-----
2.3.2 编辑hdfs-site.xml
vim hdfs-site.xml
---
2.3.3 编辑mapred-site.xml
vim mapred-site.xml
----
2.3.4 编辑yarn-site.xml
vim yarn-site.xml
----
2.4 关于jdk 的环境变量配置
echo "export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64" >> hadoop-env.sh echo "export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64" >> mapred-env.sh echo "export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64" >> yarn-env.sh
2.5 格式化 namenode文件系统:
cd /opt/bigdata/hadoop bin/hdfs namenode -format
2.6 启动Hadoop 的 hdfs
bin/hdfs --daemon start namenode bin/hdfs --daemon start datanode 浏览器访问: 启动Hadoop的yarn
bin/yarn --daemon start resourcemanager bin/yarn --daemon start nodemanager
2.8 启动historyserver
bin/mapred --daemon start historyserver
三:运行一个wordcount 测试
cd /opt/bigdata/hadoop bin/hdfs dfs -mkdir /input bin/hdfs dfs -put word.txt /input bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /input /output1
bin/hdfs dfs -get /output1
四:Hadoop 分布构建
4.1 分布构建
承接上文伪分布基础上部署: 角色分配图:
cd /opt/bigdata/hadoop/etc/
vim core-site.xml
----
编辑hdfs-site.xml 文件:
编辑mared-site.xml
vim mared-site.xml
-----
编辑yarn-site.xml
vim yarn-site.xml
----
编辑hadoop-env.sh 文件: vim hadoop-env.sh --- export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 export HADOOP_PID_DIR=/opt/bigdata/hadoop/data/tmp export HADOOP_SECURE_DN_PID_DIR=/opt/bigdata/hadoop/data/tmp ----
编辑mapred-env.sh 文件: vim mapred-env.sh ---- export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 export HADOOP_MAPRED_PID_DIR=/opt/bigdata/hadoop/data/tmp ----
编辑yarn-env.sh 文件: vim yarn-env.sh ---- export JAVA_HOME=/usr/java/jdk1.8.0_181-amd64 -----
编辑works 文件 vim works --- fat01.flyfish.com fat02.flyfish.com fat03.flyfish.com ---
同步所有节点 cd /opt/ tar –zcvf bigdata.tar.gz bigdata scp bigdata.tar.gz root@192.168.11.195:/opt/ scp bigdata.tar.gz root@192.168.11.197:/opt/ 然后到每个节点上面去 解压这个 bigdata.tar.gz 删掉原有节点上面格式数据 cd /opt/bigdata/hadoop/data rm -rf *
4.2 格式化数据节点
fat01.flyfish.com 主机上执行: cd /opt/bigdata/hadoop/bin ./hdfs namenode –format
启动之前先决定 启动用户是是是什么这边默认是root cd /opt/bigdata/hadoop/sbin 对于start-dfs.sh和stop-dfs.sh文件,添加下列参数: ---- #!/usr/bin/env bash HDFS_DATANODE_USER=root HDFS_DATANODE_SECURE_USER=hdfs HDFS_NAMENODE_USER=root HDFS_SECONDARYNAMENODE_USER=root ----
vim start-yarn.sh --- YARN_RESOURCEMANAGER_USER=root HADOOP_SECURE_DN_USER=yarn YARN_NODEMANAGER_USER=root ----
4.3 启动角色
启动hdfs fat01.flyfish.com 主机上执行: cd hadoop/sbin/ ./start-dfs.sh
打开 hdfs web http://192.168.11.192:50070
启动yarn fat02.flyfish.com cd hadoop/sbin/ start-yarn.sh 启动historyserver mapred --daemon start jobhistoryserver
打开yarn的界面: 的页面 http://192.168.11.195:19888
启动角色对比
fat01.flyfish.com jps
fat02.flyfish.com jps
fat03.flyfish.com jps
至此 Hadoop 分布式环境搭建完成
4.4 关于启动job测试
cd /opt/bigdata/hadoop bin/hdfs dfs -mkdir /input bin/hdfs dfs -put word.txt /input bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.2.1.jar wordcount /input /output1
hdfs dfs -ls /input hdfs dfs -cat /output1/part-r-00000
版权声明:本文内容由网络用户投稿,版权归原作者所有,本站不拥有其著作权,亦不承担相应法律责任。如果您发现本站中有涉嫌抄袭或描述失实的内容,请联系我们jiasou666@gmail.com 处理,核实后本网站将在24小时内删除侵权内容。
发表评论
暂时没有评论,来抢沙发吧~