文章目录
- 一、Hadoop集群规划
- 二、在主节点上配置Hadoop
- (一)登录虚拟机
- (二)设置主机名
- (三)主机名与IP地址映射
- (四)关闭与禁用防火墙
- (五)配置免密登录
- (六)配置JDK
- (七)配置Hadoop
- 1、上传安装包
- 2、解压缩安装包
- 3、配置环境变量
- 4、编辑Hadoop环境配置文件 - hadoop-env.sh
- 5、编辑Hadoop核心配置文件 - core-site.xml
- 6、编辑HDFS配置文件 - hdfs-site.xml
- 7、编辑MapReduce配置文件 - mapred-site.xml
- 8、编辑YARN配置文件 - yarn-site.xml
- 9、编辑数据节点文件 - workers
- 三、从主节点分发到从节点
- (一)从master节点分发到slave1节点
- 1、分发JDK
- 2、分发Hadoop
- 3、分发环境配置文件
- 4、刷新环境配置文件
- 5、查看jdk和hadoop版本
- 6、分发主机名IP地址映射文件
- (二)从master节点分发到slave2节点
- 1、分发JDK
- 2、分发Hadoop
- 3、分发环境配置文件
- 4、刷新环境配置文件
- 5、查看jdk和hadoop版本
- 6、分发主机名IP地址映射文件
- 四、格式化名称节点
- 五、启动Hadoop集群
- 六、初试HDFS Shell
- (一)查看目录
- 1、命令
- 2、演示
- (二)创建目录
- 1、创建单层目录
- (1)命令
- (2)演示
- 2、创建多层目录
- (1)命令
- (2)演示
- (三)上传文件
- 1、命令
- 2、演示
- (四)查看文件内容
- 1、命令
- 2、演示
- (五)删除文件
- 1、命令
- 2、演示
- (六)删除目录
- 七、查看Hadoop WebUI
- 八、运行MR应用 - 词频统计
- 九、关闭Hadoop集群
一、Hadoop集群规划
二、在主节点上配置Hadoop
(一)登录虚拟机
- 登录三个虚拟机
(二)设置主机名
(三)主机名与IP地址映射
- 执行命令:vim /etc/hosts
(四)关闭与禁用防火墙
(五)配置免密登录
(六)配置JDK
export JAVA_HOME=/usr/local/jdk1.8.0_231 export PATH=$JAVA_HOME/bin:$PATH export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
(七)配置Hadoop
1、上传安装包
- 上传hadoop安装包
- 查看hadoop安装包
2、解压缩安装包
- 执行命令:tar -zxvf hadoop-3.3.4.tar.gz -C /usr/local
- 查看解压后的目录
3、配置环境变量
- 执行命令:vim /etc/profile
export HADOOP_HOME=/usr/local/hadoop-3.3.4 export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH export HDFS_NAMENODE_USER=root export HDFS_DATANODE_USER=root export HDFS_SECONDARYNAMENODE_USER=root export YARN_RESOURCEMANAGER_USER=root export YARN_NODEMANAGER_USER=root
- 存盘退出,执行命令:source /etc/profile,让配置生效
- 查看hadoop版本,执行命令:hadoop version
4、编辑Hadoop环境配置文件 - hadoop-env.sh
- 进入hadoop配置目录,执行命令:cd $HADOOP_HOME/etc/hadoop
- 执行命令:vim hadoop-env.sh
export JAVA_HOME=/usr/local/jdk1.8.0_231 export HADOOP_HOME=/usr/local/hadoop-3.3.4 export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
- 存盘退出,执行命令:source hadoop-env.sh,让配置生效
5、编辑Hadoop核心配置文件 - core-site.xml
- 执行命令:vim core-site
fs.defaultFS hdfs://master:9000 hadoop.tmp.dir /usr/local/hadoop-3.3.4/tmp 6、编辑HDFS配置文件 - hdfs-site.xml
- 执行命令:vim hdfs-site.xml
dfs.namenode.name.dir /usr/local/hadoop-3.3.4/tmp/namenode dfs.datanode.data.dir /usr/local/hadoop-3.3.4/tmp/datanode dfs.namenode.secondary.http-address master:50090 dfs.namenode.http-address 0.0.0.0:9870 dfs.replication 3 dfs.permissions.enabled false 7、编辑MapReduce配置文件 - mapred-site.xml
- 执行命令:vim mapred-site.xml
mapreduce.framework.name yarn 8、编辑YARN配置文件 - yarn-site.xml
- 执行命令:vim yarn-site.xml
yarn.resourcemanager.hostname master yarn.nodemanager.aux-services mapreduce_shuffle yarn.nodemanager.vmem-check-enabled false 9、编辑数据节点文件 - workers
- 执行命令:vim workers
三、从主节点分发到从节点
(一)从master节点分发到slave1节点
1、分发JDK
- 执行命令:scp -r $JAVA_HOME root@slave1:$JAVA_HOME(注意,拷贝目录,一定要加-r选项)
- 在slave1节点上查看拷贝的JDK目录
2、分发Hadoop
- 执行命令:scp -r $HADOOP_HOME root@slave1:$HADOOP_HOME
- 在slave1节点上查看拷贝的hadoop目录
3、分发环境配置文件
- 执行命令:scp /etc/profile root@slave1:/etc/profile
4、刷新环境配置文件
- 在slave1节点上执行命令:source /etc/profile
5、查看jdk和hadoop版本
- 在slave1节点上执行命令:java -version
- 在slave1节点上执行命令:hadoop version
6、分发主机名IP地址映射文件
- 执行命令:scp /etc/hosts root@slave1:/etc/hosts
(二)从master节点分发到slave2节点
1、分发JDK
- 执行命令:scp -r $JAVA_HOME root@slave2:$JAVA_HOME(注意,拷贝目录,一定要加-r选项)
- 在slave2节点上查看拷贝的JDK目录
2、分发Hadoop
- 执行命令:scp -r $HADOOP_HOME root@slave2:$HADOOP_HOME
- 在slave2节点上查看拷贝的hadoop目录
3、分发环境配置文件
- 执行命令:scp /etc/profile root@slave2:/etc/profile
4、刷新环境配置文件
- 在slave2节点上执行命令:source /etc/profile
5、查看jdk和hadoop版本
-
在slave2节点上执行命令:java -version
-
在slave2节点上执行命令:hadoop version
6、分发主机名IP地址映射文件
- 执行命令:scp /etc/hosts root@slave2:/etc/hosts
四、格式化名称节点
- 执行命令:hdfs namenode -format
- common.Storage: Storage directory /usr/local/hadoop-3.3.4/tmp/namenode has been successfully formatted. 表明名称节点格式化成功。
五、启动Hadoop集群
- 启动hadoop服务,执行命令:start-all.sh
- 查看进程,执行命令:jps
- 如果缺少进程,大多是因为响应的配置文件有问题,请仔细对照检查
- hadoop-env.sh没有刷新,导致HADOOP_CONF_DIR环境变量找到不到
- core-site.xml,fs.defaultFS写成了fs.defaultFs,导致启动Hadoop之后,没有HDFS的三个进程:NameNode、SecondaryNameNode、DateNode
六、初试HDFS Shell
(一)查看目录
1、命令
- hdfs dfs -ls <路径>
2、演示
- 执行命令:hdfs dfs -ls /
(二)创建目录
1、创建单层目录
(1)命令
- hdfs dfs -mkdir <单层目录>
(2)演示
- 执行命令:hdfs dfs -mkdir /BigData
- 在slave1节点上查看新建的目录
2、创建多层目录
(1)命令
- hdfs dfs -mkdir -p <多层目录>
(2)演示
- 在slave1节点上执行命令:hdfs dfs -mkdir -p /china/sichuan/luzhou/lzy
- 在master节点上查看新建的多层目录,执行命令:hdfs dfs -ls -R /china
- 说明:-R (- recursive)表示递归查看目录里全部东西
(三)上传文件
1、命令
- hdfs dfs -put <文件> <路径>
2、演示
- 执行命令:hdfs dfs -put /etc/hosts /BigData
- 查看上传的文件
- 执行命令:hdfs dfs -D dfs.replication=2 -put /etc/profile /BigData (上传文件时指定副本数)
- 查看上传的文件
- 修改副本数,执行命令:hdfs dfs -setrep 3 /BigData/profile
- 检验副本数是否已修改
(四)查看文件内容
1、命令
- hdfs dfs -cat <文件>
2、演示
- 执行命令:hdfs dfs -cat /BigData/hosts
(五)删除文件
1、命令
- hdfs dfs -rm <文件>
2、演示
- 执行命令:hdfs dfs -rm /BigData/hosts
- 查看文件是否真的被删除
(六)删除目录
七、查看Hadoop WebUI
八、运行MR应用 - 词频统计
九、关闭Hadoop集群
- 执行命令:hdfs dfs -rm /BigData/hosts
- hdfs dfs -rm <文件>
- 执行命令:hdfs dfs -cat /BigData/hosts
- hdfs dfs -cat <文件>
- 执行命令:hdfs dfs -put /etc/hosts /BigData
- hdfs dfs -put <文件> <路径>
- 在slave1节点上执行命令:hdfs dfs -mkdir -p /china/sichuan/luzhou/lzy
- hdfs dfs -mkdir -p <多层目录>
- 执行命令:hdfs dfs -mkdir /BigData
- hdfs dfs -mkdir <单层目录>
- 执行命令:hdfs dfs -ls /
- hdfs dfs -ls <路径>
- 启动hadoop服务,执行命令:start-all.sh
- 执行命令:hdfs namenode -format
- 执行命令:scp /etc/hosts root@slave2:/etc/hosts
-
- 在slave2节点上执行命令:source /etc/profile
- 执行命令:scp /etc/profile root@slave2:/etc/profile
- 执行命令:scp -r $HADOOP_HOME root@slave2:$HADOOP_HOME
- 执行命令:scp -r $JAVA_HOME root@slave2:$JAVA_HOME(注意,拷贝目录,一定要加-r选项)
- 执行命令:scp /etc/hosts root@slave1:/etc/hosts
- 在slave1节点上执行命令:java -version
- 在slave1节点上执行命令:source /etc/profile
- 执行命令:scp /etc/profile root@slave1:/etc/profile
- 执行命令:scp -r $HADOOP_HOME root@slave1:$HADOOP_HOME
- 执行命令:scp -r $JAVA_HOME root@slave1:$JAVA_HOME(注意,拷贝目录,一定要加-r选项)
- 执行命令:vim workers
- 执行命令:vim yarn-site.xml
- 执行命令:vim mapred-site.xml
- 执行命令:vim hdfs-site.xml
- 执行命令:vim core-site
- 存盘退出,执行命令:source hadoop-env.sh,让配置生效
- 进入hadoop配置目录,执行命令:cd $HADOOP_HOME/etc/hadoop
- 存盘退出,执行命令:source /etc/profile,让配置生效
- 执行命令:vim /etc/profile
- 执行命令:tar -zxvf hadoop-3.3.4.tar.gz -C /usr/local
- 上传hadoop安装包
- 执行命令:vim /etc/hosts
- 登录三个虚拟机
猜你喜欢
- 7天前(从“见世面”到“内在需要”:在海南,追问旅行的意义)从“见世面”到“内在需要”:在海南,追问旅行的意义
- 7天前(临沂 凯悦)临沂第一家凯悦嘉轩酒店开幕迎宾
- 7天前(四川推进世界重要旅游目的地建设工作)四川推进世界重要旅游目的地建设
- 7天前(罗马尼亚的匈牙利族自治)江苏赴匈牙利、罗马尼亚开展文旅交流推广活动
- 7天前(甘肃文化旅游宣传片)甘肃文旅推介走进重庆
- 7天前(云南南博会展馆)旅居云南馆亮相第9届南博会
- 7天前(澳涞坞是什么)从本土品牌到全球舞台:澳涞山庄获国际顶级产业资源加持
- 7天前(夏日纵享 邂逅双面姑苏是哪一集)夏日纵享 邂逅双面姑苏
- 7天前(万豪旅享家活动2021)精彩上新,漫享夏日----跟随万豪旅享家新开酒店解锁夏日旅行灵感
- 7天前(2025年安徽省“百场黄梅唱响百家景区”示范展示启动)2025年安徽省“百场黄梅唱响百家景区”示范展示启动
网友评论
- 搜索
- 最新文章
- (2020广州车展哈弗)你的猛龙 独一无二 哈弗猛龙广州车展闪耀登场
- (哈弗新能源suv2019款)智能科技颠覆出行体验 哈弗重塑新能源越野SUV价值认知
- (2021款全新哈弗h5自动四驱报价)新哈弗H5再赴保障之旅,无惧冰雪护航哈弗全民电四驱挑战赛
- (海南航空现况怎样)用一场直播找到市场扩张新渠道,海南航空做对了什么?
- (visa jcb 日本)优惠面面俱到 JCB信用卡邀您畅玩日本冰雪季
- (第三届“堡里有年味·回村过大年”民俗花灯会活动)第三届“堡里有年味·回村过大年”民俗花灯会活动
- (展示非遗魅力 长安启源助力铜梁龙舞出征)展示非遗魅力 长安启源助力铜梁龙舞出征
- (阿斯塔纳航空公司)阿斯塔纳航空机队飞机数量增至50架
- (北京香港航班动态查询)香港快运航空北京大兴新航线今日首航
- (我在港航“呵护”飞机 每一次安全着陆就是最好的荣誉)我在港航“呵护”飞机 每一次安全着陆就是最好的荣誉
- 热门文章