news 2026/3/1 2:56:24

任务一- 2.子任务二:Hadoop完全分布式安装配置

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
任务一- 2.子任务二:Hadoop完全分布式安装配置

2.子任务二:Hadoop完全分布式安装配置(任务一)

在 主 节 点 将 Hadoop 安 装 包 解 压 到/root/software目录下
tarzxvf hadoop-3.2.1.tar.gz -C /root/software/
依次配置hadoop-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml和workers配置文件

在修改配置文件之前先进入path/to/hadoop/etc/hadoop目录:
所有的配置文件都在path/to/hadoop/etc/hadoop下面,如下图:

(1)hadoop-env.sh配置文件

在文件里面输入hadoop的路径

exportJAVA_HOME=/root/software/jdk1.8exportHDFS_NAMENODE_USER=rootexportHDFS_DATANODE_USER=rootexportHDFS_SECONDARYNAMENODE_USER=rootexportYARN_RESOURCEMANAGER_USER=rootexportYARN_NODEMANAGER_USER=root
(2)core-site.xml配置文件
<!-- 在configuration标签内添加以下内容 --><property><name>fs.defaultFS</name><value>hdfs://master:9000</value></property><!-- 临时文件存放位置 --><property><name>hadoop.tmp.dir</name><value>/root/software/hadoop-3.2.1/hadoopDatas/tempDatas</value></property>
(3)hdfs-site.xml配置文件
<!-- 在configuration标签内添加以下内容 --><!-- 设置副本数量 --><property><name>dfs.replication</name><value>2</value></property><!-- namenode存放的位置,老版本是用dfs.name.dir --><property><name>dfs.namenode.name.dir</name><value>/root/software/hadoop-3.2.1/hadoopDatas/namenodeDatas</value></property><!-- datanode存放的位置,老版本是dfs.data.dir --><property><name>dfs.datanode.data.dir</name><value>/root/software/hadoop-3.2.1/hadoopDatas/datanodeDatas/</value></property><!-- 关闭文件上传权限检查 --><property><name>dfs.permissions.enalbed</name><value>false</value></property><!-- namenode运行在哪儿节点,默认是0.0.0.0:9870,在hadoop3.x中端口从原先的50070改为了9870 --><property><name>dfs.namenode.http-address</name><value>master:9870</value></property><!-- secondarynamenode运行在哪个节点,默认0.0.0.0:9868 --><property><name>dfs.namenode.secondary.http-address</name><value>master:9868</value></property>
(4)mapred-site.xml配置文件
<!-- 在configuration标签内添加以下内容 --><!-- 设置mapreduce在yarn平台上运行 --><property><name>mapreduce.framework.name</name><value>yarn</value></property><!-- 配了上面这个下面这个也得配, 不然跑mapreduce会找不到主类。MR应用程序的CLASSPATH--><property><name>mapreduce.application.classpath</name><value>/root/software/hadoop-3.2.1/share/hadoop/mapreduce/*:/root/software/hadoop-3.2.1/share/hadoop/mapreduce/lib/*</value></property><!-- 历史服务器端地址 --><property><name>mapreduce.jobhistory.address</name><value>master:10020</value></property><!-- 历史服务器web端地址 --><property><name>mapreduce.jobhistory.webapp.address</name><value>master:19888</value></property>
(5)yarn-site.xml配置文件
<!-- 在configuration标签内添加以下内容 --><!-- resourcemanager运行在哪个节点 --><property><name>yarn.resourcemanager.hostname</name><value>master</value></property><!-- nodemanager获取数据的方式 --><property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value></property><!-- 关闭虚拟内存检查 --><property><name>yarn.nodemanager.vmem-check-enabled</name><value>false</value></property>
(5)workers文件

删掉里面的localhost,添加以下内容

master slave1 slave2
(3)在master节点的Hadoop安装目录:

下依次创建hadoopDatas/tempDatas 、 hadoopDatas/namenodeDatas 、hadoopDatas/datanodeDatas、hadoopDatas/dfs/nn/edits、hadoopDatas/dfs/snn/name 和hadoopDatas/dfs/nn/snn/edits目录
进入hadoop安装目录下执行下面命令:

mkdir-p hadoopDatas/tempDatasmkdir-p hadoopDatas/namenodeDatasmkdir-p hadoopDatas/datanodeDatasmkdir-p hadoopDatas/dfs/nn/editmkdir-p hadoopDatas/dfs/snn/namemkdir-p hadoopDatas/dfs/nn/snn/edits
(4)在master节点上使用scp命令将配置完的Hadoop安装目录直接拷贝至slave1和slave2
scp-r /root/software/hadooproot@slave1:/root/software/scp-r /root/software/hadoop root@slave2:/root/software/
(5)三台节点的“/etc/profile”文件中配置Hadoop环境变量HADOOP_HOME和PATH的值,并让配置文件立即生效;
vi/etc/profileexportHADOOP_HOME=/root/software/hadoop-3.2.1exportPATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbinsource/etc/profile

生效之后可以在每一个节点上查看hadoop的安装版本:

(6)在主节点格式化集群
hdfs namenode -format

(7)在主节点依次启动HDFS、YARN集群和历史服务
# 在master节点上进行start-all.sh mapred --daemon start historyserver(mr-jobhistory-daemon.sh start historyserver)

jps是查看进程的命令
在master节点上输入jps
在slave1节点上输入jps


在slave2节点上输入jps

补充说明——各组件 Web UI 访问方式(核心)

  1. HDFS Web UI(文件系统监控)
    默认端口:Hadoop 3.x 为9870(Hadoop 2.x 为50070,需注意版本差异);
    访问地址:http://主节点主机名/IP:9870(例:http://master:9870、http://192.168.1.100:9870);
    核心查看内容:
    左侧「Browse the file system」:查看 HDFS 文件目录;
    「Datanodes」:查看从节点 DataNode 是否正常在线;
    「Overview」:查看 HDFS 容量、已用空间等状态(验证 HDFS 集群正常)。
  2. YARN Web UI(资源调度监控)
    默认端口:8088(3.x/2.x 通用);
    访问地址:http://主节点主机名/IP:8088(例:http://master:8088);
    核心查看内容:
    「Cluster Overview」:查看集群总内存、CPU 核数、NodeManager 数量(验证 YARN 集群正常);
    「Applications」:查看已提交 / 运行 / 完成的 MapReduce/Spark 任务(大赛中提交 WordCount 后可在此验证任务状态);
    「Nodes」:查看从节点 NodeManager 是否在线。


3. MapReduce 历史服务 Web UI(任务日志查看)
默认端口:19888(3.x/2.x 通用);
访问地址:http://主节点主机名/IP:19888(例:http://master:19888);
核心查看内容:
「Completed Applications」:查看已完成的 MapReduce 任务详情、日志(大赛中评委重点检查项,验证任务可追溯);
「Job History Configuration」:查看历史服务配置是否正常。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/28 1:00:30

《精通 Python 设计模式:从入门理解到实战落地》

《精通 Python 设计模式&#xff1a;从入门理解到实战落地》“设计模式不是银弹&#xff0c;但它是你代码世界的地图。”——写给每一位渴望写出优雅、可维护代码的 Python 开发者一、引言&#xff1a;为什么 Python 程序员也需要设计模式&#xff1f; 在 Python 这样一门灵活、…

作者头像 李华
网站建设 2026/2/17 1:11:23

《Python 工厂模式全解析:从设计理念到实战落地》

《Python 工厂模式全解析&#xff1a;从设计理念到实战落地》“当你不想在代码中写死类名时&#xff0c;工厂模式就是你的朋友。”——写给每一位追求灵活架构与可扩展性的 Python 开发者一、引言&#xff1a;对象创建的隐性复杂性 在软件开发中&#xff0c;“创建对象”看似简…

作者头像 李华
网站建设 2026/2/26 18:03:21

IndexTTS2语音合成完整指南:零基础实现情感可控AI语音生成

IndexTTS2语音合成完整指南&#xff1a;零基础实现情感可控AI语音生成 【免费下载链接】index-tts An Industrial-Level Controllable and Efficient Zero-Shot Text-To-Speech System 项目地址: https://gitcode.com/gh_mirrors/in/index-tts IndexTTS2作为新一代工业级…

作者头像 李华
网站建设 2026/2/26 5:04:08

PyEMD与NumPy 2.0兼容性问题全面解析及解决方案

PyEMD与NumPy 2.0兼容性问题全面解析及解决方案 【免费下载链接】PyEMD Python implementation of Empirical Mode Decompoisition (EMD) method 项目地址: https://gitcode.com/gh_mirrors/py/PyEMD 问题背景 PyEMD作为经验模态分解及其变体方法的Python实现&#xff…

作者头像 李华
网站建设 2026/2/2 0:14:25

23、WCF异常处理与工作流服务集成详解

WCF异常处理与工作流服务集成详解 在开发基于WCF(Windows Communication Foundation)的应用程序时,异常处理和工作流服务集成是两个关键的方面。下面将详细介绍相关的技术要点和操作步骤。 1. WCF异常处理 1.1 基础异常处理 在WCF中,使用 FaultException 类可以有效避…

作者头像 李华
网站建设 2026/2/28 6:20:57

25、Windows Workflow Foundation (WF)与WCF集成:服务托管、持久化与访问控制

Windows Workflow Foundation (WF)与WCF集成:服务托管、持久化与访问控制 1. 在IIS中托管支持工作流的服务 在IIS中托管支持工作流的服务与托管其他服务的过程基本相同。以下是具体步骤: 1. 创建一个IIS应用程序。 2. 准备一个SVC文件,该文件描述了如何实例化服务。 3.…

作者头像 李华