启动hadoop集群,发现只有一个namenode,子节点的namenode未启动

2023-12-13 05:47:10

问题描述

搭建好hadoop集群,然后启动hadoop集群后,发现只有一个datanode,正常应该是3个。
在这里插入图片描述


原因分析:

在配置hadoop时,没有设置hadoop的工作节点文件workers,所以默认是localhost。


解决方案:

需要修改每个节点/opt/module/hadoop/hadoop-3.1.3/etc/hadoop/workers文件的内容。

vim /opt/module/hadoop/hadoop-3.1.3/etc/hadoop/workers

然后添加hadoop集群的节点,如下图:
在这里插入图片描述
再使用scp命令分发到其他两个节点。
点击链接查看scp命令介绍及其使用:linux常用命令-find命令与scp命令详解(超详细)

cd /opt/module/hadoop/hadoop-3.1.3/etc/hadoop
scp workers hadoop102:$pwd
scp workers hadoop103:$pwd

如下图:
在这里插入图片描述
然后重启hadoop集群,namenode变为了三个,如下图:

在这里插入图片描述

文章来源:https://blog.csdn.net/zcs2312852665/article/details/134836504
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。