搭建hadoop集群初次格式化namenode时不小心格式化了多次,主节点namenode或者从节点datanode进程不能启动,怎么办? 您所在的位置:网站首页 hadoop启动命令没有Datanode怎么办 搭建hadoop集群初次格式化namenode时不小心格式化了多次,主节点namenode或者从节点datanode进程不能启动,怎么办?

搭建hadoop集群初次格式化namenode时不小心格式化了多次,主节点namenode或者从节点datanode进程不能启动,怎么办?

2024-03-06 07:23| 来源: 网络整理| 查看: 265

我们在搭建完hadoop集群时,初次启动HDFS集群,需要对主节点进行格式化操作,其本质是清理和做一些准备工作,因为此时的HDFS在物理上还是存在的。而且主节点格式化操作只能进行一次。 那我们在格式化时,不小心格式化多次,就会导致主从节点之间互相不识别。然后导致启动hadoop集群时,主节点的namenode进程可能不会启动或者从节点的datanode可能不会启动。 在这里插入图片描述

这里给出一种解决方法: 我们在配置hadoop的配置文件core-site.xml时,其中有一组参数hadoop.tmp.dir,它的值指定的是配置hadoop的临时目录 在这里插入图片描述 我们把tmp目录删除,再重新格式化即可。 先进入/export/servers/hadoop/文件目录 ,然后执行命令rm -rf tmp(每台机器都要删除tmp目录) 在这里插入图片描述 再执行命令hdfs namenode -format(此步只需要在主节点上执行) 出现“successfully formatted”则说明格式化成功。 在这里插入图片描述 此时在主节点上执行命令start-all.sh脚本一件启动集群 在这里插入图片描述 再在三台节点上分别输入命令jps查看进程,主节点master上有ResourceManager,NameNode,DataNode以及NodeManager四个进程;从节点slave1上有NodeManager,SecondaryNameNode以及DataNode三个 进程;从节点slave2上有DataNode以及NodeManager两个进程,则说明集群启动正常,如下图分别为主节点master的进程情况,从节点slave1的进程情况,从节点slave2的进程情况 主节点master 从节点slave1 从节点slave2 以上就是整个过程!!!



【本文地址】

公司简介

联系我们

今日新闻

    推荐新闻

    专题文章
      CopyRight 2018-2019 实验室设备网 版权所有