天天看点

Hadoop集群所有或者部分的DataNode启动不了的解决方案

原因可能是多次Hadoop namenode -format导致clusterID不一致,具体可以在失败的.log文件中看到两个clusterID不一致,在这就先说具体解决方法

(1)先去hadoop路径下的配置文件hdfs-site.xml可知dfs.namenode.name.dir的地址和dfs.datanode.data.dir的地址

<!--hdfs的元数据存储位置-->

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/hadoopdata/dfs/name</value>

</property>

<!--hdfs的数据存储位置-->

<property>

<name>dfs.datanode.data.dir</name>

<value>/home/hadoopdata/dfs/data</value>

</property>

(2)从/home/hadoopdata/dfs/name/current/VERSION 获得clusterID

修改到

/home/hadoopdata/dfs/data/current/VERSION

只在datanode不法启动的服务器节点修改即可,能正常启动的不用修改

(3)修改完以后,重新运行datanode

[[email protected] current]# hadoop-daemon.sh start datanode

[[email protected] current]# jps

8581 DataNode

看到DataNode,说明已经跑起来了。

                                                                                       --衣龙川

继续阅读