天天看點

Hadoop叢集所有或者部分的DataNode啟動不了的解決方案

原因可能是多次Hadoop namenode -format導緻clusterID不一緻,具體可以在失敗的.log檔案中看到兩個clusterID不一緻,在這就先說具體解決方法

(1)先去hadoop路徑下的配置檔案hdfs-site.xml可知dfs.namenode.name.dir的位址和dfs.datanode.data.dir的位址

<!--hdfs的中繼資料存儲位置-->

<property>

<name>dfs.namenode.name.dir</name>

<value>/home/hadoopdata/dfs/name</value>

</property>

<!--hdfs的資料存儲位置-->

<property>

<name>dfs.datanode.data.dir</name>

<value>/home/hadoopdata/dfs/data</value>

</property>

(2)從/home/hadoopdata/dfs/name/current/VERSION 獲得clusterID

修改到

/home/hadoopdata/dfs/data/current/VERSION

隻在datanode不法啟動的伺服器節點修改即可,能正常啟動的不用修改

(3)修改完以後,重新運作datanode

[[email protected] current]# hadoop-daemon.sh start datanode

[[email protected] current]# jps

8581 DataNode

看到DataNode,說明已經跑起來了。

                                                                                       --衣龍川

繼續閱讀