hadoop伺服器更換硬碟操作步驟(datanode hadoop目錄${HADOOP_HOME}/bin 日志位置:/var/log/hadoop)
1.登陸伺服器,切換到mapred使用者,執行jps指令,檢視是否有TaskTracker程序。如果有,執行hadoop-daemon.sh stop tasktracker,停止TaskTracker程序。
2.切換到hdfs使用者,執行jps指令,檢視是否有DataNode程序。如果有,執行hadoop-daemon.sh stop datanode,停止DataNode程序。
3.解除安裝硬碟umount /dataX.
4.格式化新硬碟成ext4格式(分區/fdisk或者parted格式化)
fdisk -l /dev/sdX
n
p
默然選擇1分區.其他的都保持預設
最後w,儲存
格式化為ext4: mkfs.ext4 /dev/sdX1
挂載:mount /dev/sdX1 /dataX
然後blkid /dev/sdX1 把擷取到的UUID替換對應的壞掉的硬碟的UUID,位置(/etc/fstab)
5.建立DataNode,TaskTracker使用目錄。mkdir -p /dataX/dfs; mkdir -p /dataX/mapred; mkdir -p /dataX/tmp; (或者直接cd /dataX; mkdir {dfs,mapred,tmp} )
7.切換到hdfs使用者,執行hadoop-daemon.sh start datanode,啟動DataNode程序。
8.切換到mapred使用者,執行hadoop-daemon.sh start tasktracker,啟動TaskTracker程序。
9.檢視啟動日志,觀察一段時間判斷服務是否正常。