天天看點

<!DOCTYPE html PUBLIC "-//W3C//DTD XHTML 1.0 Transitional//EN" "http://www.w3.org/TR/xhtml1/DTD/xhtml1-strict.dtd"> <html><head><meta http-equiv="Cont

hadoop伺服器更換硬碟操作步驟(datanode hadoop目錄${HADOOP_HOME}/bin    日志位置:/var/log/hadoop)

1.登陸伺服器,切換到mapred使用者,執行jps指令,檢視是否有TaskTracker程序。如果有,執行hadoop-daemon.sh stop tasktracker,停止TaskTracker程序。

2.切換到hdfs使用者,執行jps指令,檢視是否有DataNode程序。如果有,執行hadoop-daemon.sh stop datanode,停止DataNode程序。

3.解除安裝硬碟umount /dataX.

4.格式化新硬碟成ext4格式(分區/fdisk或者parted格式化)

fdisk -l /dev/sdX

n

p

默然選擇1分區.其他的都保持預設

最後w,儲存

格式化為ext4: mkfs.ext4 /dev/sdX1

挂載:mount /dev/sdX1 /dataX

然後blkid /dev/sdX1  把擷取到的UUID替換對應的壞掉的硬碟的UUID,位置(/etc/fstab)

5.建立DataNode,TaskTracker使用目錄。mkdir -p /dataX/dfs; mkdir -p /dataX/mapred;   mkdir -p /dataX/tmp;  (或者直接cd /dataX; mkdir {dfs,mapred,tmp} )

7.切換到hdfs使用者,執行hadoop-daemon.sh start datanode,啟動DataNode程序。

8.切換到mapred使用者,執行hadoop-daemon.sh start tasktracker,啟動TaskTracker程序。

9.檢視啟動日志,觀察一段時間判斷服務是否正常。