天天看點

Hadoop_sbin概述

1.Hadoop/sbin下服務程序管理指令說明

Hadoop_sbin概述

1、sbin/start-all.sh 啟動所有的Hadoop守護程序。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager

2、sbin/stop-all.sh 停止所有的Hadoop守護程序。包括NameNode、 Secondary NameNode、DataNode、ResourceManager、NodeManager

3、sbin/start-dfs.sh 一鍵啟動Hadoop HDFS守護程序NameNode、SecondaryNameNode、DataNode

4、sbin/stop-dfs.sh 一鍵停止Hadoop HDFS守護程序NameNode、SecondaryNameNode和DataNode

5、sbin/hadoop-daemons.sh start namenode 單獨啟動所有節點NameNode守護程序

6、sbin/hadoop-daemons.sh stop namenode 單獨停止所有節點NameNode守護程序

7、sbin/hadoop-daemons.sh start datanode 單獨啟動所有節點DataNode守護程序

8、sbin/hadoop-daemons.sh stop datanode 單獨停止所有節點DataNode守護程序

9、sbin/hadoop-daemon.sh start namenode 單獨啟動某個節點NameNode守護程序

10、sbin/hadoop-daemons.sh start secondarynamenode 單獨啟動SecondaryNameNode守護程序

11、sbin/hadoop-daemons.sh stop secondarynamenode 單獨停止SecondaryNameNode守護程序

12、sbin/start-yarn.sh 啟動ResourceManager、NodeManager

13、sbin/stop-yarn.sh 停止ResourceManager、NodeManager

14、sbin/yarn-daemon.sh start resourcemanager 單獨啟動ResourceManager

15、sbin/yarn-daemons.sh start nodemanager 單獨啟動NodeManager

16、sbin/yarn-daemon.sh stop resourcemanager 單獨停止ResourceManager

17、sbin/yarn-daemons.sh stop nodemanager 單獨停止NodeManager

18、sbin/mr-jobhistory-daemon.sh start historyserver 手動啟動jobhistory

19、sbin/mr-jobhistory-daemon.sh stop historyserver 手動停止jobhistory

2.叢集啟動指令

sbin/start-dfs.sh

sbin/start-yarn.sh

sbin/mr-jobhistory-daemon.sh start historyserver

或者

sbin/start-all.sh

3.檢視web界面的3個端口

1、http://hadoop01:50070/ 檢視hdfs

2、http://hadoop01:8088/cluster 檢視yarn叢集;包括檢視、管理目前MapReduce任務

3、http://hadoop01:19888/jobhistory 檢視曆史完成的任務

4.hadoop/bin下hadoop操作指令總結

Hadoop_sbin概述

5.start-all.sh

echo "This script is Deprecated. Instead use start-dfs.sh and start-yarn.sh"

bin=`dirname "${BASH_SOURCE-$0}"`
bin=`cd "$bin"; pwd`

DEFAULT_LIBEXEC_DIR="$bin"/../libexec
HADOOP_LIBEXEC_DIR=${HADOOP_LIBEXEC_DIR:-$DEFAULT_LIBEXEC_DIR}
. $HADOOP_LIBEXEC_DIR/hadoop-config.sh

# start hdfs daemons if hdfs is present
if [ -f "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh ]; then
  "${HADOOP_HDFS_HOME}"/sbin/start-dfs.sh --config $HADOOP_CONF_DIR
fi

# start yarn daemons if yarn is present
if [ -f "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh ]; then
  "${HADOOP_YARN_HOME}"/sbin/start-yarn.sh --config $HADOOP_CONF_DIR
fi
           

群起。

繼續閱讀