天天看點

Hadoop叢集HDFS、YARN高可用HA詳細配置步驟說明,附Zookeeper搭建詳細步驟【建議收藏!!!】一、ZooKeeper搭建二、HDFS的高可用HA的詳細配置三、YARN高可用HA搭建

💜🧡💛制作不易,各位大佬們給點鼓勵!

🧡💛💚點贊👍 ➕ 收藏⭐ ➕ 關注✅

💛💚💙歡迎各位大佬指教,一鍵三連走起!

一、ZooKeeper搭建

1、上傳安裝包到master并解壓

tar -xvf zookeeper-3.4.6.tar.gz
           

2、配置環境變量

vim /etc/profile
           

修改添加配置資訊,儲存并退出

export ZOOKEEPER_HOME=/usr/local/soft/zookeeper-3.4.6
export PATH=$PATH:$ZOOKEEPER_HOME/bin
           

重新整理配置:

source /etc/profile
           

3、修改zk的配置檔案

進入zk的配置檔案目錄,在zk的home目錄下/usr/local/soft/zookeeper/zookeeper-3.4.6/

cd /usr/local/soft/zookeeper/zookeeper-3.4.6/conf
           

重命名配置檔案

cp  zoo_sample.cfg zoo.cfg
           

修改配置檔案中資訊

并添加下面配置資訊

server.0=master:2888:3888
server.1=node1:2888:3888
server.2=node2:2888:3888
           

4、建立data目錄

進入zk的home目錄

cd /usr/local/soft/zookeeper-3.4.6
           

建立data目錄

進入data目錄

建立檔案myid

touch myid
           

5、同步zk的home到其它節點

scp -r zookeeper-3.4.6 node1:`pwd`
           
scp -r zookeeper-3.4.6 node2:`pwd`
           

配置node1和node2的環境變量,同上面步驟

在所有節點執行

source /etc/profile
           

6、編輯/usr/local/soft/zookeeper-3.4.6/data/myid

在master,node1,node2三台機器的myid檔案分别加上0,1,2
注意:隻要加上數字就可,例如:master的myid中寫入0
           

7、啟動zk,

zkServer.sh start  三台都需要執行
           
zkServer.sh status 檢視狀态
           
通過jps可以檢視zk的程序:QuorumPeerMain
           
當有一個leader的時候啟動成功
           

停止zk的方法:

zkServer.sh stop  三台都需要執行
           

8、連接配接zk

zkCli.sh
           
zk  是一個目錄結構 ,每個節點可以存資料,同時可以有子節點
           

9.zk的常用shell指令

建立目錄
create /test testData
create /test/a aData


擷取資料
get /test

ls /test

delete 隻能删除沒有子節點的節點
rmr /test  删除節點
           

10.重置zk

1、殺掉所有zk程序
kiil -9 pid

2、删除data目錄下的version檔案, 所有節點都要删除
rm -rf /usr/local/soft/zookeeper-3.4.6/data/version-2

2、啟動zk
zkServer.sh start
           

二、HDFS的高可用HA的詳細配置

高可用配置各個節點上的程序配置如下:

ZK	NN	DN	RM	NM	JN	ZKFC
master	1	1		1		1	1
node1	1	1	1	1	1	1	1
node2	1		1		1	1
           

HA詳細配置步驟

1、防火牆

2、設定機器時間同步

yum install ntp
           
ntpdate -u s2c.time.edu.cn
           
或者使用:
date -s 20180503
           

3、免密鑰 (遠端執行指令)

在兩個主節點生成密鑰檔案

ssh-keygen -t rsa
           

遠端複制到各個節點

ssh-copy-id 各個節點ip
           

分别從master和node1上複制到三台機器如下

master-->master,node1,node2
node1-->master,node1,node2
           

4、修改hadoop配置檔案

進入hadoo的home中的etc/hadoop/目錄

/usr/local/soft/hadoop-2.7.6/etc/hadoop/

目錄下

core-site.xml

<configuration>
	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://cluster</value>
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
		<value>/usr/local/soft/hadoop-2.7.6/tmp</value>
	</property>
	<property>
		<name>fs.trash.interval</name>
		<value>1440</value>
	</property>
	<property>
	      <name>ha.zookeeper.quorum</name>
	      <value>master:2181,node1:2181,node2:2181</value>
	</property>
</configuration>
           

hdfs-site.xml

<configuration>
<!-- 指定hdfs中繼資料存儲的路徑 -->
<property>
<name>dfs.namenode.name.dir</name>
<value>/usr/local/soft/hadoop-2.7.6/data/namenode</value>
</property>

<!-- 指定hdfs資料存儲的路徑 -->
<property>
<name>dfs.datanode.data.dir</name>
<value>/usr/local/soft/hadoop-2.7.6/data/datanode</value>
</property>

<!-- 資料備份的個數 -->
<property>
<name>dfs.replication</name>
<value>1</value>
</property>

<!-- 關閉權限驗證 -->
<property>
<name>dfs.permissions.enabled</name>
<value>false</value>
</property>

<!-- 開啟WebHDFS功能(基于REST的接口服務) -->
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>

<!-- //////////////以下為HDFS HA的配置////////////// -->
<!-- 指定hdfs的nameservices名稱為mycluster -->
<property>
<name>dfs.nameservices</name>
<value>cluster</value>
</property>

<!-- 指定cluster的兩個namenode的名稱分别為nn1,nn2 -->
<property>
<name>dfs.ha.namenodes.cluster</name>
<value>nn1,nn2</value>
</property>

<!-- 配置nn1,nn2的rpc通信端口 -->
<property>
<name>dfs.namenode.rpc-address.cluster.nn1</name>
<value>master:8020</value>
</property>
<property>
<name>dfs.namenode.rpc-address.cluster.nn2</name>
<value>node1:8020</value>
</property>

<!-- 配置nn1,nn2的http通信端口 -->
<property>
<name>dfs.namenode.http-address.cluster.nn1</name>
<value>master:50070</value>
</property>
<property>
<name>dfs.namenode.http-address.cluster.nn2</name>
<value>node1:50070</value>
</property>

<!-- 指定namenode中繼資料存儲在journalnode中的路徑 -->
<property>
<name>dfs.namenode.shared.edits.dir</name>
<value>qjournal://master:8485;node1:8485;node2:8485/cluster</value>
</property>

<!-- 指定journalnode日志檔案存儲的路徑 -->
<property>
<name>dfs.journalnode.edits.dir</name>
<value>/usr/local/soft/hadoop-2.7.6/data/journal</value>
</property>

<!-- 指定HDFS用戶端連接配接active namenode的java類 -->
<property>
<name>dfs.client.failover.proxy.provider.cluster</name>
<value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
</property>

<!-- 配置隔離機制為ssh -->
<property>
<name>dfs.ha.fencing.methods</name>
<value>
sshfence
shell(/bin/true)
</value>
</property>

<!-- 指定秘鑰的位置 -->
<property>
<name>dfs.ha.fencing.ssh.private-key-files</name>
<value>/root/.ssh/id_rsa</value>
</property>

<!-- 開啟自動故障轉移 -->
<property>  
<name>dfs.ha.automatic-failover.enabled</name>
<value>true</value>
</property>
</configuration>
           

停止HDFS叢集:

stop-dfs.sh

将修改的hadoop配置資訊,同步到其它節點node1,noded2

cd /usr/local/soft/hadoop-2.7.6/etc/hadoop  #進入該目錄下,scp到各節點
scp ./* node1:`pwd` 
scp ./* node2:`pwd`
           

5、删除hadoop資料存儲目錄下的檔案 每個節點都需要删除

rm -rf /usr/local/soft/hadoop-2.7.6/tmp
           

6、啟動zookeeper 三台都需要啟動

zkServer.sh status
           

7、啟動JN 存儲hdfs中繼資料

三台JN上執行 啟動指令:

進入hadoop的sbin目錄執行hadoop-daemon.sh

/usr/local/soft/hadoop-2.7.6/sbin/hadoop-daemon.sh start journalnode
           

8、格式化 在一台NN上執行,這裡選擇master

hdfs namenode -format
           
啟動目前的NN
  hadoop-daemon.sh start namenode
           

9、執行同步 沒有格式化的NN上執行 在另外一個namenode上面執行 這裡選擇node1

/usr/local/soft/hadoop-2.7.6/bin/hdfs namenode -bootstrapStandby
           

10、格式化ZK 在master上面執行

注意!!一定要先 把zk叢集正常 啟動起來
  /usr/local/soft/hadoop-2.7.6/bin/hdfs zkfc -formatZK
           

11、啟動hdfs叢集,在master上執行

start-dfs.sh
           

三、YARN高可用HA搭建

1、修改配置檔案

yarn-site.xml

<configuration>
<!-- NodeManager上運作的附屬服務,需配置成mapreduce_shuffle才可運作MapReduce程式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>

<!-- 開啟日志 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>

<!-- 配置日志删除時間為7天,-1為禁用,機關為秒 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>


<!-- //////////////以下為YARN HA的配置////////////// -->
<!-- 開啟YARN HA -->
<property>
<name>yarn.resourcemanager.ha.enabled</name>
<value>true</value>
</property>

<!-- 啟用自動故障轉移 -->
<property>
<name>yarn.resourcemanager.ha.automatic-failover.enabled</name>
<value>true</value>
</property>

<!-- 指定YARN HA的名稱 -->
<property>
<name>yarn.resourcemanager.cluster-id</name>
<value>yarncluster</value>
</property>

<!-- 指定兩個resourcemanager的名稱 -->
<property>
<name>yarn.resourcemanager.ha.rm-ids</name>
<value>rm1,rm2</value>
</property>

<!-- 配置rm1,rm2的主機 -->
<property>
<name>yarn.resourcemanager.hostname.rm1</name>
<value>master</value>
</property>
<property>
<name>yarn.resourcemanager.hostname.rm2</name>
<value>node1</value>
</property>

<!-- 配置YARN的http端口 -->
<property>
<name>yarn.resourcemanager.webapp.address.rm1</name>
<value>master:8088</value>
</property>	
<property>
<name>yarn.resourcemanager.webapp.address.rm2</name>
<value>node1:8088</value>
</property>

<!-- 配置zookeeper的位址 -->
<property>
<name>yarn.resourcemanager.zk-address</name>
<value>master:2181,node1:2181,node2:2181</value>
</property>

<!-- 配置zookeeper的存儲位置 -->
<property>
<name>yarn.resourcemanager.zk-state-store.parent-path</name>
<value>/rmstore</value>
</property>

<!-- 開啟yarn resourcemanager restart -->
<property>
<name>yarn.resourcemanager.recovery.enabled</name>
<value>true</value>
</property>

<!-- 配置resourcemanager的狀态存儲到zookeeper中 -->
<property>
<name>yarn.resourcemanager.store.class</name>
<value>org.apache.hadoop.yarn.server.resourcemanager.recovery.ZKRMStateStore</value>
</property>

<!-- 開啟yarn nodemanager restart -->
<property>
<name>yarn.nodemanager.recovery.enabled</name>
<value>true</value>
</property>

<!-- 配置nodemanager IPC的通信端口 -->
<property>
<name>yarn.nodemanager.address</name>
<value>0.0.0.0:45454</value>
</property>
</configuration>
           

停止yarn叢集:

stop-yarn.sh

修改的配置資訊,同步到其它節點

cd /usr/local/soft/hadoop-2.7.6/etc/hadoop
scp ./* node1:`pwd`
scp ./* node2:`pwd`
           

2、啟動yarn 在master啟動

start-yarn.sh
           

3、在node1上啟動另一個RM

/usr/local/soft/hadoop-2.7.6/sbin/yarn-daemon.sh start resourcemanager
           

最後可以進入到web頁面檢視

master:8088
node1:8088
           

繼續閱讀