天天看點

Hadoop叢集日常運維

(一)備份namenode的中繼資料

namenode中的中繼資料非常重要,如丢失或者損壞,則整個系統無法使用。是以應該經常對中繼資料進行備份,最好是異地備份。

1、将中繼資料複制到遠端站點

(1)以下代碼将secondary namenode中的中繼資料複制到一個時間命名的目錄下,然後通過scp指令遠端發送到其它機器

#!/bin/bash

export dirname=/mnt/tmphadoop/dfs/namesecondary/current/`date +%y%m%d%H`

if [ ! -d ${dirname} ]

then

mkdir  ${dirname}

cp /mnt/tmphadoop/dfs/namesecondary/current/*  ${dirname}

fi

scp -r ${dirname} slave1:/mnt/namenode_backup/

rm -r ${dirname}

(2)配置crontab,定時執行此項工作

0 0,8,14,20 * * * bash /mnt/scripts/namenode_backup_script.sh

2、在遠端站點中啟動一個本地namenode守護程序,嘗試加載這些備份檔案,以确定是否已經進行了正确備份。

(二)資料備份

對于重要的資料,不能完全依賴HDFS,而是需要進行備份,注意以下幾點

(1)盡量異地備份

(2)如果使用distcp備份至另一個hdfs叢集,則不要使用同一版本的hadoop,避免hadoop自身導緻資料出錯。

(三)檔案系統檢查

定期在整個檔案系統上運作HDFS的fsck工具,主動查找丢失或者損壞的塊。

建議每天執行一次。

[jediael@master ~]$ hadoop fsck /

……省略輸出(若有錯誤,則在此外出現,否則隻會出現點,一個點表示一個檔案)……

.........Status: HEALTHY

 Total size:    14466494870 B

 Total dirs:    502

 Total files:   1592 (Files currently being written: 2)

 Total blocks (validated):      1725 (avg. block size 8386373 B)

 Minimally replicated blocks:   1725 (100.0 %)

 Over-replicated blocks:        0 (0.0 %)

 Under-replicated blocks:       648 (37.565216 %)

 Mis-replicated blocks:         0 (0.0 %)

 Default replication factor:    2

 Average block replication:     2.0

 Corrupt blocks:                0

 Missing replicas:              760 (22.028986 %)

 Number of data-nodes:          2

 Number of racks:               1

FSCK ended at Sun Mar 01 20:17:57 CST 2015 in 608 milliseconds

The filesystem under path '/' is HEALTHY

(1)若hdfs-site.xml中的dfs.replication設定為3,而實作上隻有2個datanode,則在執行fsck時會出現以下錯誤;

/hbase/Mar0109_webpage/59ad1be6884739c29d0624d1d31a56d9/il/43e6cd4dc61b49e2a57adf0c63921c09:  Under replicated blk_-4711857142889323098_6221. Target Replicas is 3 but found 2 replica(s).

注意,由于原來的dfs.replication為3,後來下線了一台datanode,并将dfs.replication改為2,但原來已建立的檔案也會記錄dfs.replication為3,進而出現以上錯誤,并導緻 Under-replicated blocks:       648 (37.565216 %)。

(2)fsck工具還可以用來檢查一個檔案包括哪些塊,以及這些塊分别在哪等

[jediael@master conf]$ hadoop fsck /hbase/Feb2621_webpage/c23aa183c7cb86af27f15d4c2aee2795/s/30bee5fb620b4cd184412c69f70d24a7 -files -blocks -racks

FSCK started by jediael from /10.171.29.191 for path /hbase/Feb2621_webpage/c23aa183c7cb86af27f15d4c2aee2795/s/30bee5fb620b4cd184412c69f70d24a7 at Sun Mar 01 20:39:35 CST 2015

/hbase/Feb2621_webpage/c23aa183c7cb86af27f15d4c2aee2795/s/30bee5fb620b4cd184412c69f70d24a7 21507169 bytes, 1 block(s):  Under replicated blk_7117944555454804881_3655. Target Replicas is 3 but found 2 replica(s).

0. blk_7117944555454804881_3655 len=21507169 repl=2 [/default-rack/10.171.94.155:50010, /default-rack/10.251.0.197:50010]

Status: HEALTHY

 Total size:    21507169 B

 Total dirs:    0

 Total files:   1

 Total blocks (validated):      1 (avg. block size 21507169 B)

 Minimally replicated blocks:   1 (100.0 %)

 Under-replicated blocks:       1 (100.0 %)

 Missing replicas:              1 (50.0 %)

FSCK ended at Sun Mar 01 20:39:35 CST 2015 in 0 milliseconds

The filesystem under path '/hbase/Feb2621_webpage/c23aa183c7cb86af27f15d4c2aee2795/s/30bee5fb620b4cd184412c69f70d24a7' is HEALTHY

此指令的用法如下:

[jediael@master ~]$ hadoop fsck -files

Usage: DFSck <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]

        <path>  start checking from this path

        -move   move corrupted files to /lost+found

        -delete delete corrupted files

        -files  print out files being checked

        -openforwrite   print out files opened for write

        -blocks print out block report

        -locations      print out locations for every block

        -racks  print out network topology for data-node locations

                By default fsck ignores files opened for write, use -openforwrite to report such files. They are usually  tagged CORRUPT or HEALTHY depending on their block allocation status

Generic options supported are

-conf <configuration file>     specify an application configuration file

-D <property=value>            use value for given property

-fs <local|namenode:port>      specify a namenode

-jt <local|jobtracker:port>    specify a job tracker

-files <comma separated list of files>    specify comma separated files to be copied to the map reduce cluster

-libjars <comma separated list of jars>    specify comma separated jar files to include in the classpath.

-archives <comma separated list of archives>    specify comma separated archives to be unarchived on the compute machines.

The general command line syntax is

bin/hadoop command [genericOptions] [commandOptions]

詳細解釋請見《hadoop權威指南》P376

(四)均衡器

随時時間推移,各個datanode上的塊分布來越來越不均衡,這将降低MR的本地性,導緻部分datanode相對更加繁忙。

均衡器是一個hadoop守護程序,它将塊從忙碌的DN移動相對空閑的DN,同時堅持塊複本放置政策,将複本分散到不同的機器、機架。

建議定期執行均衡器,如每天或者每周。

(1)通過以下指令運作均衡器

[jediael@master log]$ start-balancer.sh  

starting balancer, logging to /var/log/hadoop/hadoop-jediael-balancer-master.out  

檢視日志如下:

[jediael@master hadoop]$ pwd  

/var/log/hadoop  

[jediael@master hadoop]$ ls  

hadoop-jediael-balancer-master.log  hadoop-jediael-balancer-master.out  

[jediael@master hadoop]$ cat hadoop-jediael-balancer-master.log  

2015-03-01 21:08:08,027 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/10.251.0.197:50010  

2015-03-01 21:08:08,028 INFO org.apache.hadoop.net.NetworkTopology: Adding a new node: /default-rack/10.171.94.155:50010  

2015-03-01 21:08:08,028 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: 0 over utilized nodes:  

2015-03-01 21:08:08,028 INFO org.apache.hadoop.hdfs.server.balancer.Balancer: 0 under utilized nodes:  

(2)均衡器将每個DN的使用率與整個叢集的使用率接近,這個“接近”是通過-threashold參數指定的,預設是10%。

(3)不同節點之間複制資料的帶寬是受限的,預設是1MB/s,可以通過hdfs-site.xml檔案中的dfs.balance.bandwithPerSec屬性指定(機關是位元組)。

(五)datanode塊掃描器

每個datanode均會運作一個塊掃描器,定期檢測本節點上的所有塊,若發現存在錯誤(如檢驗和錯誤),則通知namenode,然後由namenode發起資料重新建立複本或者修複。

掃描周期由dfs.datanode.scan.period.hours指定,預設為三周(504小時)。

通過位址以下位址檢視掃描資訊:

(1)http://datanote:50075/blockScannerReport

列出總體的檢測情況

Total Blocks                 :   1919  

Verified in last hour        :      4  

Verified in last day         :    170  

Verified in last week        :    535  

Verified in last four weeks  :    535  

Verified in SCAN_PERIOD      :    535  

Not yet verified             :   1384  

Verified since restart       :    559  

Scans since restart          :     91  

Scan errors since restart    :      0  

Transient scan errors        :      0  

Current scan rate limit KBps :   1024  

Progress this period         :    113%  

Time left in cur period      :  97.14%  

(2)http://123.56.92.95:50075/blockScannerReport?listblocks

列出所有的塊及最新驗證狀态

blk_8482244195562050998_3796 : status : ok     type : none   scan time : 0               not yet verified

blk_3985450615149803606_7952 : status : ok     type : none   scan time : 0               not yet verified

尚未驗證的情況如上。各字段意義可參考權威指南P379

本文轉自 yntmdr 51CTO部落格,原文連結:http://blog.51cto.com/yntmdr/1733757,如需轉載請自行聯系原作者