天天看點

讓你秒懂hadoop各元件

經常在提到大資料處理架構hadoop,但大家對各元件的用途還是很迷糊,在給客戶講方案時覺得hadoop很高深。其實沒有這麼難,今天我們來簡述一下用途。通過本短文的查閱,至少你知道元件的作用、他所處的層次。

讓你秒懂hadoop各元件

1、Hadoop是Apache公司的大資料處理套件,是所有大資料元件的總稱。目前Hadoop已從1.0發展至2.0時代。

2、HDFS把所有廉價的pc伺服器組成了一個超級大硬碟,且通過多副本保證了資料安全。

3、MapReduce用于把一個超級大的資料檔案分解至不同的廉價pc伺服器進行處理,并最終傳回資料處理結果。

4、Yarn用于優化mapreduce的處理架構,是一個資源排程元件,讓mapreduce處理更加穩健、高效。

5、Zookeeper是一個協調元件,很多元件都依賴于它的運作。如選擇HA上司、實作Mysql的高可用。它相當于是一個上司角色,負責協調資源的高可用運作。

6、Sqoop是一個ETL工具,負責各類資料庫(Mysql等)與hadoop存儲之間的互相倒換。

7、Hive是一個mapreduce之上的神器,你通過sql指令就可以代替mapreduce的程式設計。

8、Spark是MapReduce的更新替換元件,基于記憶體計算,資料處理速度提高10-100倍。

9、Kafka是一個隊列工具,資料、消息的排隊全靠它,有了它的幫助,資料的堵塞問題不再是個事。

10、Flume是一個前端日志采用工具,部署在web等前端伺服器,将日志資料源源不斷進行采集。

11、HBase是資料的海量存儲倉庫,是一個Nosql資料庫,可以保障資料的海量存儲。

12、Pig是另一個簡化版的Mapreduce上層處理工具,通過簡單的腳本即可生成Mapreduce程式進行快速的資料處理。