天天看點

Hadoop源碼分類概要整理

  最近突然覺得, 很多掌握的都還是很淺的原理,需要更深入細粒度去了解整個分布式系統的運轉機制。于是。。開始作死而又作死而又作死的源碼之旅。

  Hadoop包的功能總共有下列幾類:

  tool:提供一些指令行工具,如DistCp,archive

  mapreduce,:Hadoop的Map/Reduce實作

  filecache:提供HDFS檔案的本地緩存,用于加快Map/Reduce的資料通路速度

  fs:檔案系統的抽象,可以了解為支援多種檔案系統實作的統一檔案通路接口

  hdfs:HDFS,Hadoop的分布式檔案系統實作

  ipc:一個簡單的IPC的實作,依賴于IO提供的編解碼功能

  io:表示層,将各種資料編碼/解碼,友善在網絡上的傳輸

  net:封裝部分網絡功能,如DNS,socket

  security:使用者和使用者組資訊

  conf:系統的配置參數

  metrics:系統攻擊資料的收集,用于網管範疇

  util:工具類

  record:根據DDL自動生成他們的編碼函數,目前可以提供C++和java

  http:基于Jetty的HTTP Servlet,使用者通過浏覽器可以觀察檔案系統的一些狀态資訊和日志

  log:提供HTTP通路日志的HTTP Servlet

一、RPC

  它是一種通過網絡從遠端計算機程式上請求服務,而不需要了解底層網絡技術的協定。RPC協定假定某些傳輸協定的存在,如TCP或UDP,為通信程式之間攜帶資訊資料。

    RPC采用客戶機/伺服器模式,請求程式就是一個客戶機,而服務提供程式就是一個伺服器。例如HDFS的通信就包括:

  1、Client-NameNode之間,其中NameNode是伺服器。

  2、Client-DataNode之間,其中DataNode是伺服器。

  3、DataNode-NameNode之間,其中NameNode是伺服器。

  4、DataNode-DataNode之間,其中某一個DataNode是伺服器,另一個是用戶端。

  org.apache.hadoop.rpc中包含Client類和Server類。Server類是一個抽象類,類RPC封裝了Server,利用反射,把某個對象的方法開放出來,變成RPC中的伺服器。

二、DataNode與NameNode

  一個HDFS叢集可能包含上千DataNode節點,這些DataNode定時與NameNode通信,為了減輕NameNode的負擔,NameNode上并不永久儲存DataNode上那些資料塊資訊,而是通過DataNode啟動時上報,來更新NameNode上的映射表。

        相關包:org.apache.hadoop.hdfs.server.common、org.apache.hadoop.hdfs.server.datanode...

  所有和資料塊相關的操作,都在FSDataset相關的類中進行處理,一個DataNode上可以指定多個Storage來存儲資料塊,由于HDFS規定了一個目錄能存放Block的數目,是以一個storage上存在多個目錄。對應的,FSDataset中用FSVolume來對應一個Storage,FSDir對應一個目錄,所有的FSVolume由FSVolumeSet管理,FSDataset中通過一個FSVolumeSet對象,就可以管理它的所有存儲空間。

       相關包:org.apache.hadoop.hdfs.server.dataNode.fsDataSet

  NameNode作為系統檔案目錄的管理者,DataNode關注的是資料塊,NameNode儲存的主要資訊是檔案名-資料塊,資料塊-DataNode清單。 DataNode實作了InterDatanodeProtocol和ClientDatanodeProtocol,剩下的,由NameNode實作。

  相關包:org.apache.hadoop.hdfs.server.protocol、org.apache.hadoop.hdfs.protocol、org.apache.hadoop.hdfs.server.namenode   (重點FSNamesystem.java)

三、MapReduce

     相關包:org.apache.hadoop.mapreduce.JobContext、org.apache.hadoop.mapreduce、org.apache.hadoop.mapreduce.lib.*(包含inputFomat等..)

  這些還是很小的一部分,但是一點一點深入好了~