天天看點

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

前期準備

maven3.3.9+安裝

jdk1.7+jdk安裝

scala安裝

下載下傳

http://spark.apache.org/downloads.html

這裡是下載下傳源碼,根據我們生成的環境自己編譯

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

官網編譯源碼介紹

建立目錄

mkdir /app/spark

cd /app/spark

解壓

tar -zxvf spark-2.2.0.tgz

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

使用dev中的make-distribution.sh指令編譯

cd /app/spark/spark-2.2.0

 ./dev/make-distribution.sh --name 2.9.0 --tgz -Psparkr -Phadoop-2.9 -Phive -Phive-thriftserver -Pmesos -Pyarn -Dhaoop.version=2.9.0

參數介紹

-Dhaoop.version=2.9.0

--name    編譯後spark安裝包的名字

--tgz    以tgz方式壓縮

-Psparkr    編譯出來的spark支援R語言

-Phive    編譯出來的spark支援對hive的操作

 -Phive-thriftserver    編譯出來的spark支援對hive的操作

-Pmesos    編譯出來的spark支援在mesos運作

-Pyarn    編譯出來的spark支援在yarn運作

編譯成功

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

生成的包就在spark源碼的根目錄下

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

生成的名稱可能不一樣。

先要安裝scala

解壓

tar -zxvf spark-2.2.0-bin-2.9.0.tgz

移動

mv spark-2.2.0-bin-2.9.0 /app/spark

配置環境變量

vi ~/.bashrc

export SPARK_HOME=/app/spark/spark-2.2.0-bin-2.9.0

export PATH=:$PATH:$SPARK_HOME/bin

使配置立刻生效

source ~/.bashrc

進入目錄

cd /app/spark/spark-2.2.0-bin-2.9.0/bin

檢驗是否安裝成功

./spark-shell --version

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

 ./spark-shell --master local[2]

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

圖形使用者界面

http://node1:4040/jobs/

【一】基于Ubuntu16.04環境編譯Spark源碼及安裝

繼續閱讀