天天看點

hadoop環境初始化搭建

一、首先把hadoop二進制包和jdk的檔案包download下來,并放置到合适目錄的路徑來解壓(步驟省略)

二、在主機器上的hadoop解壓出來的目錄建立一個目錄是專門放置hdfs的檔案,把解壓好的jdk包傳去從的機器那

三、添加環境變量

設定JDK的環境變量 JAVA_HOME。需要修改配置檔案/etc/profile最後來追加一下内容:

export JAVA_HOME=/usr/local/src/jdk1.6.0_45

#export JRE_HOME=$JAVA_HOME/jre

export PATH=$JAVE_HOME/bin:$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib:$JAVA_HOME/lib

修改完畢後,執行 source /etc/profile

執行 java –version,可以看見已經安裝完成。

[root@spark ~]# java -version

java version "1.6.0_45"

Java(TM) SE Runtime Environment (build 1.6.0_45-b06)

Java HotSpot(TM) 64-Bit Server VM (build 20.45-b01, mixed mode)

四、修改好/etc/hosts和/etc/sysconfig/network(一主兩從)

hadoop環境初始化搭建

五、部署好公鑰,然後cat id_rsa.pub >> authorized_keys

六、把hosts、authorized_keys檔案和/etc/profile傳過去從的機器。

七、編輯hadoop的檔案

hadoop環境初始化搭建
hadoop環境初始化搭建
hadoop環境初始化搭建

在hadoop/conf裡的hadoop_env.sh最後那裡添加java環境變量的位置

八、把已經主機配置好的hadoop,整個目錄scp到從的機器那裡

九、在主機上hadoop的bin目錄執行:

① ./hadoop namenode -format

② ./start-all.sh

十、檢查一下hadoop環境有沒問題

hadoop環境初始化搭建

     本文轉自wsw26 51CTO部落格,原文連結:http://blog.51cto.com/wsw26/2050284,如需轉載請自行聯系原作者

上一篇: ps查詢程序