linux主機上需要開啟ssh服務,安裝JDK,配置好環境變量。
下面建立hadoop使用者,配置hadoop使用者的環境變量。
hadoop使用者下的.bash_profile 配置環境變量:

上傳hadoop-0.21.0.tar.gz到/home/hadoop/下,使用指令:tar -zxvf hadoop-0.21.0.tar.gz
解壓縮hadoop檔案
/home/hadoop/hadoop-0.21.0/conf下的檔案
修改hadoop-env.sh檔案(hadoop-env.sh檔案位置:/home/hadoop/hadoop-0.21.0/conf)
在其中,加入hadoop使用者使用的環境變量 :JAVA_HOME
export JAVA_HOME=/usr/local/jdk
修改core-site.xml
修改hdfs-site.xml
下面進入hadoop的路徑下,/home/hadoop/hadoop-0.21.0/bin
執行指令:./hadoop namenode -format
執行此指令的時候,可能報錯Could not find the main class: org.apache.hadoop.hdfs.server.namenode.NameNode. Program will exit.
解決方法:因為執行了錯誤的hadoop的目錄,
再繼續執行./start-all.sh
啟動的時候,需要輸入三次hadoop使用者密碼。
程序啟動成功。
hadoop架設成功标志:
http://192.168.168.224:50070 --hdfs監控頁面
http://192.168.168.224:50030 --mapred監控頁面
輸入網址看能不能轉出網頁來。