天天看点

Hadoop安装(单机版本)Hadoop安装(单机版本)

Hadoop安装(单机版本)

Hadoop(2.7版本以上)安装过程记录:(单机版)

注:    Linux中含有两个重要的文件 /etc/profile和$HOME/.bash_profile 每当系统登陆时都要读取这两个文件,用来初始化系统所用到的变量,其中/etc/profile是超级用户所用,$HOME/.bash_profile是每个用户自己独立的,我们可以修改该文件来设置一些变量。

   首先是需要JAVA为1.8版本;    Linux中修改.bash_profile:

PATH=$PATH:$HOME/bin
export JAVA_HOME=/home/cx/jdk1.8.0_65
export PATH=$JAVA_HOME/bin:$PATH
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH
           

我使用的hadoop版本为hadoop-2.7.4 解压hadoop-2.7.4.tar.gz -----修改hadoop2.7.3/etc/hadoop/core-site.xml

<configuration>
    <!-- 指定HDFS(namenode)的通信地址 -->
    <property>
          <name>fs.defaultFS</name>
          <value>hdfs://localhost:9000</value>
    </property>
    <!-- 指定hadoop运行时产生文件的存储路径 -->
    <property>
          <name>hadoop.tmp.dir</name>
          <value>/home/cx/hadoop</value>
    </property>
</configuration>
           

------修改hadoop2.7.4/etc/hadoop/hdfs-site.xml

<configuration>
   <!-- 这个参数设置为1,因为是单机版hadoop -->
    <property>
          <name>dfs.replication</name>
          <value>1</value>
    </property>

	<property> 
	<name>dfs.namenode.name.dir</name> 
	<value>/data/hadoop/hdfs/name</value> 
	<!--HDFS namenode数据镜象目录--> 
	</property> 
	  
	<property> 
	<name>dfs.datanode.data.dir</name> 
	<value>/data/hadoop/hdfs/data</value> 
	<!-- HDFS datanode数据镜象存储路径,可以配置多个不同的分区和磁盘中,使用,号分隔 --> 
	</property> 
	  
	<property> 
	<name>dfs.namenode.http-address</name> 
	<value>localhost:50070</value> 
	<!---HDFS Web查看主机和端口--> 
	</property> 

</configuration>
           

启动hadoop ---- ./start-all.sh(过时了,需要多次确认并且输入linux密码) 以后改用一下两个命令 ----   ./start-hdfs.sh

----   ./start-yarn.sh

   转载一个集群搭建的地址(里面针对配置解释比较详细)

继续阅读