天天看點

Hive安裝及遇到的問題

首先明白hive隻在一個節點上安裝就可以

然後安裝hive必須在安裝有hadoop的基礎上才可以運作

準備工作:

1)hive安裝包下載下傳apache-hive-1.2.1-bin.tar.gz

2)mysql安裝包下載下傳MySQL-server-5.5.51-1.linux2.6.i386.rpm(服務端),MySQL-client-5.5.51-1.linux2.6.i386.rpm(用戶端)

3)mysql-connector-java-5.1.39.tar.gz,主要是用裡面的mysql connect的jar包

安裝開始:

一、安裝mysql

1)首先檢查一下之前是否已經安裝過mysql,安裝過的話,最好解除安裝重新安裝。

rpm -qa | grep MySQL

      如果已經安裝用rpm -e --nodeps 檔案名卸掉

2)安裝mysql用指令rpm -ivh MySQL-server-5.5.51-1.linux2.6.i386.rpm,很快就回安裝完成,用安全模式背景啟動,指令:mysqlid_safe &

3)安裝mysql用戶端rmp -ivh MySQL-client-5.5.51-1.linux2.6.i386.rpm,很快安裝完成。

4)安裝完成後,預設的使用者名是root,密碼為空,為了安全期間,需要修改密碼等操作。

      用指令mysql_secure_installaction, 其中會詢問是否更改密碼,輸入y;是否删除匿名使用者,輸入n;是否關閉root的遠端登入,輸入n;是否删除mysql的測試資料庫,輸入n;是否從新重新整理權限表,輸入y;   

      當然上述的y/n根據自己情況決定

5)配置mysql中的hive庫的操作權限 ,mysql進入指令終端,輸入:

grant all on hive.* to 'root'@'%'  identified by 'root'   (我的使用者名和密碼都是root)

flush privileges;使權限生效

二、配置hive

1)修改hive-site.xm;  mv hive-default.xml.templatehive-site.xml

hive-site.xml(删除所有内容,隻留一個xml頭檔案和架構内容) 

添加内容為:

<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.1.3:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
           
<property>
  <name>hive.metastore.uris</name>
  <value>thrift://192.168.1.1 :9083</value>
</property>
           

2)修改hive-env.sh

 mv hive-env.sh.template hive-env.sh

在最後一行添加内容:

export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export HIVE_HOME=/home/hadoop/hive-1.2.1
export HIVE_CONF_DIR=/home/hadoop/hive-1.2.1/conf
           

3)修改hive-config.sh    bin目錄下的

在最後一行添加内容:

export HADOOP_HEAPSIZE=${HADOOP_HEAPSIZE:-256}
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export SPARK_HOME=/home/hadoop/spark-1.6.0
export JAVA_HOME=/usr/java/jdk1.7.0/
           

4)把mysql-connector-java的jar包放入到 apache-hive-1.2.1/lib/下

5)  需要更換Hadoop下面的jline檔案

  $HIVE_HOME/lib/jline-2.12.jar放到$HADOOP_HOME/share/hadoop/yarn/lib/jline-2.12.jar

6)   啟動metastore,遠端通路hive。nohup hive --service metastore &

三、啟動

先啟動hadoop的hdfs和yarn,再啟動hive

可能遇到的問題:

http://blog.csdn.net/jiangshouzhuang/article/details/49340233

http://blog.csdn.net/behandthetime/article/details/50589550

http://blog.csdn.net/reesun/article/details/8556078

推薦部落格:http://blog.csdn.net/blue_jjw/article/details/50479263

繼續閱讀