首先明白hive隻在一個節點上安裝就可以
然後安裝hive必須在安裝有hadoop的基礎上才可以運作
準備工作:
1)hive安裝包下載下傳apache-hive-1.2.1-bin.tar.gz
2)mysql安裝包下載下傳MySQL-server-5.5.51-1.linux2.6.i386.rpm(服務端),MySQL-client-5.5.51-1.linux2.6.i386.rpm(用戶端)
3)mysql-connector-java-5.1.39.tar.gz,主要是用裡面的mysql connect的jar包
安裝開始:
一、安裝mysql
1)首先檢查一下之前是否已經安裝過mysql,安裝過的話,最好解除安裝重新安裝。
rpm -qa | grep MySQL
如果已經安裝用rpm -e --nodeps 檔案名卸掉
2)安裝mysql用指令rpm -ivh MySQL-server-5.5.51-1.linux2.6.i386.rpm,很快就回安裝完成,用安全模式背景啟動,指令:mysqlid_safe &
3)安裝mysql用戶端rmp -ivh MySQL-client-5.5.51-1.linux2.6.i386.rpm,很快安裝完成。
4)安裝完成後,預設的使用者名是root,密碼為空,為了安全期間,需要修改密碼等操作。
用指令mysql_secure_installaction, 其中會詢問是否更改密碼,輸入y;是否删除匿名使用者,輸入n;是否關閉root的遠端登入,輸入n;是否删除mysql的測試資料庫,輸入n;是否從新重新整理權限表,輸入y;
當然上述的y/n根據自己情況決定
5)配置mysql中的hive庫的操作權限 ,mysql進入指令終端,輸入:
grant all on hive.* to 'root'@'%' identified by 'root' (我的使用者名和密碼都是root)
flush privileges;使權限生效
二、配置hive
1)修改hive-site.xm; mv hive-default.xml.templatehive-site.xml
hive-site.xml(删除所有内容,隻留一個xml頭檔案和架構内容)
添加内容為:
<property>
<name>javax.jdo.option.ConnectionURL</name>
<value>jdbc:mysql://192.168.1.3:3306/hive?createDatabaseIfNotExist=true</value>
<description>JDBC connect string for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionDriverName</name>
<value>com.mysql.jdbc.Driver</value>
<description>Driver class name for a JDBC metastore</description>
</property>
<property>
<name>javax.jdo.option.ConnectionUserName</name>
<value>root</value>
<description>username to use against metastore database</description>
</property>
<property>
<name>javax.jdo.option.ConnectionPassword</name>
<value>root</value>
<description>password to use against metastore database</description>
</property>
<property>
<name>hive.metastore.uris</name>
<value>thrift://192.168.1.1 :9083</value>
</property>
2)修改hive-env.sh
mv hive-env.sh.template hive-env.sh
在最後一行添加内容:
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export HIVE_HOME=/home/hadoop/hive-1.2.1
export HIVE_CONF_DIR=/home/hadoop/hive-1.2.1/conf
3)修改hive-config.sh bin目錄下的
在最後一行添加内容:
export HADOOP_HEAPSIZE=${HADOOP_HEAPSIZE:-256}
export HADOOP_HOME=/home/hadoop/hadoop-2.6.0
export SPARK_HOME=/home/hadoop/spark-1.6.0
export JAVA_HOME=/usr/java/jdk1.7.0/
4)把mysql-connector-java的jar包放入到 apache-hive-1.2.1/lib/下
5) 需要更換Hadoop下面的jline檔案
$HIVE_HOME/lib/jline-2.12.jar放到$HADOOP_HOME/share/hadoop/yarn/lib/jline-2.12.jar
6) 啟動metastore,遠端通路hive。nohup hive --service metastore &
三、啟動
先啟動hadoop的hdfs和yarn,再啟動hive
可能遇到的問題:
http://blog.csdn.net/jiangshouzhuang/article/details/49340233
http://blog.csdn.net/behandthetime/article/details/50589550
http://blog.csdn.net/reesun/article/details/8556078
推薦部落格:http://blog.csdn.net/blue_jjw/article/details/50479263