不推薦将hue和mysql裝在同一台機器,因為會有依賴沖突,不好解決
安裝在root使用者下用yum安裝所依賴的系統包
[[email protected] hue-3.12.0]# yum -y install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi gcc gcc-c++ krb5-devel libtidy libxml2-devel libxslt-devel openldap-devel python-devel sqlite-devel openssl-devel mysql-devel gmp-devel
[[email protected] apps]# tar -zxvf hue-3.12.0.gz
[[email protected] apps]# cd hue-3.12.0
[[email protected] hue-3.12.0]# make apps
可能會報一系列錯,運作以下指令:
yum install -y gcc openssl-devel
yum install -y gcc gcc-c++ kernel-devel
yum install -y libxslt-devel
yum install -y gmp-devel
yum install -y sqlite-devel
yum install -y libffi-devel openssl-devel
yum install -y openldap-devel
yum install -y mysql-server mysql mysql-devel
再次make apps進行編譯
編譯成功修改配置檔案:
在hadoop的配置檔案中加入以下配置:
core-site.xml:
<property>
<name>hadoop.http.staticuser.user</name>
<value>hadoop</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
hdfs-site.xml:
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
httpfs-site.xml:
<property>
<name>httpfs.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>httpfs.proxyuser.root.groups</name>
<value>*</value>
</property>
改完之後分發配置檔案并重新開機hadoop
配置hue檔案
[[email protected] hue-3.12.0]# vim desktop/conf/hue.ini
配置[desktop]:
secret_key=qiaowenxuandeCSDNboke
http_host=hadoop001
http_port=8888
time_zone=Asia/Shanghai
配置hue的資料庫為mysql:(此處需注意,一定要配置兩個database)
第一個[[database]]:下翻即可發現
engine=mysql
host=hadoop000
port=3306
user=root
password=123456
name=hue
第二個[[database]]:
通過搜尋postgresql_psycopg2, mysql, sqlite3 or oracle.得到
相同的配置
在mysql建立相應的hue表。
msyql>create database hue ;
初始化資料表:
同步資料庫:
[[email protected] hue-3.12.0]# build/env/bin/hue syncdb
導入資料,主要包括oozie、pig、desktop所需要的表:
[[email protected] hue-3.12.0]# build/env/bin/hue migrate
檢視mysql中是否生成表:
msyql>show tables ;
配置HDFS:
搜尋 [[hdfs_clusters 直達:
fs_defaultfs=hdfs://hadoop000:8020
logical_name=root
webhdfs_url=http://hadoop000:50070/webhdfs/v1
hadoop_conf_dir=/apps/hadoop-2.9.0/etc/hadoop
hadoop_conf_dir=/apps/hadoop-2.9.0/etc/hadoop
hadoop_bin=/apps/hadoop-2.9.0/bin
hadoop_hdfs_home=/apps/hadoop-2.9.0
此時啟動hue程序:
進入webui:host:8888,使用root登入
顯示Cannot access: /user/root. Note: you are a Hue admin but not a HDFS superuse
是因為root與hue的預設配置使用者不同
解決方式:
在hue.ini搜尋:Webserver runs as this user,将預設配置改為登入使用者root
# Webserver runs as this user
server_user=root
server_group=root
# This should be the Hue admin and proxy user
default_user=root
配置ResourceManager:
搜尋 [[yarn_clusters 直達
找到[[[ha]]] 修改的是高可用配置
logical_name=my-rm-name
submit_to=True
resourcemanager_api_url=http://hadoop000:8088
配置hive
搜尋 [beeswax 直達
hive_server_host=hadoop000
hive_server_port=10000
hive_conf_dir=/apps/hive-2.3.6/conf
進入到hive的webUI,如果英文紅字顯示10000端口無法通路
到hive用戶端啟動hiveserver2
背景啟動的三種方式:
nohup bin/hiveserver2 1 > logs/hiveserver2.log 2 > logs/hiveserver2.err &
nohup hiveserver2 1>/dev/null 2>/dev/null &
nohup hiveserver2 >/dev/null 2>&1 &
再次進入hue的webUI
如果顯示紅字: Could not start SASL: Error in sasl_client_start (-4) SASL(-4): no mechanism available
在hue伺服器運作:
yum install cyrus-sasl-plain cyrus-sasl-devel cyrus-sasl-gssapi
或
sudo yum install apache-maven ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi gcc gcc-c++ krb5-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel
如果在hue的about頁面顯示紅字 Failed to access Hive warehouse: /user/hive/warehouse
是因為在安裝配置hive時指定的hive資料存儲的hdfs位址和hue指定的預設hdfs位址不同,隻需在hdfs建立/user/hive/warehouse 就可以消除這個警告
配置hbase
hbase配置的是thriftserver2伺服器位址,不是master位址,而且需要用小括号包起來。thriftserver需要單獨啟動。
搜尋 [hbase 直達
hbase_clusters=(hadoop005:9090)
hbase_conf_dir=/apps/hbase-1.4.11/conf
啟動thriftserver伺服器
檢視端口9090
netstat -anop | grep 9090
配置spark
hue與spark的內建使用livy server進行中轉,livy server類似于hive server2。提供一套基于restful風格的服務,接受client送出http的請求,然後轉發給spark叢集。livy server不在spark的發行包中,需要單獨下載下傳。
注意:hue中通過netebook編寫scala或者python程式,要確定notebook可以使用,需要啟動hadoop的httpfs程序–切記!
注意下載下傳使用較高的版本,否則有些類找不到。下載下傳位址如下:
[[email protected] apps]# wget http://mirrors.tuna.tsinghua.edu.cn/apache/incubator/livy/0.5.0-incubating/livy-0.5.0-incubating-bin.zip
[[email protected] apps]# unzip livy-0.5.0-incubating-bin.zip
[[email protected] livy-0.5.0-incubating-bin]# bin/livy-server &
配置hue
推薦使用local或yarn模式啟動job,這裡我們配置成spark://s101:7077。
搜尋 Spark application 直達
livy_server_host=hadoop001
livy_server_port=8998
livy_server_session_kind=spark://hadoop000:7077
配置zookeeper
搜尋 [zookeeper 直達
host_ports=hadoop005:2181,hadoop006:2181,hadoop007:2181