Hue 的安装(在子节点配置的)
#1. HUE安装包下载地址:
http://archive.cloudera.com/cdh5/cdh/5/hue-3.9.0-cdh5.14.0.tar.gz
2.解压安装包
cd /export/servers/
tar -zxvf hue-3.9.0-cdh5.14.0.tar.gz
3.联网安装各种必须的依赖包
yum install -y asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel
libffi-devel libxml2-devel libxslt-devel make openldap-devel python-devel sqlite-devel gmp-devel
4.Hue 初始化配置
cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf
vim hue.ini
![在这里插入图片描述](https://img-blog.csdnimg.cn/20201204084643758.png?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3FxXzQ1NzY5OTkw,size_16,color_FFFFFF,t_70)
#配置使用 mysql 作为 hue 的存储数据库,大概在 hue.ini 的 587 行左右
![](https://img.laitimes.com/img/__Qf2AjLwojIjJCLyojI0JCLiAzNfRHLGZkRGZkRfJ3bs92YsYTMfVmepNHL3tGVPVTW65UMRpHW4Z0MMBjVtJWd0ckW65UbM5WOHJWa5kHT20ESjBjUIF2X0hXZ0xCMx81dvRWYoNHLrdEZwZ1Rh5WNXp1bwNjW1ZUba9VZwlHdssmch1mclRXY39CXldWYtlWPzNXZj9mcw1ycz9WL49zZuBnLxgzNzMDO0gDM0AjMxAjMwIzLc52YucWbp5GZzNmLn9Gbi1yZtl2Lc9CX6MHc0RHaiojIsJye.png)
创建 mysql 中 Hue 使用的 database
create database hue default character set utf8 default collate utf8_general_ci;
编译 Hue
cd /export/servers/hue-3.9.0-cdh5.14.0
make apps
linux 系统添加普通用户 hue
useradd hue
passwd hue
启动 Hue、Web UI 访问
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor
Hue 汉化界面
修改配置文件(vim settings.py)
cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/core/src/desktop
vim settings.py
重新编译
cd /export/servers/hue-3.9.0-cdh5.14.0
make apps
启动 hue
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor
Hue 集成 HDFS
注意修改完 HDFS 相关配置后,需要把配置 scp 给集群中每台机器,重启 hdfs 集群。
修改 core-site.xml 配置(拷贝到另外的节点)
cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
vim core-site.xml
<!-- 允许通过 httpfs 方式访问 hdfs 的主机名 -->
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property> <!--允许通过 httpfs 方式访问 hdfs 的用户组 -->
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
vim hdfs-site.xml(拷贝到另外的节点)
<property>
<name>dfs.webhdfs.enabled</name>
<value>true</value>
</property>
修改 hue.ini
cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf
vim hue.ini
配置我们的 hue 与 hdfs 集成(大概在 885 行)
[[hdfs_clusters]] [[[default]]] fs_defaultfs=hdfs://node01:8020
webhdfs_url=http://node01:50070/webhdfs/v1 hadoop_hdfs_home=/export/servers/hadoop-2.6.0-
cdh5.14.0 hadoop_bin=/export/servers/hadoop-2.6.0-cdh5.14.0/bin
hadoop_conf_dir=/export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop
重启 HDFS、Hue
start-dfs.sh
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor
Hue 集成 YARN
修改 hue.ini
cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf
vim hue.ini(大概在 913 行)
[[yarn_clusters]]
[[[default]]]
resourcemanager_host=node01
resourcemanager_port=8032
submit_to=True resourcemanager_api_url=http://node01:8088
history_server_api_url=http://node01:19888
开启 yarn 日志聚集服务( yarn-site.xml拷贝到另外的节点上)
cd /export/servers/hadoop-2.6.0-cdh5.14.0/etc/hadoop/
vim yarn-site.xml
<!--是否启用日志聚集功能 -->
<property>
<name>yarn.log-aggregation-enable</name>
<value>true</value>
</property>
<!-- 设置日志保留时间,单位是秒 -->
<property>
<name>yarn.log-aggregation.retain-seconds</name>
<value>604800</value>
</property>
重启 Yarn、Hue
build/env/bin/supervisor
hadoop jar /export/servers/hadoop-2.6.0-cdh5.14.0/share/hadoop/mapreduce/had oop-mapreduce-
examples-2.6.0-cdh5.14.0.jar pi 3 5
Hue 集成 Hive
如果需要配置 hue 与 hive 的集成,我们需要启动 hive 的 metastore 服务以及 hiveserver2 服务(impala 需要 hive 的 metastore 服务,hue 需要 hvie 的 hiveserver2 服务)。
修改 Hue.ini
cd /export/servers/hue-3.9.0-cdh5.14.0/desktop/conf
vim hue.ini(大概在 998 行)
[beeswax]
hive_server_host=node01
hive_server_port=10000
hive_conf_dir=/export/servers/hive-1.1.0-cdh5.14.0/conf server_conn_timeout=120 auth_username=root
auth_password=123456
[metastore]
#允许使用 hive 创建数据库表等操作
enable_new_create_table=true
启动 Hive 服务、重启 hue
cd /export/servers/hue-3.9.0-cdh5.14.0/
build/env/bin/supervisor