天天看点

原生Hadoop环境下安装Hue1. 写在前面的话2. Hue的编译安装

1. 写在前面的话

此处省略150字…

2. Hue的编译安装

2.1 hue相关的网址

Hue官方网站

Hue官方用户手册

官方安装文档

HUE下载地址

2.2 安装说明

  由于官方没有提供编译好的软件包,所以这里需要自己下载源码,安装依赖,编译安装.安装Hue的节点上最好没有安装过MySQL,否则可能有版本冲突.本次安装环境为python2.7.5,阿里云ECS服务器,CentOS7.x版本.

2.3 具体安装步骤

2.3.1 下载Hue软件包,上传至服务器

百度网盘下载链接

提取码:kepa

2.3.2 解压源码包

[[email protected] software]# yum install -y unzip
[[email protected] software]# unzip hue-release-4.3.0.zip
           

2.3.3 安装相关依赖

#安装编译hue需要的依赖库
yum -y install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi \
cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel \
libxslt-devel make mysql mysql-devel openldap-devel python-devel \
sqlite-devel gmp-devel
           

2.4 安装Maven

  编译Hue还需要安装Maven环境,因此在编译前需要安装Maven

#解压安装包
[[email protected] software]# tar -zvxf apache-maven-3.6.3-bin.tar.gz -C /opt/servers/
#配置maven环境变量
[[email protected] maven-3.6.3]# vim /etc/profile
#MAVEN_HOME
export MAVEN_HOME=/opt/servers/maven-3.6.3
export PATH=$PATH:$MAVEN_HOME/bin
#验证maven是否安装成功
[[email protected] maven-3.6.3]# mvn -v
Apache Maven 3.6.3 (cecedd343002696d0abb50b32b541b8a6ba2883f)
Maven home: /opt/servers/maven-3.6.3
           

  将Maven的镜像修改为阿里云的:

[[email protected] conf]# vim /opt/servers/maven-3.6.3/conf/settings.xml
<mirror>
      <id>aliyun</id>
      <mirrorOf>central</mirrorOf>
      <name>aliyun repository</name>
      <url>http://maven.aliyun.com/nexus/content/groups/public/</url>
</mirror>
           

2.5 开始编译

  1. 进入hue源码目录,进行编译,使用PREFIX执行安装Hue的路径
[[email protected] ~]# cd /opt/software/hue-release-4.3.0
#编译需要花点时间
[[email protected] hue-release-4.3.0]# PREFIX=/opt/servers make install
           
  1. 编译报错解决

    报错信息如下:是因为python中cffi这个模块版本过低,要求必须>=1.7(现有的是1.6)

    原生Hadoop环境下安装Hue1. 写在前面的话2. Hue的编译安装
  2. 解决办法
#1.使用pip安装cffi模块.如果发现是1.6或小于1.7版本的就需要升级
[[email protected] servers]# pip install cffi
#2.先升级pip(这步不一定做,看第三步执行的情况)
[[email protected] servers]# pip install --upgrade pip
#3.更新cffi模块
[[email protected] servers]# pip install --upgrade cffi --use-feature=2020-resolver
           

2.6 Hadoop的配置

2.6.1 修改Hadoop配置文件

  1. 修改hdfs-site.xml文件
[[email protected] ~]# vim /opt/servers/hadoop-2.9.2/etc/hadoop/hdfs-site.xml
<!-- 启用HDFS的Web页面业务 -->
<property>
    <name>dfs.webhdfs.enabled</name>
    <value>true</value>
</property>
<!--关闭HDFS的权限检查-->
<property>
    <name>dfs.permissions.enabled</name>
    <value>false</value>
</property>
           
  1. 修改core-site.xml文件
[[email protected] ~]# vim /opt/servers/hadoop-2.9.2/etc/hadoop/core-site.xml 
<!-- 使用hue可以代理所有用户 -->
<property>
    <name>hadoop.proxyuser.hue.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.hue.groups</name>
    <value>*</value>
</property>
<!--使用hdfs可以代理所有用户-->
<property>
    <name>hadoop.proxyuser.hdfs.hosts</name>
    <value>*</value>
</property>
<property>
    <name>hadoop.proxyuser.hdfs.groups</name>
    <value>*</value>
</property>
           
  1. 修改https-site.xml文件
[[email protected] ~]# vim /opt/servers/hadoop-2.9.2/etc/hadoop/httpfs-site.xml
<!-- 针对httpfs可以使用hue代理所有用户访问 -->
<property>
    <name>httpfs.proxyuser.hue.hosts</name>
    <value>*</value>
</property>
<property>
    <name>httpfs.proxyuser.hue.groups</name>
    <value>*</value>
</property>
           
  1. 将修改后的配置文件信息同步到集群中的其它节点

2.7 Hue相关配置

  1. 进入Hue配置文件目录
  1. 复制配置并重命名
  1. 修改配置文件
[[email protected] conf]# vim pseudo-distributed.ini
# [desktop](21行)
http_host=linux122
http_port=8000
is_hue_4=true
time_zone=Asia/Shanghai
dev=true
server_user=hue(92行)
server_group=hue
default_user=hue
#禁用solr,规避报错(211行)
app_blacklist=search
# [[database]],Hue默认使用SQLite数据库记录相关元数据,替换为mysql(631行)
engine=mysql(639行)
host=linux123(640行)
port=3306(641行)
user=hive(642行)
password=12345678(643行)
name=hue(增加)
# 1003行左右,Hadoop配置文件的路径
hadoop_conf_dir=/opt/servers/hadoop-2.9.2/etc/hadoop
           
  1. 在MySQL中创建hue数据库,就是上面name指定的数据库,用来存放元数据
[[email protected] hadoop]# mysql -uhive -p12345678
mysql> create database hue;
           
  1. 初始化hue数据库
[[email protected] hue]# pwd
/opt/servers/hue
[[email protected] hue]# ./build/env/bin/hue syncdb
[[email protected] hue]# ./build/env/bin/hue migrate
           
  1. 查看MySQL的hue数据库,多了很多表,存放的都是元数据信息
mysql> use hue;
mysql> show tables;
           

2.8 启动Hue服务

#先增加hue用户和用户组
groupadd hue
useradd -g hue hue
#在hue安装路径下执行启动命令
[[email protected] hue]# pwd
/opt/servers/hue
[[email protected] hue]# ./build/env/bin/supervisor
           

2.9 访问WebUI界面

http://linux122:8000

说明:第一次访问UI界面输入的用户民就是超级用户,这里都是以hue用户,不要输入其它用户.

原生Hadoop环境下安装Hue1. 写在前面的话2. Hue的编译安装

2.10 Hue整合Hadoop,Hive,MySQL

vim /opt/servers/hue/desktop/conf/pseudo-distributed.ini
           
  1. 集成HDFS和YARN
#修改HDFS相关配置[[hdfs_clusters]](981行)
fs_defaultfs=hdfs://linux121:9000
webhdfs_url=http://linux121:50070/webhdfs/v1

#修改yarn相关配置[[yarn_clusters]](1008行)
resourcemanager_host=linux123
resourcemanager_port=8032
resourcemanager_api_url=http://linux123:8088
proxy_api_url=http://linux123:8088
history_server_api_url=http://linux123:19888
           
  1. 集成Hive的配置
#[beeswax](1063行)
hive_server_host=linux123
hive_server_port=10000
hive_conf_dir=/opt/servers/hive-2.3.7/conf/
           
  1. 集成MySQL
# [[[mysql]]](1637行)
# 注意: 1637行原文: ##[[mysql]]前面的两个#要去掉
[[[mysql]]]
nice_name="My SQL"
name=test
engine=mysql
host=linux123
port=3306
user=hive
           
  1. 重启Hue服务
[[email protected] ~]# lsof -i:8000
[[email protected] ~]# kill -9 13670
[[email protected] hue]# ./build/env/bin/superviso
           

继续阅读