Hue官方网站:https://gethue.com/
HUE官方用户手册:https://docs.gethue.com/
官方安装文档:https://docs.gethue.com/administrator/installation/install/
HUE下载地址:https://docs.gethue.com/releases/
准备及注意事项
1.下载 hue包
2.安装了maven
3.本文环境为centos7
4.安装Hue的机器最好不要有安装mysql,可能有问题
安装详细步骤
1. 解压下载的安装包
unzip hue-release-4.3.0.zip
2. 安装必要的依赖
yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel rsync
3. 编译Hue包
-
-
cd /opt/package/hue-release-4.3.0
-
-
PREFIX=/opt/moudle make install
-
-
# 如果想把HUE从移动到另外一个地方,由于HUE使用了Python包的一些绝对路径,移动之后则必须执行以下命令:
-
# 这里不要执行
-
rm app.reg
-
rm -r build
-
make apps
注意: 编译完后,会在指定目录下生成hue目录文件,千万不能改名,否则无法执行hue脚本命令
4. 修改hadoop配置文件
在 hdfs-site.xml 中增加配置
-
<!-- HUE -->
-
<property>
-
<name>dfs.webhdfs.enabled</name>
-
<value>true</value>
-
</property>
-
<property>
-
<name>dfs.permissions.enabled</name>
-
<value>false</value>
-
</property>
在 core-site.xml 中增加配置
-
<!-- HUE -->
-
<property>
-
<name>hadoop.proxyuser.hue.hosts</name>
-
<value>*</value>
-
</property>
-
<property>
-
<name>hadoop.proxyuser.hue.groups</name>
-
<value>*</value>
-
</property>
-
<property>
-
<name>hadoop.proxyuser.hdfs.hosts</name>
-
<value>*</value>
-
</property>
-
<property>
-
<name>hadoop.proxyuser.hdfs.groups</name>
-
<value>*</value>
-
</property>
httpfs-site.xml 文件,加入配置
-
<!-- HUE -->
-
<property>
-
<name>httpfs.proxyuser.hue.hosts</name>
-
<value>*</value>
-
</property>
-
<property>
-
<name>httpfs.proxyuser.hue.groups</name>
-
<value>*</value>
-
</property>
备注:修改完HDFS相关配置后,需要把配置scp给集群中每台机器,重启hdfs服务。
5.Hue配置
-
# 进入hue配置目录
-
cd desktop/conf
-
# 复制一份HUE的配置文件,并修改复制的配置文件
-
cp pseudo-distributed.ini.tmpl pseudo-distributed.ini
-
vim pseudo-distributed.ini
-
-
-
# [desktop]
-
http_host=linux122
-
http_port=8000
-
is_hue_4=true
-
time_zone=Asia/Shanghai
-
dev=true
-
server_user=hue
-
server_group=hue
-
default_user=hue
-
# 211行左右。禁用solr,规避报错
-
app_blacklist=search
-
# [[database]]。Hue默认使用SQLite数据库记录相关元数据,替换为mysql
-
engine=mysql
-
host=linux123
-
port=3306
-
user=root
-
password=12345678
-
name=hue
-
# 1003行左右,Hadoop配置文件的路径
-
hadoop_conf_dir=/opt/moudle/hadoop-2.9.2/etc/hadoop
-
-
# 去mysql所在的机器上
-
# 在mysql中创建数据库hue,用来存放元数据
-
mysql -uroot -p12345678
-
-
-
# 在hue目录中
-
# 初始化数据库,可以看到mysql的hue数据库下出现很多表
-
-
-
# 以上两条命令,可能会出现密码错误的情况,需要保证密码正确的前提下,也要配置可以远程连接。在mysql中执行
-
SHOW VARIABLES LIKE 'validate_password%';
-
set global validate_password_length=8;
-
set global validate_password_policy=0;
-
GRANT ALL PRIVILEGES ON *.* to 'root'@'%' IDENTIFIED BY '12345678' WITH GRANT OPTION;
-
FLUSH PRIVILEGES;
6.启动Hue服务
-
# 在安装hue机器上增加 hue 用户和用户组
-
groupadd hue
-
useradd -g hue hue
-
# 在hue安装路径下执行
-
build/env/bin/supervisor
-
7.Hue整合Hadoop、Hive
修改desktop/conf/pseudo-distributed.ini文件
集成HDFS、YARN
-
# 211 行。 没有安装 Solr,禁用,否则一直报错
-
app_blacklist=search
-
# [hadoop] -- [[hdfs_clusters]] -- [[[default]]]
-
# 注意端口号。
-
fs_defaultfs=hdfs://hadoop1:9000 #namenode节点
-
webhdfs_url=http://hadoop1:50070/webhdfs/v1
-
# 211 行
-
hadoop_conf_dir=/opt/lagou/servers/hadoop-2.9.2/etc/hadoop
-
# [hadoop] -- [[yarn_clusters]] -- [[[default]]]
-
resourcemanager_host=hadoop2
-
resourcemanager_port=8032
-
submit_to=True
-
resourcemanager_api_url=http://hadoop2:8088
-
proxy_api_url=http://hadoop2:8088
-
history_server_api_url=http://hadoop3:19888 # 历史服务器地址
集成Hive
集成Hive需要启动 Hiveserver2 服务
-
# [beeswax]
-
hive_server_host=hadoop3
-
hive_server_port=10000
-
hive_conf_dir=/opt/moudle/hive-2.3.7/conf
集成MySQL
-
# [librdbms] -- [[databases]] -- [[[mysql]]];1639行
-
# 注意:1639行原文: ##[[mysql]] => [[mysql]];两个##要去掉!
-
[[[mysql]]]
-
nice_name="My SQL DB"
-
name=hue
-
engine=mysql
-
host=hadoop3
-
port=3306
-
user=root
-
password=12345678
最后重启服务
转自:https://blog.csdn.net/u011250186/article/details/109474804