Apache Hadoop生态组件部署分享-Hue

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

impala:Apache Hadoop生态组件部署分享-Impala

spark: Apache Hadoop生态组件部署分享-Spark

sqoop: Apache Hadoop生态组件部署分享-Sqoop

kafak: Apache Hadoop生态组件部署分享-Kafka

一、hue编译

下载地址:https://github.com/cloudera/hue/tree/release-4.11.0

1.1 安装依赖

nginx 复制代码
yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel

1.2 执行编译

nginx 复制代码
make apps

编译好之后打包发送到192.168.242.232机器上

二、hue部署

2.1 解压到指定路径

我这里是/opt/apache_v00/hue-release-4.11.0

2.2 配置pseudo-distributed.ini

vim /opt/apache_v00/hue-release-4.11.0/desktop/conf/pseudo-distributed.ini

ini 复制代码
[desktop]  http_host=192.168.242.232  http_port=8888  [[database]]    engine=mysql    host=192.168.242.230    port=3306    user=root    password=123456    name=hue[hadoop]  [[hdfs_clusters]]    [[[default]]]      fs_defaultfs=hdfs://nameservice1      webhdfs_url=http://192.168.242.230:9870/webhdfs/v1  #缺少此参数,hue hdfs路径无法打开  [[yarn_clusters]]    [[[default]]]      resourcemanager_host=192.168.242.231[beeswax]  hive_server_host=192.168.242.230  hive_server_port=10000  hive_conf_dir=$HIVE_HOME/conf[impala]  server_host=192.168.242.230  server_port=21050  use_sasl=false  #默认为true,不设置为false, hue impala无法加载元数据
[zookeeper]  [[clusters]]    [[[default]]]      host_ports=apache230.hadoop.com:2181,apache231.hadoop.com:2181,apache232.hadoop.com:2181

2.3 创建数据库

(192.168.242.230节点执行)

nginx 复制代码
create database hue;

2.4 初始化hue

在数据库中会创建表

bash 复制代码
build/env/bin/hue syncdbbuild/env/bin/hue migrate

2.5 修改core-site.xml

在hdfs配置中对core-site.xml新增以下配置内容

xml 复制代码
<property>  <name>hadoop.proxyuser.hue.hosts</name>  <value>*</value></property>
<property>  <name>hadoop.proxyuser.hue.groups</name>  <value>*</value></property>

然后分发至其他hadoop节点以及hive配置文件中,并重启相关服务

2.5 启动hue

bash 复制代码
build/env/bin/supervisor

浏览器打开页面

由于这是您第一次登录,请选择任何用户名和密码。一定要记住这些,因为它们将成为您的Hue超级用户凭据。

2.6 验证hive

hive情况

2.7 验证HDFS路径

2.8 验证impala

相关推荐
Coder个人博客2 小时前
Linux6.19-ARM64 mm mmu子模块深入分析
大数据·linux·车载系统·系统架构·系统安全·鸿蒙系统
心态还需努力呀5 小时前
CANN仓库通信库:分布式训练的梯度压缩技术
分布式·cann
人良爱编程6 小时前
Hugo的Stack主题配置记录03-背景虚化-导航栏-Apache ECharts创建地图
前端·javascript·apache·echarts·css3·html5
财经三剑客7 小时前
AI元年,春节出行安全有了更好的答案
大数据·人工智能·安全
岁岁种桃花儿7 小时前
Flink CDC从入门到上天系列第一篇:Flink CDC简易应用
大数据·架构·flink
TOPGUS7 小时前
谷歌SEO第三季度点击率趋势:榜首统治力的衰退与流量的去中心化趋势
大数据·人工智能·搜索引擎·去中心化·区块链·seo·数字营销
2501_933670798 小时前
2026 高职大数据与会计专业零基础能考的证书有哪些?
大数据
WHD3068 小时前
苏州数据库(SQL Oracle)文件损坏修复
hadoop·sql·sqlite·flume·memcached
ClouderaHadoop8 小时前
CDH集群机房搬迁方案
大数据·hadoop·cloudera·cdh
TTBIGDATA8 小时前
【Atlas】Ambari 中 开启 Kerberos + Ranger 后 Atlas Hook 无权限访问 Kafka Topic:ATLAS_HOOK
大数据·kafka·ambari·linq·ranger·knox·bigtop