Apache Hadoop生态组件部署分享-Hue

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

impala:Apache Hadoop生态组件部署分享-Impala

spark: Apache Hadoop生态组件部署分享-Spark

sqoop: Apache Hadoop生态组件部署分享-Sqoop

kafak: Apache Hadoop生态组件部署分享-Kafka

一、hue编译

下载地址:https://github.com/cloudera/hue/tree/release-4.11.0

1.1 安装依赖

nginx 复制代码
yum install ant asciidoc cyrus-sasl-devel cyrus-sasl-gssapi cyrus-sasl-plain gcc gcc-c++ krb5-devel libffi-devel libxml2-devel libxslt-devel make mysql mysql-devel openldap-devel python-devel sqlite-devel gmp-devel

1.2 执行编译

nginx 复制代码
make apps

编译好之后打包发送到192.168.242.232机器上

二、hue部署

2.1 解压到指定路径

我这里是/opt/apache_v00/hue-release-4.11.0

2.2 配置pseudo-distributed.ini

vim /opt/apache_v00/hue-release-4.11.0/desktop/conf/pseudo-distributed.ini

ini 复制代码
[desktop]  http_host=192.168.242.232  http_port=8888  [[database]]    engine=mysql    host=192.168.242.230    port=3306    user=root    password=123456    name=hue[hadoop]  [[hdfs_clusters]]    [[[default]]]      fs_defaultfs=hdfs://nameservice1      webhdfs_url=http://192.168.242.230:9870/webhdfs/v1  #缺少此参数,hue hdfs路径无法打开  [[yarn_clusters]]    [[[default]]]      resourcemanager_host=192.168.242.231[beeswax]  hive_server_host=192.168.242.230  hive_server_port=10000  hive_conf_dir=$HIVE_HOME/conf[impala]  server_host=192.168.242.230  server_port=21050  use_sasl=false  #默认为true,不设置为false, hue impala无法加载元数据
[zookeeper]  [[clusters]]    [[[default]]]      host_ports=apache230.hadoop.com:2181,apache231.hadoop.com:2181,apache232.hadoop.com:2181

2.3 创建数据库

(192.168.242.230节点执行)

nginx 复制代码
create database hue;

2.4 初始化hue

在数据库中会创建表

bash 复制代码
build/env/bin/hue syncdbbuild/env/bin/hue migrate

2.5 修改core-site.xml

在hdfs配置中对core-site.xml新增以下配置内容

xml 复制代码
<property>  <name>hadoop.proxyuser.hue.hosts</name>  <value>*</value></property>
<property>  <name>hadoop.proxyuser.hue.groups</name>  <value>*</value></property>

然后分发至其他hadoop节点以及hive配置文件中,并重启相关服务

2.5 启动hue

bash 复制代码
build/env/bin/supervisor

浏览器打开页面

由于这是您第一次登录,请选择任何用户名和密码。一定要记住这些,因为它们将成为您的Hue超级用户凭据。

2.6 验证hive

hive情况

2.7 验证HDFS路径

2.8 验证impala

相关推荐
初次攀爬者1 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康2 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP2 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库2 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟2 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人2 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长2 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人2 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
十月南城2 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark
中烟创新2 天前
灯塔AI智能体获评“2025-2026中国数智科技年度十大创新力产品”
大数据·人工智能·科技