Apache Hadoop生态组件部署分享-Impala

节点信息请参考:

zookeeper: Apache Hadoop生态组件部署分享-zookeeper

hadoop:Apache Hadoop生态组件部署分享-Hadoop

hive: Apache Hadoop生态组件部署分享-Hive

hbase: Apache Hadoop生态组件部署分享-Hbase

一、IMPALA编译

1.1 下载impala-4.2.0

下载地址:https://impala.apache.org/downloads.html

1.2 解压并修改相关配置

bash 复制代码
cd apache-impala-4.2.0修改./bin/impala-config.shexport USE_APACHE_HIVE=${USE_APACHE_HIVE-false} 为  export USE_APACHE_HIVE=${USE_APACHE_HIVE-true}

修改此参数原因: 部署时候impala无法查询数据,因为默认引用的是cloudera产品的依赖,cdp hive中的元数据表字段与apache hive元数据表字段不一致,报错信息为: Operations not supported. Table xxx access type is: NONE

https://issues.apache.org/jira/browse/IMPALA-10792

1.3 开始编译

编译之前在编译机器安装:

nginx 复制代码
yum install boost boost-devel redhat-lsb  python-devel cyrus-sasl-devel cyrus-sasl lzo-devel lzo gcc-c++ gcc cmake maven python pip python-devel

开始编译

cs 复制代码
[root@wqg apache-impala-4.2.0]# export IMPALA_HOME=`pwd`[root@wqg apache-impala-4.2.0]# bin/bootstrap_system.sh...[root@wqg apache-impala-4.2.0]# $IMPALA_HOME/buildall.sh -noclean -notests

注:中间编译遇到了很多异常后面会统一贴出

说明: 本次编译并没有调整过多版本,大多采用默认版本号,因此兼容性不是最佳,目前还未发现问题

编译参考网址:

impala官方文档:https://cwiki.apache.org/confluence/display/IMPALA/Impala+Home

编译文档: https://cwiki.apache.org/confluence/display/IMPALA/Building+Impala

二、impala安装部署(单节点)

其实多节点也就是在其他节点部署impala daemon 步骤一样的

2.1 打包分发解压

将编译好的文件打包从192.168.242.130 分发至 192.168.242.230

解压后的目录: /opt/apache/apache-impala-4.2.0

bash 复制代码
mkdir /opt/apache_v00/hadoop-3.3.5/hdfs-sockets#后面配置需要

2.2 配置文件

hdfs-site.xml
在hdfs-site.xml配置文件中新增以下内容,配置完成后将其分发至其他节点以及hive的配置路径下
xml 复制代码
<!--impala所需配置--><property>    <name>dfs.client.read.shortcircuit</name>    <value>true</value></property>
<property>    <name>dfs.domain.socket.path</name>    <value>/opt/apache_v00/hadoop-3.3.5/hdfs-sockets/dn</value></property>
<property>    <name>dfs.client.file-block-storage-locations.timeout.millis</name>    <value>10000</value></property> <property>    <name>dfs.datanode.hdfs-blocks-metadata.enabled</name>    <value>true</value>  </property>
hive-site.xml
在hive的conf下编译hive-site.xml新增以下内容然后分发到其他节点
xml 复制代码
<!--impala所需--><property> <name>hive.metastore.dml.events</name> <value>true</value></property>

重启hadoop、hive相关组件服务

2.3 state_store_flags配置

我的是在/opt/apache_v00/apache-impala-4.2.0/conf,配置文件路径位置可以任意

ini 复制代码
-state_store_pending_task_count_max=0-max_log_files=10-state_store_port=24000-enable_webserver=true-webserver_port=25010-state_store_num_server_worker_threads=4-log_filename=statestored-minidump=9-hostname=apache230.hadoop.com

2.4 catalogserver_flags配置

ini 复制代码
-catalog_service_port=26000-max_log_files=10-hms_event_polling_interval_s=2-load_auth_to_local_rules=false-load_catalog_in_background=false-webserver_port=25020-server_name=apache230.hadoop.com-ranger_app_id=impala-authorization_provider=ranger-ranger_service_type=hive-catalog_topic_mode=minimal-log_filename=catalogd-state_store_subscriber_timeout_seconds=30-state_store_host=apache230.hadoop.com-state_store_port=24000

2.5 impalad_flags配置

ini 复制代码
-server-name=apache230.hadoop.com-ranger_service_type=hive-ranger_app_id=impala-authorization_provider=ranger-state_store_host=apache230.hadoop.com-catalog_service_host=apache230.hadoop.com-catalog_service_port=26000-hostname=apache230.hadoop.com-beeswax_port=21000-fe_port=21000-be_port=22000-use_local_catalog=true

2.6 启动impala相关服务

bash 复制代码
export IMPALA_HOME=/opt/apache_v00/apache-impala-4.2.0export CLASSPATH=$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:${IMPALA_HOME}/fe/target/impala-frontend-4.2.0-RELEASE.jar:$(echo ${IMPALA_HOME}/fe/target/dependency/*.jar | tr ' ' ':'):${HADOOP_HOME}/etc/hadoop/core-site.xml:${HADOOP_HOME}/etc/hadoop/hdfs-site.xmlexport CLASSPATH=\/root/libthrift-0.16.0.jar:\${HADOOP_HOME}/etc/hadoop:\"$IMPALA_HOME"/fe/src/test/resources:\"$IMPALA_HOME"/fe/target/dependency:\"$IMPALA_HOME"/fe/target/impala-frontend-4.2.0-RELEASE.jar:\"$IMPALA_HOME"/fe/target/impala-frontend-4.2.0-RELEASE-tests.jar:$CLASSPATH
cd /opt/apache/apache-impala-4.2.0/be/build/debug/servicenohup ./statestored start --flagfile=/etc/impala/conf/state_store_flags  > statestored.log 2>&1 &nohup ./catalogd start --flagfile=/etc/impala/conf/catalogserver_flags > catalogd.log 2>&1 &./impalad start --flagfile=/opt/apache_v00/apache-impala-4.2.0/conf/impalad_flags

2.7 连接测试

impala-shell -i apache230.hadoop.com:21000 -d default --protocol=beeswax

impala-shell -i apache230.hadoop.com:21050 -d default (默认走21050端口)

相关推荐
武子康20 小时前
大数据-236 离线数仓 - 会员指标验证、DataX 导出与广告业务 ODS/DWD/ADS 全流程
大数据·后端·apache hive
初次攀爬者2 天前
ZooKeeper 实现分布式锁的两种方式
分布式·后端·zookeeper
武子康2 天前
大数据-235 离线数仓 - 实战:Flume+HDFS+Hive 搭建 ODS/DWD/DWS/ADS 会员分析链路
大数据·后端·apache hive
DianSan_ERP2 天前
电商API接口全链路监控:构建坚不可摧的线上运维防线
大数据·运维·网络·人工智能·git·servlet
够快云库2 天前
能源行业非结构化数据治理实战:从数据沼泽到智能资产
大数据·人工智能·机器学习·企业文件安全
AI周红伟2 天前
周红伟:智能体全栈构建实操:OpenClaw部署+Agent Skills+Seedance+RAG从入门到实战
大数据·人工智能·大模型·智能体
B站计算机毕业设计超人2 天前
计算机毕业设计Django+Vue.js高考推荐系统 高考可视化 大数据毕业设计(源码+LW文档+PPT+详细讲解)
大数据·vue.js·hadoop·django·毕业设计·课程设计·推荐算法
计算机程序猿学长2 天前
大数据毕业设计-基于django的音乐网站数据分析管理系统的设计与实现(源码+LW+部署文档+全bao+远程调试+代码讲解等)
大数据·django·课程设计
B站计算机毕业设计超人2 天前
计算机毕业设计Django+Vue.js音乐推荐系统 音乐可视化 大数据毕业设计 (源码+文档+PPT+讲解)
大数据·vue.js·hadoop·python·spark·django·课程设计
十月南城2 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark