大数据-158 Apache Kylin 安装配置详解 集群模式启动

点一下关注吧!!!非常感谢!!持续更新!!!

目前已经更新到了:

  • Hadoop(已更完)
  • HDFS(已更完)
  • MapReduce(已更完)
  • Hive(已更完)
  • Flume(已更完)
  • Sqoop(已更完)
  • Zookeeper(已更完)
  • HBase(已更完)
  • Redis (已更完)
  • Kafka(已更完)
  • Spark(已更完)
  • Flink(已更完)
  • ClickHouse(已更完)
  • Kudu(已更完)
  • Druid(已更完)
  • Kylin(正在更新...)

章节内容

上节我们完成了如下的内容:

  • Kylin 历史
  • Kylin 历程
  • Kylin 特点
  • Kylin 架构
  • Kylin 组件

依赖环境

集群规划

我这里就不根据上图来做了,因为我的服务器资源比较紧张,我就自由安排了。

需要注意:要求HBase的hbase.zookeeper.quorum值必须只能是 host1、host2这种,不允许host1:2181、host2:2181这种。

shell 复制代码
cd /opt/servers/hbase-1.3.1/conf
vim hbase-site.xml

(之前HBase实验已经做过了,配置就是这样的)

保险起见,放一个截图:

项目下载

下载地址如下:

shell 复制代码
https://archive.apache.org/dist/kylin/

这里使用的是:

shell 复制代码
https://archive.apache.org/dist/kylin/apache-kylin-3.1.1/apache-kylin-3.1.1-bin-hbase1x.tar.gz

你可以通过wegt或者本地下载完传到服务器上,按照需求,我这里是上传到 h122 节点上

shell 复制代码
cd /opt/software
wget https://archive.apache.org/dist/kylin/apache-kylin-3.1.1/apache-kylin-3.1.1-bin-hbase1x.tar.gz

等待下载完毕

解压移动

shell 复制代码
cd /opt/software
tar -zxvf apache-kylin-3.1.1-bin-hbase1x.tar.gz

运行结果如下图所示:

接着将其移动到servers目录,方便后续的管理:

环境变量

shell 复制代码
vim /etc/profile

我们需要加入Kylin的环境变量:(记得刷新环境变量)

shell 复制代码
export KYLIN_HOME=/opt/servers/apache-kylin-3.1.1-bin-hbase1x
export PATH=$PATH:$KYLIN_HOME/bin

配置环境变量如下图所示:

依赖组件

shell 复制代码
cd $KYLIN_HOME/conf
ln -s $HADOOP_HOME/etc/hadoop/hdfs-site.xml hdfs-site.xml
ln -s $HADOOP_HOME/etc/hadoop/core-site.xml core-site.xml
ln -s $HBASE_HOME/conf/hbase-site.xml hbase-site.xml
ln -s $HIVE_HOME/conf/hive-site.xml hive-site.xml
ln -s $SPARK_HOME/conf/spark-defaults.conf spark-defaults.conf

执行的结果如下图所示:

配置环境

我们需要修改 kylin.sh

shell 复制代码
cd $KYLIN_HOME/bin
vim kylin.sh

# 需要写入这些依赖 防止后续报错
export HADOOP_HOME=/opt/servers/hadoop-2.9.2
export HIVE_HOME=/opt/servers/apache-hive-2.3.9-bin
export HBASE_HOME=/opt/servers/hbase-1.3.1
export SPARK_HOME=/opt/servers/spark-2.4.5-bin-without-hadoop-scala-2.12

配置结果如下图所示:

检查依赖

shell 复制代码
$KYLIN_HOME/bin/check-env.sh

我这里报错了,可能是之前的环境变量有问题:

我找了一圈,看到 Flink YARN 这里HADOOP_CONF_DIR可能配置错了:

shell 复制代码
# Flink YRAN
# export HADOOP_CONF_DIR=$HADOOP_HOME
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export YARN_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_CLASSPATH=`hadoop classpath`

修改完的结果为如下:(这里我暂时注释了,防止我的FlinkYRAN以后不能用了)

重新进行测试环境,检查顺利通过,看里边还有一些和Flink、Kafka的配置等,你需要的话可以加入:

启动集群

ZooKeeper

启动 h121 h122 h123集群模式

需要每个节点都运行

shell 复制代码
zkServer.sh start

HDFS

启动 h121 h122 h123

h121运行即可,但是要检查确认

shell 复制代码
start-dfs.sh

YRAN

启动 h121 h122 h123

h121运行即可,但是要检查确认

shell 复制代码
start-yarn.sh

HBase

启动 h121 h122 h123

h121运行即可,但是要检查确认

shell 复制代码
start-hbase.sh

Metastore

启动 h121 即可

shell 复制代码
nohup hive --service metastore > /tmp/metastore.log 2>&1 &

运行结果如下图:

history server

启动 h121 即可

shell 复制代码
mr-jobhistory-daemon.sh start historyserver

Kylin

启动 h122

shell 复制代码
kylin.sh start

运行过程如下图所示:

节点详情

h121

与上图对应一下:

  • Metastore
  • Zookeeper
  • HBase
  • HDFS
  • JPS跳过
  • YARN
  • Hadoop

h122

  • JPS跳过
  • YRAN
  • ZooKeeper
  • HBase
  • 好像是Kylin
  • HDFS

h123

  • YARN
  • JPS跳过
  • HBase
  • ZooKeeper
  • Hadoop
  • HDFS

启动结果

shell 复制代码
http://h122.wzk.icu:7070/kylin/login

我们访问之后可以看到如下的内容:

登录进入

shell 复制代码
默认都是大写
账号 ADMIN
密码 KYLIN

登录进入之后,就是如下的结果:

相关推荐
一只脑洞君18 分钟前
Kubernetes(K8s)的简介
java·容器·kubernetes
zygswo20 分钟前
程序猿成长之路之设计模式篇——设计模式简介
java·设计模式
除了代码啥也不会1 小时前
springboot项目发送邮件
java·spring boot·spring
death bell2 小时前
zookeeper选举kafka集群的controller
分布式·zookeeper·kafka
无敌の星仔2 小时前
一个月学会Java 第7天 字符串与键盘输入
java·开发语言·python
GGBondlctrl2 小时前
【JavaEE初阶】多线程案列之定时器的使用和内部原码模拟
java·开发语言·定时器·timer的使用·定时器代码模拟
多多*2 小时前
OJ在线评测系统 微服务高级 Gateway网关接口路由和聚合文档 引入knife4j库集中查看管理并且调试网关项目
java·运维·微服务·云原生·容器·架构·gateway
惜.己3 小时前
java中日期时间类的api
java·开发语言·intellij-idea·idea·intellij idea
橘子海全栈攻城狮4 小时前
【源码+文档+调试讲解】基于Android的固定资产借用管理平台
android·java·spring boot·后端·python·美食