dolphinScheduler(海豚调度器)分布式机群安装

1、安装包准备

下载好安装包 apache-dolphinscheduler-3.0.0-bin.tar.gz,上传至 /opt

2、解压,重命名
复制代码
cd /opt
tar -zxvf apache-dolphinscheduler-3.0.0-bin.tar.gz
mv apache-dolphinscheduler-3.0.0-bin/ dolphin_install
3、在MySQL8中创建dolphinscheduler数据库
复制代码
mysql -uroot -p
​
mysql> CREATE DATABASE dolphinscheduler DEFAULT CHARACTER SET utf8 DEFAULT COLLATE utf8_general_ci;
​
mysql> GRANT ALL ON dolphinscheduler.* TO 'dolphinscheduler'@'%' IDENTIFIED BY 'Pw#123456';
​
mysql> flush privileges;
4、 修改application.yaml配置文件
复制代码
vim /opt/dolphin_install/alert-server/conf/application.yaml
vim /opt/dolphin_install/api-server/conf/application.yaml
vim /opt/dolphin_install/master-server/conf/application.yaml
vim /opt/dolphin_install/worker-server/conf/application.yaml

找到on-profile: mysql

复制代码
      on-profile: mysql
  datasource:
    driver-class-name: com.mysql.cj.jdbc.Driver
    url: jdbc:mysql://{ip}:3306/dolphinscheduler?useUnicode=true&characterEncoding=UTF-8&allowMultiQueries=true
    username: dolphinscheduler
    password: Pw#123456

{ip}为mysql8数据库ip

复制代码
vim /opt/dolphin_install/api-server/conf/application.yaml
vim /opt/dolphin_install/master-server/conf/application.yaml
vim /opt/dolphin_install/worker-server/conf/application.yaml

找到type: zookeeper

复制代码
  type: zookeeper
  zookeeper:
    namespace: dolphinscheduler
    connect-string: bigdata1:2181,bigdata2:2181,bigdata3:2181

bigdata1:2181,bigdata2:2181,bigdata3:2181 为大数据zookeeper集群

5、 修改common.properties配置文件
复制代码
vim /opt/dolphin_install/alert-server/conf/common.properties
vim /opt/dolphin_install/api-server/conf/common.properties
vim /opt/dolphin_install/master-server/conf/common.properties
vim /opt/dolphin_install/worker-server/conf/common.properties

修改以下配置

复制代码
data.basedir.path=/opt/dolphinscheduler
resource.storage.type=HDFS
fs.defaultFS=hdfs://ns:8020
yarn.resourcemanager.ha.rm.ids=bigdata1,bigdata2

ns为HDFS的命名空间

bigdata1和bigdata2为安装了resource manager的主机名

5、 修改运行时的参数
复制代码
vim /opt/dolph_install/bin/env/dolphinscheduler_env.sh

修改以下配置

复制代码
export JAVA_HOME=${JAVA_HOME:-/usr/local/java/jdk1.8.0_231}
export DATABASE=${DATABASE:-mysql}
export SPRING_JACKSON_TIME_ZONE=${SPRING_JACKSON_TIME_ZONE:-GMT+8}
export REGISTRY_ZOOKEEPER_CONNECT_STRING=${REGISTRY_ZOOKEEPER_CONNECT_STRING:-bigdata1:2181,bigdata2:2181,bigdata3:2181}
export HADOOP_HOME=${HADOOP_HOME:-/opt/cloudera/parcels/CDH/lib/hadoop}
export HADOOP_CONF_DIR=${HADOOP_CONF_DIR:-/opt/cloudera/parcels/CDH/lib/hadoop/etc/hadoop}
export HIVE_HOME=${HIVE_HOME:-/opt/cloudera/parcels/CDH/lib/hive}
6、修改一键部署的相关配置文件(具体内容根据自己的实际规划进行修改)
复制代码
vim /opt/dolph_install/bin/env/install_env.sh

修改以下配置

复制代码
ips=${ips:-"bigdata10,bigdata11,bigdata12"}
sshPort=${sshPort:-"10022"}
masters=${masters:-"bigdata10,bigdata11"}
workers=${workers:-"bigdata10:default,bigdata11:default,bigdata12:default"}
alertServer=${alertServer:-"bigdata10"}
apiServers=${apiServers:-"bigdata11"}
installPath=${installPath:-"/opt/dolphinscheduler"}
​
7、将core-site.xml和hdfs-site.xml文件拷贝到api-server/conf目录下
复制代码
cp /opt/cloudera/parcels/CDH/lib/hadoop/etc/hadoop/core-site.xml /opt/dolph_install/api-server/conf
cp /opt/cloudera/parcels/CDH/lib/hadoop/etc/hadoop/hdfs-site.xml /opt/dolph_install/api-server/conf
8、将mysql-connector-java-8.0.17.jar放入api-server/libs目录下
复制代码
cp mysql-connector-java-8.0.17.jar /opt/dolph_install/api-server/libs
9、初始化数据库
复制代码
mysql -uroot -pPw#123456 < /opt/dolph_install/tools/sql/sql/dolphinscheduler_mysql.sql
10、执行安装命令
复制代码
sh /opt/dolph_install/bin/install.sh
FAQ:
1.解决客户端无法访问mysql8问题
复制代码
use mysql;
update user set host='%' where user='root';
FLUSH PRIVILEGES;
相关推荐
lix的小鱼1 小时前
Spark集群搭建之Yarn模式
大数据·分布式·spark
一刀到底2112 小时前
java 多核,多线程,分布式 并发编程的现状 :从本身的jdk ,到 spring ,到其它第三方。
java·分布式·高并发
hnlucky2 小时前
《Zabbix Proxy分布式监控实战:从安装到配置全解析》
数据库·分布式·学习·adb·zabbix·集成学习·proxy模式
it-搬运工3 小时前
Rabbitmq安装
分布式·rabbitmq
一切顺势而行4 小时前
kafka 面试总结
分布式·面试·kafka
曾经的三心草9 小时前
RabbitMQ-高级特性1
分布式·rabbitmq·高级特性
玄武后端技术栈9 小时前
RabbitMQ事务机制
分布式·rabbitmq
搞不懂语言的程序员9 小时前
Kafka的核心组件有哪些?简要说明其作用。 (Producer、Consumer、Broker、Topic、Partition、ZooKeeper)
分布式·zookeeper·kafka
麻芝汤圆10 小时前
深入探索 Spark RDD 行动算子:功能解析与实战应用
大数据·hadoop·分布式·spark·mapreduce
widder_13 小时前
大数据处理利器:Hadoop 入门指南
大数据·hadoop·分布式