大数据相关组件安装及使用

自学大数据相关组件 持续更新中。。。

一、linux安装docker

1、更新yum

bash 复制代码
sudo yum update

2、卸载docker旧版本

bash 复制代码
sudo yum remove docker \
                  docker-client \
                  docker-client-latest \
                  docker-common \
                  docker-latest \
                  docker-latest-logrotate \
                  docker-logrotate \
                  docker-engine

3、添加镜像库

bash 复制代码
sudo yum install -y yum-utils
sudo yum-config-manager --add-repo https://download.docker.com/linux/centos/docker-ce.repo

4、安装

bash 复制代码
sudo yum install docker-ce docker-ce-cli containerd.io docker-buildx-plugin docker-compose-plugin

5、启动

bash 复制代码
systemctl start docker

二、docker安装mysql

1、拉取镜像

bash 复制代码
docker pull mysql

2、启动mysql

bash 复制代码
docker run -p 3306:3306 -e TZ=Asia/Shanghai -e MYSQL_ROOT_PASSWORD=@Abc123455 --name mysql -d mysql:latest

3、设置mysql时区

bash 复制代码
show variables like '%time_zone%';

SET time_zone = 'Asia/Shanghai';
SET @@global.time_zone = 'Asia/Shanghai';

SELECT @@global.time_zone;
show variables like '%time_zone%';

4、拉取postgres

bash 复制代码
docker pull postgres:alpine3.19

5、启动postgres

bash 复制代码
mkdir -p  /home/pgdata
bash 复制代码
docker run --name pg_p -v /home/pgdata/data:/var/lib/postgresql/data -e POSTGRES_PASSWORD=@Abc123455 -p 5432:5432 -d postgres:alpine3.19

三、安装jdk

1、下载jdk安装包

2、linux创建文件夹

bash 复制代码
mkdir /usr/local/java

3、jdk安装包放入文件夹内

4、解压

bash 复制代码
tar -zxvf jdk-8u351-linux-x64.tar.gz

5、更改环境变量

bash 复制代码
vim /etc/profile

添加

bash 复制代码
export JAVA_HOME=/usr/local/java/jdk8
export CLASSPATH=.:${JAVA_HOME}/jre/lib/rt.jar:${JAVA_HOME}/lib/dt.jar:${JAVA_HOME}/lib/tools.jar
export PATH=$PATH:${JAVA_HOME}/bin

6、重载配置

bash 复制代码
source /etc/profile

7、检查是否生效

bash 复制代码
java -version

8、防止重启后重新重载配置

bash 复制代码
vim ~/.bashrc

添加

bash 复制代码
source /etc/profile

四、设置系统时区

1、设置 上海 UTC+8 时区

bash 复制代码
sudo ln -sf /usr/share/zoneinfo/Asia/Shanghai /etc/localtime

2、保持硬件时区与系统时区一致

bash 复制代码
timedatectl set-local-rtc 1

1、拉取镜像

bash 复制代码
docker pull flink:1.18.1-scala_2.12-java8

2、创建docker网络

bash 复制代码
docker network create mynet

3、启动jobmanager(master节点,管理程序,负责调度job运算)

bash 复制代码
 docker run -d --name jm --network mynet -p 8081:8081 -e JOB_MANAGER_RPC_ADDRESS=jm -e TZ=Asia/Shanghai  flink:1.18.1-scala_2.12-java8 jobmanager

启动两个taskmanager(真正运算task的节点)

bash 复制代码
docker run -d --name tm1 --network mynet -e JOB_MANAGER_RPC_ADDRESS=jm -e TZ=Asia/Shanghai flink:1.18.1-scala_2.12-java8 taskmanager

docker run -d --name tm2 --network mynet -e JOB_MANAGER_RPC_ADDRESS=jm -e TZ=Asia/Shanghai flink:1.18.1-scala_2.12-java8 taskmanager

4、然后可以通过8081打开管理页面,查看集群状态

六、Doris

参考官方文档

1、下载压缩包

2、解压

bash 复制代码
tar -zxvf apache-doris-2.0.4-bin-arm64.tar.gz

3、修改linux内核参数

bash 复制代码
sysctl vm.max_map_count
bash 复制代码
sudo sysctl -w vm.max_map_count=2000000

4、启动fe

bash 复制代码
cd apache-doris-x.x.x/fe

修改 FE 配置文件 conf/fe.conf

bash 复制代码
vim conf/fe.conf

添加 priority_networks 参数

bash 复制代码
priority_networks=172.23.16.0/24

添加元数据目录

bash 复制代码
meta_dir=/path/your/doris-meta

启动

bash 复制代码
./bin/start_fe.sh --daemon

使用mysql连接fe

bash 复制代码
mysql -uroot -P9030 -h127.0.0.1

查看fe运行状态:

bash 复制代码
show frontends\G;

5、启动be

bash 复制代码
cd apache-doris-x.x.x/be

修改 BE 配置文件 conf/be.conf

bash 复制代码
vim conf/be.conf

添加 priority_networks 参数

bash 复制代码
priority_networks=172.23.16.0/24

添加元数据目录

bash 复制代码
storage_root_path=/path/your/data_dir

启动

bash 复制代码
./bin/start_be.sh --daemon

添加 BE 节点到集群

通过 MySQL 客户端连接到 FE 之后执行下面的 SQL,将 BE 添加到集群中

bash 复制代码
ALTER SYSTEM ADD BACKEND "be_ip:9050";

6、验证启动

参考文档

Mysql往Doris同步数据

1、准备数据

Mysql:

bash 复制代码
-- 创建数据库
CREATE DATABASE app_db;

USE app_db;

-- 创建 orders 表
CREATE TABLE `orders` (
`id` INT NOT NULL,
`price` DECIMAL(10,2) NOT NULL,
PRIMARY KEY (`id`)
);

-- 插入数据
INSERT INTO `orders` (`id`, `price`) VALUES (1, 4.00);
INSERT INTO `orders` (`id`, `price`) VALUES (2, 100.00);

-- 创建 shipments 表
CREATE TABLE `shipments` (
`id` INT NOT NULL,
`city` VARCHAR(255) NOT NULL,
PRIMARY KEY (`id`)
);

-- 插入数据
INSERT INTO `shipments` (`id`, `city`) VALUES (1, 'beijing');
INSERT INTO `shipments` (`id`, `city`) VALUES (2, 'xian');

-- 创建 products 表
CREATE TABLE `products` (
`id` INT NOT NULL,
`product` VARCHAR(255) NOT NULL,
PRIMARY KEY (`id`)
);

-- 插入数据
INSERT INTO `products` (`id`, `product`) VALUES (1, 'Beer');
INSERT INTO `products` (`id`, `product`) VALUES (2, 'Cap');
INSERT INTO `products` (`id`, `product`) VALUES (3, 'Peanut');

Doris创建数据库:

bash 复制代码
create database app_db;

2、下载flink-cdc-3.0.1压缩包

3、解压,并将文件夹改名为flink-cdc

bash 复制代码
tar -zxvf flink-cdc-3.0.1-bin.tar.gz
mv flink-cdc-3.0.1 flink-cdc

4、下载以下两个jar包放入flink-cdc的lib文件夹下
flink-cdc-pipeline-connector-mysql-3.0.1.jar
flink-cdc-pipeline-connector-doris-3.0.1.jar

5、进入文件夹,新建mysql-to-doris.yaml文件:

bash 复制代码
cd flink-cdc
vim mysql-to-doris.yaml
bash 复制代码
source:
  type: mysql
  hostname: localhost
  port: 3306
  username: root
  password: 123456
  tables: app_db.\.*
  server-id: 5400-5404
  server-time-zone: Asia/Shanghai

sink:
  type: doris
  fenodes: 127.0.0.1:8030
  username: root
  password: ""
  table.create.properties.light_schema_change: true
  table.create.properties.replication_num: 1

pipeline:
  name: Sync MySQL Database to Doris
  parallelism: 2

6、最后,提交任务到 Flink 服务

将fllink-cdc复制入Flink容器内再运行:

bash 复制代码
docker cp flink-cdc jm:/opt

进入容器

bash 复制代码
docker exec -it jm /bin/bash

返回上一级文件夹,可以看到flink-cdc已被复制进来

进入flink-cdc文件夹下运行flink-cdc:

bash 复制代码
cd flink-cdc
bash 复制代码
bash bin/flink-cdc.sh mysql-to-doris.yaml

7、验证运行成功

更改Mysql中数据或表结构,Doris中同步进行了修改

八、DolphinScheduler

参考文档

相关推荐
Acrelhuang2 小时前
覆盖全场景需求:Acrel-1000 变电站综合自动化系统的技术亮点与应用
大数据·网络·人工智能·笔记·物联网
忙碌5442 小时前
智能应用开发指南:深度学习、大数据与微服务的融合之道
大数据·深度学习·微服务
萤丰信息2 小时前
智慧园区系统:开启园区管理与运营的新时代
java·大数据·人工智能·安全·智慧城市·智慧园区
Q26433650233 小时前
【有源码】基于Hadoop+Spark的起点小说网大数据可视化分析系统-基于Python大数据生态的网络文学数据挖掘与可视化系统
大数据·hadoop·python·信息可视化·数据分析·spark·毕业设计
洞见新研社3 小时前
家庭机器人,从科幻到日常的二十年突围战
大数据·人工智能·机器人
筑梦之人5 小时前
Spark-3.5.7文档2 - RDD 编程指南
大数据·分布式·spark
艾莉丝努力练剑6 小时前
【C++:红黑树】深入理解红黑树的平衡之道:从原理、变色、旋转到完整实现代码
大数据·开发语言·c++·人工智能·红黑树
ImproveJin6 小时前
Flink Source源码解析
大数据·flink
PONY LEE6 小时前
Flink Rebalance触发乱序的问题
大数据·flink
snowful world6 小时前
实验四 综合数据流处理-Storm案例实现
大数据·storm