本期,我们更新和优化了实时开发相关功能,为您提供更高效的产品能力。以下为第14期袋鼠云产品功能更新报告,请继续阅读。
功能新增
重点新增内容
支持国际英文版
实时开发平台上线了国际英文版 ,适配全球国家的通用语言体系,消除语言差异带来的使用问题。

任务自定义参数支持项目级、全局参数
任务自定义参数现已支持项目级与全局参数 :在任务参数设置**-** 中映射值中将此任务发布至目标项目时会自动替换原值;同时提供变量参数**** ,可在单个任务内使用,适用于 FlinkSQL IDE 编辑区、FlinkJar 命令行参数、实时采集脚本模式 JSON 及 PyFlink 向导模式入参 ,使用格式为 ${参数名};此外,项目配置 中新增了项目参数管理页面,方便统一维护。

实时采集 MysqlBinlog 采集支持字段过滤
在实时 MySQL Binlog 采集 中,我们新增了敏感字段过滤能力 :在向导模式多表采集场景下,用户可通过高级参数 filterColumns 配置需要过滤的字段(支持表名、字段名正则匹配,格式 " filterColumns ":" tableName.columnName "),目前适用于 Flink 1.16 及以上版本的 MySQL Binlog 采集 ,助力用户满足安全合规需求。

实时采集脚本模式支持 FlinkCDC Yaml 格式
实时采集支持 FlinkCDC Yaml 格式,适用于 Flink 1.16 及以上版本 ,并支持自定义参数使用 ,方便用户直接以原生脚本方式运行代码。

FlinkSQL 向导模式 Kafka 源表支持选择可用元数据
在 FlinkSQL 向导模式 (支持 1.12 、1.16 版本 ),使用 Kafka 源表 时现已支持在 With 中选择可用的 Kafka 元数据参数 。针对 JSON、OGG-JSON、AVRO、CSV、RAW 、Debezium-JSON ,用户可将可用的 Kafka Metadata 配置为运行 SQL 的字段,提升建表灵活性。

运维管理中告警规则支持对应多个告警指标
运维管理告警 能力进一步优化:现在支持单个告警配置多个告警指标 ,对相似告警可统一处理,减少重复配置工作;同时支持在同一维度下设置多条触发规则**** ,只要满足任意一条即可触发告警,帮助用户更高效地进行运维监控。

元数据管理 HiveMetaStore 支持 Hive3.1 适配
完成元数据管理Catalog 对 HiveMetaStore 的 Hive 3.1 版本适配**** ,支持 Flink 1.16**** ,并在数据源中心新增 HiveMetaStore 3.x 类型。该版本可在 Hadoop 3.x 集群 中运行,支持认证方式开启 Kerberos 和非开启 Kerberos 的情况,同时支持 Hive 3.x 下的 Paimon 湖格式 ,为用户带来更完善的湖仓一体化体验。

底层元数据库适配达梦(DM)
- 通过将底层元数据库全面适配至国产达梦(DM)数据库,助力企业在关键数字基础设施领域的自主可控。
其他新增内容
-
元数据管理支持控制台 Sftp 使用 RSA 认证方式
-
FLinkSQL 支持 hyperbase 9.0 作为维表和结果表适配
-
FLinkSQL 支持 keybyte 9.0 作为维表和结果表适配
-
FLinkSQL 结果表支持 KingBaseESV8R6
-
FLinkSQL 结果表支持 OushuDB 外部表写入
功能优化
重点功能优化说明
实时采集 FLinkCDC 优化支持 Transformer 转换规则
实时采集 FlinkCDC 现已支持 Transformer 转换规则 ,在 Flink 1.16 版本 下可对表字段进行 projection、filter、primary-key、table-options 等级别的灵活转换。

FLinkSQL 支持 FLinkCDC 数据源可视化 Oralce
FlinkSQL 支持对 FlinkCDC Oracle 数据源的可视化支持 ,适用于 Flink 1.16 版本 ,用户可在向导模式下直接配置 Oracle-CDC 。

实时开发平台操作记录至安全审计平台
实时开发平台 完成一系列内部优化:新增操作记录同步至安全审计平台 ,并在列表中支持展示操作结果**、失败原因 及操作对象筛选** ;同时整理并整合历史动作,优化操作对象匹配与搜索条件 ;此外,还修复了数据预览连接信息显示 和页面字符超长展示 等问题,整体执行与审计体验更完善。

FLinkSQL 向导模式源表 Kafka 配置 offset 支持选择 group-offsets
FlinkSQL 向导模式 在配置 Kafka 源表 offset 时,现已支持选择 group-offsets ,适用于 Flink 1.12 与 1.16 版本 ;当未输入 group.id 时,系统会自动设置默认值,使用更便捷。
优化参数模版提示及数据预览功能
参数模板与数据预览功能优化 :更新了参数模板提示语,并在 FlinkSQL 数据开发 中扩展了数据预览能力,现已支持更多数据源,包括 PostgreSQL、KingbaseES、Impala、ClickHouse、TiDB、Kudu、MongoDB 以及 Kafka(结果表) ,让调试与验证更高效。
实时采集适配引擎已完成的数据源插件
实时采集**** 优化支持引擎适配的数据源插件,在 Flink 1.16 版本 下支持 TiDB、OceanBase(MySQL、Oracle 模式)及 PostgreSQL 的间隔轮询采集,进一步完善数据源接入能力。

底层 Engine-plguins 提交流程状态优化
- 内部对 Engine-plguins 提交流程状态优化,解决客户在提交任务的时候在资源不足,网络波动,hdfs 负载过高等场景下会出现状态游离的场景。
-
-
修复场景hdfs负载过高,网络波动导致任务上传 jar 包时间过长超过调度超时时间导致任务游离。
-
修复场景资源不足导致 perjob 任务被提交到 yarn 上之后由于集群没有资源拉起jm 导致任务导致 submit 接口没有返回从而超时。导致任务游离。
-
修复场景资源不足导致 perjob 任务被提交到 yarn 上之后由于集群没有资源拉起jm导致任务导致 submit 接口没有返回,而此时客户对于当前任务进行kill操作导致任务游离。
-
其他功能优化说明
-
实时湖仓一级菜单名称变更为元数据管理**** ;
-
数据开发任务执行按钮体验优化:在 FlinkSQL 数据开发中,任务结果页已移除"开始/停止"按钮,执行中状态仅展示停止按钮,任务停止后则展示**执**行按钮**,操作更直观高效;**
-
实时采集 PGWAL Source 现已支持将数据写入 **Kafka**,并兼容多种数据类型,包括 **JS**ON、JSONB、Array、Geometry(PostGIS 经纬度)及 Enum 类型**,适用于 Flink 1.16 版本,满足更丰富的数据采集需求;**
-
FlinkSQL Oushu 写入内外表切换通过结果表前端配置选择项进行切换,默认使用COPY 导入方式,需在控制台配置 HDFS 参数后支持选择 HDFS 导入切换;
-
FLinkSQL 向导模式支持开启 kerberos 的 hive2 数据源;
-
Kafka 版本适配优化:在项目交付中,Kafka 0.10 与 0.11 版本区分支持,实现 Topic 管理对两版本的创建操作;
-
实时前端页面已完成整体 UI 优化与迁移,为用户带来更清晰流畅的使用体验。