StreamPark2.1.7 添加Flink Home 报错 base64 character 2d 解决方法

StreamPark 添加Flink Home 报如下错误:

原因是这个版本本身的bug,没有将flink conf base64 编码,而是直接存到数据库。

1.登录streampark 的数据库 查询 表 t_flink_env 如图,存储的是原始配置路径:

2.登录gitee 找到streampark 的源码类 DeflaterUtils

有两个编解码方法:

java 复制代码
import org.apache.commons.lang3.StringUtils

import java.io.ByteArrayOutputStream
import java.util.Base64
import java.util.zip.{DataFormatException, Deflater, Inflater}
  
def zipString(text: String): String = {
    if (StringUtils.isBlank(text)) return ""
    // compression level (0 ~ 9): low to high
    // create a new deflater with the specified compression level
    val deflater = new Deflater(Deflater.BEST_COMPRESSION)
    // set the compressed input data
    deflater.setInput(text.getBytes)
    deflater.finish()
    val bytes = new Array[Byte](256)
    val outputStream = new ByteArrayOutputStream(256)
    while (!deflater.finished) {
      val length = deflater.deflate(bytes)
      outputStream.write(bytes, 0, length)
    }
    deflater.`end`()
    Base64.getEncoder.encodeToString(outputStream.toByteArray)
  }

  def unzipString(zipString: String): String = {
    val decode = Base64.getDecoder.decode(zipString)
    val inflater = new Inflater
    inflater.setInput(decode)
    val bytes = new Array[Byte](256)
    val outputStream = new ByteArrayOutputStream(256)
    try {
      while (!inflater.finished) { // decompress bytes array to the buffer
        val length = inflater.inflate(bytes)
        outputStream.write(bytes, 0, length)
      }
    } catch {
      case e: DataFormatException =>
        e.printStackTrace()
        return null
    } finally {
      inflater.`end`()
    }
    outputStream.toString
  }

3.将streampark 低版本正常的配置拿过来解码一下,发现是将flink-conf.yaml原文直接编码的,而不是存储路径

  1. 将flink1.20.3 的fink conf 原文使用 zipString base64编码存储到数据库表的t_flink_env.flink_conf 替换原本的路径

5.刷新streamPark 页面,点击配置的flink1.20.3 可以看到ok了

相关推荐
wanhengidc1 分钟前
什么是高性能计算服务器?
大数据·运维·服务器·游戏·智能手机
视***间3 分钟前
视程空间:以技术创新为翼,打造边缘计算全场景解决方案
大数据·人工智能·机器人·边缘计算
TDengine (老段)10 分钟前
煤机设备每天 TB 级数据,天地奔牛用 TDengine 把查询提速到“秒级”
大数据·运维·数据库·struts·架构·时序数据库·tdengine
海域云-罗鹏12 分钟前
AI私有部署方案指南:GPU算力采购与托管选择全解析
大数据·人工智能
MarsLord20 分钟前
ElasticSearch快速入门实战(3)-集群、分片、同步MySQL数据
大数据·elasticsearch·搜索引擎
AC赳赳老秦26 分钟前
DeepSeek助力国产化AI落地:政务/企业场景下的国产算力适配避坑指南
大数据·人工智能·python·prompt·政务·ai-native·deepseek
电商API_1800790524739 分钟前
1688 商品详情 API 深度对接:字段说明、异常处理与性能优化
大数据·服务器·爬虫·数据挖掘·数据分析
热爱专研AI的学妹1 小时前
DataEyes 聚合平台对接 Claude 开发实战:从数据采集到智能分析全流程
大数据·人工智能·阿里云
白鲸开源1 小时前
(三)ODS/明细层落地设计要点:把数据接入层打造成“稳定可运维”的基础设施
大数据·数据结构·数据库
2301_816997881 小时前
Elasticsearch 概述与安装
大数据·elasticsearch·jenkins