1. PyFlink UDF 两大类型:逐行 vs 批量(Pandas)
PyFlink 目前支持两种 Python UDF:
-
通用 Python UDF(general UDF) :一行一行处理(row-at-a-time)
适合:逻辑分支多、复杂字符串处理、规则引擎、需要逐行状态/上下文的场景
-
向量化 Python UDF(vectorized / pandas UDF) :一批一批处理(batch-at-a-time)
适合:数值计算、批量特征工程、对吞吐要求高的场景(通常更快)
你在声明 UDF 时会看到关键参数 func_type="pandas":有它就是 pandas 模式,没有就是逐行模式。
2. 生产必看:Bundling UDFs(否则远端集群必炸)
文档里有一句非常"血泪教训级"的提醒:
只要不是 local mode,并且你的 UDF 定义不在 main() 所在文件里,强烈建议用
python-files打包你的 UDF 代码,否则会遇到:
ModuleNotFoundError: No module named 'my_udf'
2.1 为什么会 ModuleNotFoundError?
因为远端 TaskManager / Python worker 的执行环境里没有你的本地工程目录 。你在本地能 import my_udf,不代表集群节点也能 import。
2.2 怎么做才稳?
把 UDF 定义文件(例如 my_udf.py)通过 python-files 分发到集群,使其进入 worker 的 PYTHONPATH。
如果你在 TableEnvironment 侧管理依赖,通常也可以用:
table_env.add_python_file(...)table_env.add_python_archive(...)table_env.set_python_requirements(...)
(这些在你前面那篇 TableEnvironment 里已经列过了)
工程建议:
- UDF 单独放
udfs/目录,统一入口udfs/__init__.py - 发布时用 zip/whl/requirements 的方式分发,避免"本地能跑、集群不能跑"
3. UDF 资源预加载:重写 open(),只加载一次模型/字典
很多场景你需要在 UDF 里加载资源(比如模型文件、词典、特征映射表),并且希望:
- 只加载一次
- 后续每条/每批数据都复用这个资源
这时就要重写 UserDefinedFunction.open()。
3.1 示例:只加载一次模型,然后多次预测
python
from pyflink.table.udf import ScalarFunction, udf
from pyflink.table.types import DataTypes
class Predict(ScalarFunction):
def open(self, function_context):
import pickle
# 注意:资源通常通过 add_python_archive/python-files 下发
with open("resources.zip/resources/model.pkl", "rb") as f:
self.model = pickle.load(f)
def eval(self, x):
return self.model.predict(x)
predict = udf(Predict(), result_type=DataTypes.DOUBLE(), func_type="pandas")
落地建议(非常重要):
open()里做"重活"(加载模型/初始化连接/构建索引)eval()里只做"轻活"(计算/推理)- 如果资源体积大,优先用
add_python_archive分发,避免每个算子重复下载
4. 在 open() 里读取作业参数:FunctionContext 的正确打开方式
open() 方法会收到 FunctionContext,可读取:
get_metric_group():当前 subtask 的 metrics 组get_job_parameter(name, default):全局作业参数(强烈推荐做可配置化)
4.1 示例:通过参数控制 hash 因子
python
from pyflink.table.udf import ScalarFunction, udf, FunctionContext
from pyflink.table.types import DataTypes
class HashCode(ScalarFunction):
def open(self, function_context: FunctionContext):
self.factor = int(function_context.get_job_parameter("hashcode_factor", "12"))
def eval(self, s: str):
return hash(s) * self.factor
hash_code = udf(HashCode(), result_type=DataTypes.INT())
设置全局参数并注册函数:
python
t_env = TableEnvironment.create(...)
t_env.get_config().set('pipeline.global-job-parameters', 'hashcode_factor:31')
t_env.create_temporary_system_function("hashCode", hash_code)
t_env.sql_query("SELECT myField, hashCode(myField) FROM MyTable")
生产建议:
- 把可调参数都做成 job parameter(阈值、开关、版本号、规则 ID、模型版本)
- 这样你改参数不一定要改代码(至少更可控、更易回滚)
5. 单元测试:怎么测 UDF 才不依赖 Flink 运行时?
文档给了一个非常实用的技巧:对 lambda/函数式 UDF,udf(...) 返回对象里有 _func 可以拿到原始 Python 函数。
示例:
python
from pyflink.table.udf import udf
from pyflink.table.types import DataTypes
add = udf(lambda i, j: i + j, result_type=DataTypes.BIGINT())
# 单测:抽出原始函数
f = add._func
assert f(1, 2) == 3
工程化建议(更好测):
- 把复杂逻辑提取成纯 Python 函数(可直接 pytest)
- UDF 只是薄薄一层 glue(类型声明 + 调用纯函数)
- 对带
open()的类 UDF,可在单测里直接实例化类,手动模拟必要字段(或构造一个假的 context)
6. 最佳实践清单(按踩坑概率排序)
- 非 local 模式:必须打包/分发 UDF 文件(python-files/add_python_file/add_python_archive)
- 重资源加载:放
open(),不要放eval()里反复加载 - 所有"可调"逻辑:优先用
pipeline.global-job-parameters做配置化 - 高吞吐场景:优先考虑 pandas UDF(但注意 pandas 类型支持限制)
- 可测试性:业务逻辑下沉到纯 Python 函数,UDF 仅做封装