1. PyFlink Metrics 的入口:UDF.open() + MetricGroup
在 Python UDF 里,指标注册通常写在 open():
open():每个并行子任务(subtask)初始化时调用一次eval():每条数据调用(或每批数据调用,取决于 UDF 类型)
所以推荐模式是:
open()里注册指标(Counter/Gauge/Distribution/Meter)eval()里更新指标
示例骨架:
python
from pyflink.table.udf import ScalarFunction
class MyUDF(ScalarFunction):
def open(self, function_context):
mg = function_context.get_metric_group()
# register metrics here
def eval(self, x):
# update metrics here
return x
2. 四类指标类型:Counter / Gauge / Distribution / Meter
PyFlink 支持四种常用指标类型,各自适用场景不同。
2.1 Counter:计数器(最常用)
用途:统计处理条数、错误数、某类事件数等
更新方式:inc() / inc(n) / dec() / dec(n)
python
from pyflink.table.udf import ScalarFunction
class MyUDF(ScalarFunction):
def __init__(self):
self.counter = None
def open(self, function_context):
self.counter = function_context.get_metric_group().counter("my_counter")
def eval(self, i):
self.counter.inc(i) # 示例里用 i 递增
return i
工程建议(更贴近生产):
- 用
inc()统计条数 - 用独立 counter 统计异常:
error_counter.inc()
2.2 Gauge:按需取值(只能是 int)
用途:展示"当前状态值",例如当前缓存大小、最近一条数据长度、队列长度等
注册方式:gauge(name, Callable[[], int])
限制:Gauge 只支持整数
python
from pyflink.table.udf import ScalarFunction
class MyUDF(ScalarFunction):
def __init__(self):
self.length = 0
def open(self, function_context):
function_context.get_metric_group().gauge("my_gauge", lambda: self.length)
def eval(self, i):
self.length = i
return i - 1
工程建议:
- Gauge 的 callable 里不要做重计算,只返回当前值
- 如果你要报 float,通常做放大(比如乘 1000 转 int)或换别的指标类型/外部上报策略
2.3 Distribution:分布统计(sum/count/min/max/mean,只支持 int)
用途:统计某个值的分布特征,比如每条数据大小、处理耗时(毫秒)、某字段长度等
更新方式:update(n: int)
python
from pyflink.table.udf import ScalarFunction
class MyUDF(ScalarFunction):
def __init__(self):
self.distribution = None
def open(self, function_context):
self.distribution = function_context.get_metric_group().distribution("my_distribution")
def eval(self, i):
self.distribution.update(i)
return i - 1
工程建议:
- 用毫秒/字节/长度这种自然 int 的指标最合适
- 如果是耗时,尽量在 Python 内用轻量计时(避免每条数据记录太重)
2.4 Meter:吞吐率(事件/秒,滑动时间窗)
用途:看吞吐趋势,比如每秒处理记录数、某类事件速率
更新方式:mark_event() / mark_event(n)
可配置统计时间窗:默认 60s,可指定 120s 等
python
from pyflink.table.udf import ScalarFunction
class MyUDF(ScalarFunction):
def __init__(self):
self.meter = None
def open(self, function_context):
self.meter = function_context.get_metric_group().meter(
"my_meter", time_span_in_seconds=120
)
def eval(self, i):
self.meter.mark_event(i)
return i - 1
工程建议:
- 一般用
mark_event(1)表示处理 1 条 - 不要把业务字段值当成 event 数随便塞进去,除非它就是"事件个数"
3. 指标分组:add_group() 做业务维度聚合
你可以通过 MetricGroup.add_group(key, value=None) 做分组,形成更清晰的指标层级。
3.1 普通分组(类似 namespace)
python
function_context \
.get_metric_group() \
.add_group("my_metrics") \
.counter("my_counter")
效果:指标会挂在 my_metrics 分组下,避免所有指标挤在一个层级。
3.2 key-value 分组(定义 user variable)
python
function_context \
.get_metric_group() \
.add_group("my_metrics_key", "my_metrics_value") \
.counter("my_counter")
注意点(文档强调):
- 这种写法会创建"用户变量(user variable)"
- 用户变量不能用在 scope formats(也就是不能指望它出现在 scope 格式化模板里)
4. 生产最佳实践:怎么埋点才有用、不拖垮性能?
下面这些是"埋了之后真的能救命"的指标组合(建议你直接套用):
processed_records(Counter):处理总条数error_records(Counter):异常条数(try/except 里 inc)current_cache_size(Gauge):当前缓存/字典大小(如果你在 open 里加载了东西)latency_ms(Distribution):单条处理耗时或某阶段耗时(整数毫秒)throughput_rps(Meter):记录速率(每秒条数)
性能注意:
- 指标更新要轻:Counter/Meter 很轻,Distribution/Gauge callable 也尽量轻
- 不要在 Gauge 的 lambda 里做昂贵计算
- 分组不要做高基数维度(例如把 user_id 当 group value),会导致指标爆炸
5. 一段"可直接用于生产 UDF"的埋点模板
你可以把这段作为自己的标准模板(结构清晰,扩展方便):
- open:注册 metrics
- eval:更新 metrics + 业务处理
(如果你需要,我也可以按你现有的 UDF 样式,给你写一个"带异常计数 + 耗时分布 + 吞吐 meter + 分组"的完整类)