背景
在车联网场景中,数采平台需要实时接收数百至上千辆车辆的上报数据,涵盖实时遥测、心跳、故障、状态变更等多种消息类型。每辆车按 10~30 秒间隔上报,千辆车并发意味着每秒需要处理数十到上百条 MQTT 消息,且每条消息需经过解码、去重、存储、规则评估等多个环节。
本文结合一个 Go 语言实现的车辆数据采集平台,分享 MQTT 消息处理链路中的高并发设计实践。
整体架构
数据从车载终端到最终落库的链路如下:
车载终端 → EMQX → collector(订阅/解码/分发) → [state, storage, rule]
核心设计原则:
- 入口简单:设备只感知 EMQX,不感知内部架构
- 处理解耦:collector 不直接写业务逻辑,通过标准事件模型分发给下游模块
- 可水平扩展:EMQX 共享订阅支持多 collector 实例并行消费
关键设计
1. 共享订阅实现多实例负载均衡
EMQX 的共享订阅(Shared Subscription)是实现多 collector 实例并行消费的核心机制。订阅时在 topic 前加上 $share/<group>/ 前缀:
go
// mqtt_client.go
func (p *pahoClient) Subscribe(topics []string, qos byte, handler func(RawMessage)) error {
for _, topic := range topics {
subTopic := topic
if p.sharedGroup != "" {
subTopic = fmt.Sprintf("$share/%s/%s", p.sharedGroup, topic)
}
// 订阅 subTopic,如 $share/tbox-collect/atlas/+/realtimedata
}
}
效果:同一个 topic 下的消息会被 EMQX 轮询分配到同组内的不同 collector 实例,实现无状态水平扩展。当前配置的共享组名为 tbox-collect,后续新增实例无需修改配置。
2. Redis Stream 持久化队列:避免内存消息丢失
问题
纯内存通道(chan RawMessage)在进程重启时会丢失未处理的消息。对于车辆遥测数据,丢失意味着历史数据出现缺口。
方案
引入 Redis Stream 作为持久化缓冲层。MQTT 回调不再直接投递到内存 channel,而是通过 XADD 写入 Redis Stream:
go
// collector.go
func (c *Collector) onMessage(msg RawMessage) {
if c.streamIngress != nil {
// 路径 A:Redis Stream 持久化
c.streamIngress.Enqueue(ctx, msg.Topic, msg.Payload, msg.QoS, msg.ReceivedAt)
return
}
// 路径 B:内存 channel(开发/轻量环境)
select {
case c.msgCh <- msg:
default:
c.log.Warn("collector queue full, dropping message")
}
}
消费端使用单协程 XREAD 顺序消费,保证严格 FIFO,处理成功后 XDEL 删除:
go
// ingress.go - 核心消费循环
func (i *Ingress) RunSequential(ctx context.Context, process func(context.Context, Delivery) error) {
afterID := "0-0"
for {
streams, _ := i.rdb.XRead(ctx, &redis.XReadArgs{
Streams: []string{i.stream, afterID},
Count: 1,
Block: i.cfg.Block,
}).Result()
// 处理每条消息,成功后推进游标
for _, msg := range st.Messages {
if err := process(ctx, d); err != nil {
continue // 失败不推进,重启后重新处理
}
afterID = msg.ID
}
}
}
关键细节:
- 遥测数据(高频)攒批写入 ClickHouse 后批量
XDEL,避免逐条删除的性能开销 - 故障、心跳等低频数据在同步落库成功后立即
XDEL - 处理失败的消息不会被删除,进程重启后自动重新消费
- Stream 设置
MAXLEN ~10000近似裁剪,防止内存无限增长
3. 统一事件模型与分发器设计
标准事件类型
所有 MQTT 消息解码后转换为统一的标准事件:
| 消息类型 | 事件结构 | 下游分发目标 |
|---|---|---|
realtimedata |
VehicleTelemetryEvent |
state + storage + rule |
truckstatus |
VehicleStatusEvent |
state + rule |
heatbeat |
HeartbeatEvent |
state + storage |
fault_event |
FaultEvent |
state + storage + rule |
event |
RawEvent |
storage + rule |
分发器接口
通过接口解耦 collector 与下游模块:
go
type EventDispatcher interface {
Dispatch(ctx context.Context, event interface{}) error
DispatchTelemetry(ctx context.Context, event *TelemetryDispatch) error
DispatchFault(ctx context.Context, event *FaultDispatch) error
// ...
}
ModuleDispatcher 根据事件类型调用对应的下游处理器(StateHandler / StorageHandler / RuleHandler),每个处理器的错误独立记录,互不影响。
4. Protobuf / JSON 双模式解码
车端协议存在 Protobuf 和 JSON 两种编码格式。解码策略:
- 优先尝试 Protobuf 解码(通过注册表查找对应消息类型的解码器)
- Protobuf 失败时降级为 JSON 解码(配置项
json_fallback: true) - 解码失败记录到 ClickHouse 的
dwd_vehicle_decode_error表,方便回溯排查
go
func (d *StandardDecoder) Decode(ctx context.Context, meta EventMeta, payload []byte) (interface{}, error) {
if d.cfg.ProtoEnabled {
if decoder, ok := d.protoDecoders[meta.MessageType]; ok {
event, err := decoder.Decode(ctx, meta, payload)
if err == nil {
return event, nil
}
if !d.cfg.JSONFallback {
return nil, err
}
}
}
return d.jsonDecoder.Decode(ctx, meta, payload)
}
5. 消息去重:基于时间窗口的滑动去重
车辆在弱网环境下可能重发消息。去重逻辑基于 VIN + MessageType + Payload哈希 生成去重键,在一个可配置的时间窗口内(默认 5 秒)判定重复:
go
func (c *Collector) processIncoming(ctx context.Context, msg RawMessage) error {
if c.config.DedupEnabled {
key := buildDedupKey(meta, msg.Payload)
dup, _ := c.deduper.IsDuplicate(ctx, key, c.config.DedupWindow)
if dup {
return c.deleteStreamEntries(ctx, msg.RedisStreamID)
}
}
// ... 解码和分发
}
去重器通过接口抽象,支持内存实现(MemoryDeduper,适合小规模)和 Redis 实现(适合多实例共享状态)。
6. 遥测攒批写入与异步 Flush
遥测数据是最高频的消息类型。每条实时写入 ClickHouse 会产生大量小 batch,吞吐低下。方案:
- 内存缓冲区攒批,达到阈值(默认 40 条)或空闲超时(默认 10 秒)时触发异步 flush
- flush 时浅拷贝缓冲区,在后台协程执行批量写入,不阻塞采集链路
- 写入失败时将数据重新放回缓冲区,配合重试机制(指数退避,最多 3 次)
go
func (s *StorageWriter) WriteTelemetry(ctx context.Context, telemetry *models.VehicleTelemetryEvent, streamID string) error {
s.mu.Lock()
s.telemetryBuffer = append(s.telemetryBuffer, bufferedTelemetry{ev: telemetry, streamID: streamID})
should := s.shouldFlush() // 条件:buffer >= 40 或空闲 >= 10s
s.mu.Unlock()
if should {
s.flushTelemetryAsync() // 异步 flush,不阻塞调用方
}
return nil
}
7. 动态 Topic 订阅管理
生产环境中需要支持新增或停用消息类型,但不应重启服务。平台通过数据库管理订阅配置,collector 定时刷新(默认 60 秒):
go
func (c *Collector) refreshRoutes(ctx context.Context) {
routes, _ := c.config.RouteStore.LoadEnabled(ctx)
added, removed := c.config.RouteRegistry.Refresh(routes)
// 动态取消已停用的 topic
if len(removed) > 0 {
c.mqtt.Unsubscribe(removed)
}
// 动态订阅新增的 topic
if len(added) > 0 {
c.mqtt.Subscribe(added, c.config.QoS, c.onMessage)
}
}
降级策略:数据库不可用时依次回退到注册表缓存 → 配置文件 → 硬编码默认值。
可观测性
全链路通过 Prometheus 指标监控:
| 指标 | 用途 |
|---|---|
tbox_collect_mqtt_messages_received_total |
按 topic 统计消息接收量 |
tbox_collect_mqtt_decode_duration_seconds |
解码耗时分布(直方图) |
tbox_collect_mqtt_dispatch_duration_seconds |
分发耗时分布 |
tbox_collect_mqtt_queue_length |
内存队列积压深度 |
tbox_collect_state_vehicles_online |
在线车辆数 |
tbox_collect_mqtt_redis_stream_enqueue_total |
Redis Stream 入队次数 |
配合 Grafana 面板,可以实时观察消息处理瓶颈、队列积压和车辆在线状态。
经验总结
| 决策 | 理由 |
|---|---|
| Redis Stream 而非纯内存队列 | 进程重启不丢数据,成本远低于引入 Kafka |
| 单协程 XREAD 顺序消费 | 避免并发消费带来的顺序性问题,当前规模下吞吐足够 |
| 遥测攒批 40 条异步 flush | 平衡实时性与写入吞吐,ClickHouse 批量写入性能远优于逐条 |
| Protobuf 优先 + JSON 降级 | 兼顾新终端(Protobuf)和老终端(JSON),平滑迁移 |
| 接口抽象(Decoder / Deduper / EventDispatcher) | 为未来扩展预留空间(如 Kafka 替换 Redis Stream) |
后续演进
当前架构支撑千辆级规模。当车辆规模和消息量持续增长时,计划在 collector 与下游模块之间引入 Kafka 事件总线:
EMQX → collector → Kafka → [storage, rule, state]
得益于统一事件模型和接口抽象,这一演进只需替换消息分发层,核心处理逻辑无需修改。