命名实体识别(NER)是将非结构化文本中的关键信息(人名、地名、机构名、特定业务字段)结构化提取的关键技术。传统上,这需要AI团队训练模型,且业务规则一变就要重新迭代,周期长、响应慢。

将NER能力以低代码工作流的方式集成,允许业务人员通过可视化方式编排"文本处理流水线",让不懂AI的团队也能自主构建智能文本分类和信息提取应用。本文以 JNPF 平台为例,拆解其技术实现思路。
一、核心架构:模型服务化与流程编排
JNPF低代码实体识别能力,并非将 AI 模型内置到引擎核心,而是采用 "模型即服务"+"可视化编排" 的松耦合架构:
- 模型服务层:底层封装高性能 NER 模型(如基于 Transformer 的 RaNER、BERT-BiLSTM-CRF 等),以 API 或 gRPC 服务形式暴露。支持 GPU 加速,可独立部署和横向扩展。
- 工作流编排层:在 JNPF 的可视化设计器中,将模型调用封装为标准的"AI 节点"。用户拖拽节点、配置参数、连接数据流,即可构建完整的文本处理流水线。
- 数据映射层 :负责将上游数据(如工单文本、客户反馈)转换为模型输入格式,并将模型输出的结构化 JSON 结果,通过字段映射自动写入业务系统的对应字段(如"紧急程度"、"产品类型"、"客户情绪")。
二、可视化工作流构建:从"编码"到"编排"
在 JNPF 中,构建一个工单智能分类流程,不再需要编写 Python 代码调用模型,而是通过拖拽完成:
典型流水线结构:
css
[数据源节点] → [预处理节点] → [实体识别节点] → [规则节点] → [输出节点]
- 数据源节点:支持从多种渠道接入文本数据,如数据库(SQL 查询)、API 请求(企业微信/钉钉回调)、消息队列(Kafka/RabbitMQ)。
- 预处理节点:内置常见文本清洗算子,如去除空格、特殊符号、分词(对接 Jieba/HanLP)、正则提取。
- 实体识别节点 :这是核心。JNPF 将不同类型的 NER 模型封装为可配置节点:
- 关键词匹配节点:基于自定义词典和 AC 自动机算法,实现高速精准匹配,适合产品名、故障码等固定实体。
- 正则表达式节点:通过图形化方式配置正则,用于提取订单号、日期、电话号码等模式固定的实体。
- 深度学习模型节点:调用预训练 NER 模型,识别人名、地名、机构名及复杂语义实体。节点可配置模型版本、温度参数、返回置信度阈值等。
- 规则节点 :利用 JNPF 的规则引擎 ,对上游识别的实体进行逻辑判断,最终决定分类或下一步动作。规则支持图形化配置(决策表、脚本模式),也可手写表达式(如
if 实体.情绪 == '愤怒' && 实体.产品类别 == '手机' then 分类='紧急投诉')。 - 输出节点:将最终结果写入目标系统,如更新数据库字段、调用第三方 API、创建企业微信通知等。
三、关键技术点与性能考量
-
模型服务的工程化封装 将模型部署为独立服务后,JNPF 通过服务注册与发现机制与之对接。在流程设计时,用户只需选择"AI 节点"对应的服务实例,无需关心内部地址和调用细节。节点内部封装了:
- 协议转换:将 JNPF 内部数据格式转换为模型的 gRPC/HTTP 请求。
- 超时与重试:可配置调用超时时间和失败重试策略,避免模型卡死导致整个流程阻塞。
- 批处理优化:对于高并发场景,节点可自动将多条文本合并为一批请求发送给模型,提高吞吐量。
-
异构计算资源调度 NER 模型通常需要 GPU 加速。JNPF 的模型服务层支持异构资源池 ,可将不同模型部署到不同规格的 GPU 机器上。工作流引擎在调用节点时,通过标签路由(如
gpu-type: T4)将请求分发至正确的计算资源。 -
实时测试与调试 这是低代码平台的关键体验。JNPF 设计器右侧常驻测试面板,开发者可随时输入样本数据,点击"运行"查看每个节点的中间输出。
- 数据流追踪:以树形结构展示每个节点的输入/输出,方便定位问题出在清洗、识别还是规则环节。
- 置信度可视化:对于模型识别出的实体,可显示置信度分数,并用颜色高亮,直观判断是否应调整阈值或补充规则。
-
持续迭代与反馈闭环 低代码平台不能"只建不用"。JNPF 内置了反馈收集机制:
- 结果确认:业务人员在处理工单时,可以一键反馈"分类正确/错误",错误样本可自动入库。
- 主动学习:积累的误报/漏报样本,可定期触发模型微调任务,或提示规则维护者补充关键词/调整正则。
- 版本管理:每个流程的修改都生成新版本,支持 A/B 测试,对比新旧版本准确率后再全量发布。
四、与传统开发模式对比
传统 NER 应用开发流程: 需求分析 → 标注数据 → 训练模型 → 编写服务 → 联调测试 → 上线。业务规则变化,重复上述过程。
JNPF 低代码实体识别流程: 业务人员拖拽节点 → 配置规则 → 实时测试 → 发布 API。规则变化,直接修改流程,立即生效。
传统模式下,一个简单的工单分类功能从提出到上线可能需要 2-3 周(含模型训练和前后端开发)。而在 JNPF 上,熟练的业务人员或开发者通常能在 2-4 小时内搭建完成并发布。
五、适用场景与边界
这种低代码实体识别模式尤其适合:
- 知识库构建:从海量文档中自动抽取"产品名"、"问题类型"、"解决方案"等实体,辅助构建知识图谱。
- 客服工单自动化:自动分类、打标签、提取关键信息,并路由到相应处理组。
- 舆情监控:实时分析社交媒体评论,识别提及的实体(品牌、产品)及情感倾向。
但它也有技术边界:
- 极度复杂语义:如需要多层推理、常识判断的场景,纯规则+通用模型可能力有不逮。
- 极低延迟要求:模型调用存在网络和计算开销,不适合毫秒级实时响应场景。
- 特殊领域术语 :如医疗、法律等垂直领域,通用 NER 模型效果有限,需要微调或定制模型。此时 JNPF 的模型服务节点可对接私有化部署的领域模型,以插件形式扩展。
六、结语
将 NER 能力以低代码工作流方式提供,本质上是在 AI 模型的专业壁垒 和 业务敏捷性之间架起一座桥梁。它让模型不再是躺在服务器上的"黑盒 API",而是业务人员手中可随时调整、实时验证的"智能积木"。
在 JNPF 这类平台上,技术团队的角色从"为业务写代码"转变为"封装 AI 能力、治理数据、维护平台",而业务团队则获得了定义和优化智能流程的自主权。这种协作模式,或许是企业落地 AI 能力更高效的一种路径。