大模型agent中怎么做意图识别的?

文章目录

一、做意图识别的目的

在多agent架构中,首先需要通过意图识别技术解析用户输入的真实目的,为后续决策和行动提供基础。

二、怎么做的

  • 把待分类意图固定有限意图集合,
  • 小的分模型做初步判断
  • 针对置信度较低的,直接用大模型兜底
  • **原因:
    • 成本与推理开销问题
    • 响应速度差距大
    • 大模型容易发散、不稳定
    • 边界场景分工,各司其职(80% 简单请求小模型扛住,20% 难例大模型兜底)
    • 安全风控更可控

三、提高准确率的方法:

  1. 样本迭代 + 坏 case 回流
    线上收集识别错误案例,定期迭代微调分类模型、扩充规则词典,持续优化边缘口语、方言化、模糊表述的 case。
  2. 引入上下文连续性判断
    不只用单句识别,结合上一轮对话状态判断意图。
    比如上一轮正在问诊,用户短句回复,就优先判定为症状补充,避免误判成闲聊。
  3. 禁止越界意图 + 强拦截
    对诱导、越狱、非医疗诉求、恶意提问做独立黑名单意图,提前拦截,既提升准确率又兼顾安全。
  4. Prompt 约束 + 结构化输出
    大模型识别时,强制要求输出固定 JSON 意图结果,加角色约束与场景限定,杜绝自由文本输出带来的识别漂移。
相关推荐
code_pgf19 小时前
Mamba-2 / Jamba / DeepSeek-V2 高效架构
架构·transformer
小江的记录本20 小时前
【Transformer架构】Transformer架构核心知识体系(包括自注意力机制、多头注意力、Encoder-Decoder结构)
java·人工智能·后端·python·深度学习·架构·transformer
高洁011 天前
AI算法实战:逻辑回归在风控场景中的应用
人工智能·python·深度学习·transformer
测绘第一深情1 天前
自动驾驶核心技术:BEV 特征 + Transformer 解码器
人工智能·自动驾驶·transformer
测绘第一深情1 天前
Transformer:从基础原理到自动驾驶 BEV 矢量化地图构建
开发语言·人工智能·经验分享·深度学习·机器学习·自动驾驶·transformer
盼小辉丶1 天前
Transformer实战(39)——多模态生成式Transformer
深度学习·transformer·多模态模型
Zzj_tju2 天前
大语言模型技术指南:Transformer 为什么能成为基础架构?核心模块与参数怎么理解
人工智能·语言模型·transformer
Zzj_tju2 天前
大语言模型和视觉语言模型技术指南:从 Transformer 到多模态系统,全景看懂主流路线
人工智能·语言模型·transformer
墨北小七2 天前
BERT在小说大模型中的核心定位:理解者、解码者、守护者
人工智能·深度学习·神经网络·transformer