大模型agent中怎么做意图识别的?

文章目录

一、做意图识别的目的

在多agent架构中,首先需要通过意图识别技术解析用户输入的真实目的,为后续决策和行动提供基础。

二、怎么做的

  • 把待分类意图固定有限意图集合,
  • 小的分模型做初步判断
  • 针对置信度较低的,直接用大模型兜底
  • **原因:
    • 成本与推理开销问题
    • 响应速度差距大
    • 大模型容易发散、不稳定
    • 边界场景分工,各司其职(80% 简单请求小模型扛住,20% 难例大模型兜底)
    • 安全风控更可控

三、提高准确率的方法:

  1. 样本迭代 + 坏 case 回流
    线上收集识别错误案例,定期迭代微调分类模型、扩充规则词典,持续优化边缘口语、方言化、模糊表述的 case。
  2. 引入上下文连续性判断
    不只用单句识别,结合上一轮对话状态判断意图。
    比如上一轮正在问诊,用户短句回复,就优先判定为症状补充,避免误判成闲聊。
  3. 禁止越界意图 + 强拦截
    对诱导、越狱、非医疗诉求、恶意提问做独立黑名单意图,提前拦截,既提升准确率又兼顾安全。
  4. Prompt 约束 + 结构化输出
    大模型识别时,强制要求输出固定 JSON 意图结果,加角色约束与场景限定,杜绝自由文本输出带来的识别漂移。
相关推荐
python零基础入门小白2 小时前
Transformer、Token、RAG全解析,一篇读懂大模型核心机制!
人工智能·深度学习·学习·语言模型·大模型·transformer·产品经理
高洁014 小时前
AI项目管理实战:从开发到交付的全流程管控
深度学习·机器学习·数据挖掘·transformer·知识图谱
AI-Frontiers5 小时前
transformer系列:#3 深度解析多头注意力
transformer
AIGC安琪5 小时前
Transformer 和 LLM 到底是什么关系?
人工智能·深度学习·ai·语言模型·程序员·大模型·transformer
数智工坊19 小时前
【RT-DETR论文阅读】:首个实时端到端Transformer检测器,DETR正式超越YOLO
论文阅读·yolo·transformer
MATLAB代码顾问20 小时前
Transformer时序预测:PatchTST原理与PyTorch实现
pytorch·深度学习·transformer
YBAdvanceFu1 天前
拆解 MusicGen:Meta 开源音乐大模型,到底是怎么跑起来的?
人工智能·深度学习·机器学习·数据挖掘·transformer·agent·智能体
生物信息与育种1 天前
黄三文院士领衔植物星球计划(PLANeT)发表Cell
人工智能·深度学习·算法·面试·transformer
码农的神经元1 天前
从论文复现到模型升级:Transformer-Attention-WOA-XGBoost 在含新能源配电网故障诊断中的实现
人工智能·深度学习·transformer
庞轩px1 天前
Transformer的核心思想——Attention机制直观理解
人工智能·rnn·深度学习·transformer·attention·q-k-v