prompt工程

1. 传统NLP方法(如Word2Vec、BERT)
  • 任务目标
    • 意图识别:通过特征提取(如分词、词向量)和分类模型(如SVM、BERT)将输入文本映射到预定义的意图类别。
    • 流程:数据标注 → 特征工程 → 模型训练 → 部署推理。
  • 优点
    • 精度可控,适合结构化任务(如分类、实体识别)。
    • 可解释性强(如BERT的注意力机制可视化)。
  • 缺点
    • 需要大量标注数据(如医疗意图标签)。
    • 领域迁移困难(如从通用文本迁移到医疗场景需重新训练)。
    • 复杂任务(如多步骤推理)需多模型串联。
2. 提示词工程(Prompt Engineering)
2. 优势互补示例
复制代码
# 流程示例:传统方法 + 提示词工程
1. 输入:用户输入"胸痛、呼吸困难持续2小时"。  
2. 预处理:  
   - BERT提取关键症状(chest pain, dyspnea)。  
   - Word2Vec计算症状向量,过滤无关词汇。  
3. 提示词工程:  
   "根据症状({chest pain, dyspnea})推荐科室,要求:  
   若症状持续超过1小时,直接推荐急诊科。"  
4. 输出:急诊科 + 可能疾病(如心肌梗死)。  
  • 任务目标

    • 指令对齐:通过自然语言指令引导大模型(如GPT、LLaMA)生成符合预期的输出(如诊断建议、病历生成)。
    • 流程:设计提示词 → 输入模型 → 调整提示词 → 优化输出。
  • 优点

    • 零样本/少样本学习:无需大量标注数据,直接利用模型的预训练知识。
    • 灵活性:快速适应新任务(如新增"急诊分诊"场景)。
    • 端到端输出:直接生成结构化结果(如诊断报告)。
  • 缺点

    • 输出质量依赖模型的预训练数据和提示词设计。
    • 需要人工迭代优化提示词。
  • 预处理阶段

    • 使用BERT进行症状文本的分词和实体识别(如提取"胸痛""发热"等关键词)。
    • 将结构化结果输入提示词模板,提升模型输入的准确性。
  • 后处理阶段

    • 用Word2Vec计算模型输出与医疗知识库的相似度,验证结果合理性。

1. 优先选择提示词工程的情况

  • 数据敏感场景:医疗数据隐私要求高,无法大规模标注。
  • 快速迭代需求:需快速新增任务(如疫情爆发时新增"新冠症状识别")。
  • 复杂推理任务:需要多步骤逻辑(如症状→疾病→治疗方案推导)。
2. 优先选择传统方法的情况
  • 高精度需求:如药物副作用分类(需严格符合FDA标准)。
  • 实时性要求高:传统模型推理速度更快(如轻量级BERT)。
  • 可解释性要求:需向医生解释决策逻辑(如可视化注意力权重)。
相关推荐
奔跑吧邓邓子17 分钟前
DeepSeek 赋能智能教育知识图谱:从构建到应用的革命性突破
人工智能·知识图谱·应用·deepseek·智能教育
Mantanmu20 分钟前
Python训练day40
人工智能·python·机器学习
ss.li26 分钟前
TripGenie:畅游济南旅行规划助手:个人工作纪实(二十二)
javascript·人工智能·python
小天才才36 分钟前
前沿论文汇总(机器学习/深度学习/大模型/搜广推/自然语言处理)
人工智能·深度学习·机器学习·自然语言处理
新加坡内哥谈技术1 小时前
Meta计划借助AI实现广告创作全自动化
运维·人工智能·自动化
西猫雷婶2 小时前
pytorch基本运算-导数和f-string
人工智能·pytorch·python
Johny_Zhao2 小时前
华为MAAS、阿里云PAI、亚马逊AWS SageMaker、微软Azure ML各大模型深度分析对比
linux·人工智能·ai·信息安全·云计算·系统运维
顽强卖力2 小时前
第二十八课:深度学习及pytorch简介
人工智能·pytorch·深度学习
述雾学java2 小时前
深入理解 transforms.Normalize():PyTorch 图像预处理中的关键一步
人工智能·pytorch·python
武子康2 小时前
大数据-276 Spark MLib - 基础介绍 机器学习算法 Bagging和Boosting区别 GBDT梯度提升树
大数据·人工智能·算法·机器学习·语言模型·spark-ml·boosting