论文阅读_Citrus_在医学语言模型中利用专家认知路径以支持高级医疗决策

英文名称:Citrus: Leveraging Expert Cognitive Pathways in a Medical Language Model for Advanced Medical Decision Support

中文名称:Citrus:在医学语言模型中利用专家认知路径以支持高级医疗决策

链接: http://arxiv.org/pdf/2502.18274v2

代码: https://github.com/jdh-algo/Citrus

作者: Guoxin Wang, Minyu Gao, Shuai Yang, Ya Zhang, Lizhi He, Liang Huang, Hanlin Xiao, Yexuan Zhang, Wanyue Li, Lu Chen, Jintao Fei, Xin Li

机构: JD Health International Inc

日期:2025-02-25

1 摘要

  • 目标:介绍 Citrus,一个医学语言模型,旨在模拟医疗专家的认知过程,以改善医学推理任务。
  • 方法:通过新颖的方法训练模型,使用模拟专家疾病推理数据,捕获临床医生的决策路径,同时发布自定义医学诊断对话数据集以支持研究。
  • 结论:在 MedQA 等权威基准评估中,Citrus 表现优于其他同类模型,展现出增强医学决策支持系统的潜力,使临床决策更加准确和高效。

2 读后感

京东出品,目标是提升线上医药服务。效果与当前顶尖模型相当,训练时生成了部分数据,并开源了 SFT 阶段的数据。

3 方法

训练过程包括三个主要阶段:持续预训练(Continuous Pre-Training,CPT)、监督微调(Supervised Fine-Tuning,SFT)和强化学习(Reinforcement Learning,RL)。以下是这三个阶段的主要内容提炼:

3.1 持续预训练(CPT)

  • 目的
    增强模型对医学领域知识的理解,使其能够进行模式识别。

  • 数据来源

  • 网络数据(Web Data)。

  • 医学教材(Medical Textbooks)。

  • 医学指南和文献(Medical guidelines and literature)。

  • 数据处理
    使用自然语言处理技术(如实体识别、关系提取和文本分类)进行数据清洗和标注。

  • 对 PDF 文档使用计算机视觉解决方案进行处理。

  • 对医学教材数据应用数据增强技术,以扩充训练数据。

  • 训练方法

  • 使用 AutoML 方法动态调整不同数据源的比例,将数据比例问题视为多臂老虎机问题,以训练损失作为奖励信号,动态选择数据源,提高训练效率。

3.2 监督微调(SFT)

  • 目的
    进一步提升模型的医学推理能力,使其能够进行复杂推理。

  • 数据来源

  • 第一阶段(Stage-1):约 700 万条基础指令数据,用于提升模型的简单指令跟随能力。

  • 第二阶段(Stage-2):约 140 万条更复杂、高质量的指令数据,用于提升模型的多轮对话处理和复杂指令跟随能力。

  • 第三阶段(Stage-3):约 6 万条医学推理数据,通过"双专家推理方法"合成,用于提升模型的长链推理(Long Chain-of-Thought,COT)能力。

  • 训练方法

  • 第一阶段和第二阶段主要提升模型的通用推理能力。

  • 第三阶段使用合成的医学推理数据,训练模型在医学领域进行长链推理。数据格式为 <sft-input, sft-target>,其中 sft-input 是开放性问题,sft-target 包含推理过程(<think>)和最终结论(<answer>)。

3.3 强化学习(RL)

  • 目的
    进一步提升模型的推理能力和输出质量。

  • 数据来源

  • 使用经过 SFT 训练后的模型进行拒绝采样(Rejection Sampling),生成约 5 万对偏好数据。

  • 训练方法

  • 使用 SimPO(Simple Preference Optimization)和 CPO(Conservative Policy Optimization)方法进行离线强化学习。

  • SimPO 通过模型生成的平均对数概率作为隐式奖励,避免了对参考模型的依赖,并通过长度归一化防止模型偏向生成过长但质量低的回答。

  • CPO 通过引入 NLL 损失提高训练稳定性。

  • 数据格式为 <RL-input, chosen, rejected>,其中 RL-inputsft-input 格式相同,chosenrejected 分别对应模型生成的优质回答和劣质回答。

4 模型效果

4.1 与其它模型相比

4.2 训练前后比较

相关推荐
崔高杰2 小时前
On the Biology of a Large Language Model——Claude团队的模型理解文章【论文阅读笔记】其二——数学计算部分
论文阅读·人工智能·笔记·语言模型·nlp
墨绿色的摆渡人3 小时前
论文笔记(八十)π0.5: a Vision-Language-Action Model with Open-World Generalization
论文阅读
墨绿色的摆渡人4 小时前
论文笔记(七十九)STOMP: Stochastic Trajectory Optimization for Motion Planning
论文阅读
寻丶幽风4 小时前
论文阅读笔记——ZeroGrasp: Zero-Shot Shape Reconstruction Enabled Robotic Grasping
论文阅读·笔记·深度学习·机器人·机械臂·具身智能
L-含光承影4 小时前
【第三十三周】BLIP论文阅读笔记
论文阅读·计算机视觉·多模态
X.Cristiano5 小时前
华为 MRAG:多模态检索增强生成技术论文阅读
论文阅读·mrag
0x2115 小时前
[论文阅读]Practical Poisoning Attacks against Retrieval-Augmented Generation
论文阅读
0x21111 小时前
[论文阅读]REPLUG: Retrieval-Augmented Black-Box Language Models
论文阅读·人工智能·语言模型
崔高杰20 小时前
On the Biology of a Large Language Model——Claude团队的模型理解文章【论文阅读笔记】其一CLT与LLM知识推理
论文阅读·人工智能·笔记·语言模型·自然语言处理