使用LangExtract进行医疗数据提取

介绍

医疗数据中,存在很多自然语言的数据,例如出入院记录、手术记录、疾病既往史等信息,大多数是由医生书写,想要利用上这部分用于后续的科研存在很大的困难,需要我们对文本进行NLP结构化处理。 LangExtract是由谷歌开源的python库,根据自定义指令将大量非结构化文本处理为结构化信息,兼顾灵活性与可追溯性。

示例

下面我们使用一个例子来快速的了解LangExtract的使用

  1. 安装langextract

    pip install langextract

  2. 编写简单的脚本

ini 复制代码
import langextract as lx
import textwrap
import json
import os
 
# 1. 定义简洁的提示语
prompt = textwrap.dedent("""
根据提供的既往史文本,提取疾病名称、病程信息。
疾病名称:提取文本中的疾病名称
病程:提取文本中关于药物或治疗的信息
提取时需使用原文中的确切文字,不得改写,且实体之间不得重叠。
为每个实体提供有意义的属性,以增加上下文信息。
""")
 
# 2. 提供高质量的示例来指导模型
examples = [
    lx.data.ExampleData(
        text=(
            """既往有"高血压"病史10余年,口服"苯磺酸左氨氯地平片1#qd",血压控制尚可。既往有"糖尿病"病史10余年,口服"二甲双胍缓释片1#qd"。既往有"抑郁症"病史10余年,口服"舍曲林1#qd"。"""
        ),
        extractions=[
            lx.data.Extraction(
                extraction_class="既往史",
                extraction_text="既往有"高血压"病史10余年,口服"苯磺酸左氨氯地平片1#qd",血压控制尚可。",
                attributes={
                    "疾病名称": "高血压", 
                    "病程":"口服"苯磺酸左氨氯地平片1#qd""
                },
            ),
            lx.data.Extraction(
                extraction_class="既往史",
                extraction_text="既往有"糖尿病"病史10余年,口服"二甲双胍缓释片1#qd"。",
                attributes={
                    "疾病名称": "糖尿病", 
                    "病程":"口服"二甲双胍缓释片1#qd"""
                },
            ),
            lx.data.Extraction(
                extraction_class="既往史",
                extraction_text="既往有"抑郁症"病史10余年,口服"舍曲林1#qd"。",
                attributes={
                    "疾病名称": "抑郁症", 
                    "病程":"口服"舍曲林1#qd""
                },
            ),
        ],
    )
]
 
# 3. 在输入文本上运行提取
input_text = (
    "糖尿病病史10余年,门冬胰岛素针早10u晚10u皮下注射;高血压病史8年,口服"北京零号"1片1/日,自诉血压控制可;"类风湿性关节炎"病史8年,口服强的松片1片1/日,自诉病情平稳。"
)
result = lx.extract(
    text_or_documents=input_text,
    prompt_description=prompt,
    examples=examples,
    model_id="", # ollama中的模型名称
    model_url="http://127.0.0.1:11434", # ollama接口地址
)
print('--> 结果', result.extractions)

# 4. 保存提取后的信息
output_json = os.path.abspath("extraction_results.json")
manual_data = {
    "extractions": [
        {
            "extraction_class": ext.extraction_class,
            "extraction_text": ext.extraction_text,
            "attributes": ext.attributes
        }
        for ext in result.extractions
    ]
}
with open(output_json, "w", encoding="utf-8") as f:
    json.dump(manual_data, f, ensure_ascii=False)
    f.write("\n")
print(f"✅ 提取完成!结果已保存至: {output_json}")
  1. 查看提取结果
json 复制代码
{
    "extractions": [{
        "extraction_class": "既往史",
        "extraction_text": "糖尿病病史10余年,门冬胰岛素针早10u晚10u皮下注射;",
        "attributes": {
            "疾病名称": "糖尿病",
            "病程": "门冬胰岛素针早10u晚10u皮下注射"
        }
    }, {
        "extraction_class": "既往史",
        "extraction_text": "高血压病史8年,口服"北京零号"1片1/日,自诉血压控制可;",
        "attributes": {
            "疾病名称": "高血压",
            "病程": "口服"北京零号"1片1/日"
        }
    }, {
        "extraction_class": "既往史",
        "extraction_text": ""类风湿性关节炎"病史8年,口服强的松片1片1/日,自诉病情平稳。",
        "attributes": {
            "疾病名称": "类风湿性关节炎",
            "病程": "口服强的松片1片1/日"
        }
    }]
}
  1. 使用qwen的api作为llm进行提取

上面的脚本使用的ollama作为llm接口,如果要使用qwen的api接口,可以选择下面的配置方式

ini 复制代码
from langextract.providers.openai import OpenAILanguageModel
result = lx.extract(
    text_or_documents=input_text,
    prompt_description=prompt,
    examples=examples,
    fence_output=True,
    use_schema_constraints=False,
    model = OpenAILanguageModel(
        model_id='qwen-plus', # 模型名称
        base_url='https://dashscope.aliyuncs.com/compatible-mode/v1', # 接口地址
        api_key='' # 模型密钥
    )
)

总结

langextract的配置非常简单,包含prompt、examples、text_or_documents以及llm的配置即可,能够很方便的指导llm按照指定的要求来提取文本数据,形成标准的结构化数据。

相关推荐
wb043072011 天前
性能优化实战:基于方法执行监控与AI调用链分析
java·人工智能·spring boot·语言模型·性能优化
AAA小肥杨1 天前
基于k8s的Python的分布式深度学习训练平台搭建简单实践
人工智能·分布式·python·ai·kubernetes·gpu
mit6.8241 天前
[Agent可视化] 配置系统 | 实现AI模型切换 | 热重载机制 | fsnotify库(go)
开发语言·人工智能·golang
Percent_bigdata1 天前
百分点科技发布中国首个AI原生GEO产品Generforce,助力品牌决胜AI搜索新时代
人工智能·科技·ai-native
Gloria_niki1 天前
YOLOv4 学习总结
人工智能·计算机视觉·目标跟踪
FriendshipT1 天前
目标检测:使用自己的数据集微调DEIMv2进行物体检测
人工智能·pytorch·python·目标检测·计算机视觉
海森大数据1 天前
三步破局:一致性轨迹强化学习开启扩散语言模型“又快又好”推理新时代
人工智能·语言模型·自然语言处理
Tencent_TCB1 天前
云开发CloudBase AI+实战:快速搭建AI小程序全流程指南
人工智能·ai·小程序·ai编程·云开发
Sunhen_Qiletian1 天前
基于OpenCV与Python的身份证号码识别案例详解
人工智能·opencv·计算机视觉
AustinCyy1 天前
【论文笔记】Introduction to Explainable AI
论文阅读·人工智能