转化BIO命名实体识别(NER)数据格式

文章目录

简介

BIO命名实体标注格式如下:

(数据太多行,只展示一部分数据)

复制代码
可 O
见 O
...
宋 B-PER
神 I-PER
宗 I-PER
时 O
, O
官 O
拜 O
礼 B-ORG
部 I-ORG
郎 O
杨 B-PER
次 I-PER
公 I-PER
...

上述BIO形式数据,通常使用分类算法进行训练。

然而对于一些生成式的模型,无法使用上述数据集。

故本文实现转换BIO数据集为如下形式:

bash 复制代码
['可见牧牛图是根据宋神宗时,官拜礼部郎杨次公的"牧牛颂"而创作的。', [('宋神宗', 'PER'), ('礼部', 'ORG'), ('杨次公', 'PER')]]

提供了列表格式的数据,便于用户修改与自定义转换数据格式。

代码实现

python 复制代码
file = 'data/test.txt'

with open(file, 'r', encoding='utf-8') as f:
    texts = f.read().rstrip()
    data = texts.split('\n\n')
    total = []
    for i in range(len(data)):
        line = data[i].split('\n')
        start, end = 0, 0
        offsets = []  # 存储每个实体的起始下标位置和结束下标位置
        texts = []
        labels = []
        for idx, item in enumerate(line):
            word, label = item.split(' ')
            texts.append(word)
            labels.append(label)
            if label[0] == 'B':
                if start and end:
                    offsets.append((start, end))
                start, end = idx, 0
            if label == 'O':
                if start and not end:
                    end = idx
        if start and end:
            offsets.append((start, end))

        texts = ''.join(texts)
        ents = [
            (texts[start:end], labels[start][2:])
            for start, end in offsets
        ]

        total.append([
            texts,
            ents
        ])

    for line in total:
        print(line)

上述代码的offsets存储的是实体的开始下标和结束下标。若您希望得到实体的下标,请关注offsets变量。

实验

输入:file = 'data/test.txt' 为 BIO数据集的文件路径;

输出:

bash 复制代码
['我们变而以书会友,以书结缘,把欧美、港台流行的食品类图谱、画册、工具书汇集一堂。', [('美', 'LOC'), ('台', 'LOC')]]
['为了跟踪国际最新食品工艺、流行趋势,大量搜集海外专业书刊资料是提高技艺的捷径。', []]
['其中线装古籍逾千册;民国出版物几百种;珍本四册、稀见本四百余册,出版时间跨越三百余年。', []]
...

扩展应用

借助于上述代码将BIO数据,转换为下述格式(该格式为Deepke的命名实体识别格式):

python 复制代码
{"text": "我们变而以书会友,以书结缘,把欧美、港台流行的食品类图谱、画册、工具书汇集一堂。", "entity": [{"entity": "美", "entity_type": "LOC"}, {"entity": "台", "entity_type": "LOC"}]}

代码

实现从文件到文件的转换,方便使用;

bash 复制代码
import json


def convert(input_file, output_file):
    def _iter_data():
        with open(input_file, 'r', encoding='utf-8') as f:
            texts = f.read().rstrip()
            data = texts.split('\n\n')

            for i in range(len(data)):
                line = data[i].split('\n')
                start, end = 0, 0
                offsets = []  # 存储每个实体的起始下标位置和结束下标位置
                texts = []
                labels = []
                for idx, item in enumerate(line):
                    word, label = item.split(' ')
                    texts.append(word)
                    labels.append(label)
                    if label[0] == 'B':
                        if start and end:
                            offsets.append((start, end))
                        start, end = idx, 0
                    if label == 'O':
                        if start and not end:
                            end = idx
                if start and end:
                    offsets.append((start, end))

                texts = ''.join(texts)
                ents = [
                    (texts[start:end], labels[start][2:])
                    for start, end in offsets
                ]

                yield {
                    "text": texts,
                    "entity": [
                        {'entity': entity, 'entity_type': entity_type}
                        for entity, entity_type in ents
                    ]
                }

    with open(output_file, 'w', encoding='utf-8') as f:
        for item in _iter_data():
            f.write(json.dumps(item, ensure_ascii=False) + '\n')


if __name__ == '__main__':
    convert('data/test.txt', 'output/test.json')
相关推荐
DisonTangor4 分钟前
Lumina-DiMOO:用于多模态生成与理解的全扩散大语言模型
人工智能·语言模型·自然语言处理·ai作画·aigc
强哥之神11 小时前
浅谈目前主流的LLM软件技术栈:Kubernetes + Ray + PyTorch + vLLM 的协同架构
人工智能·语言模型·自然语言处理·transformer·openai·ray
闲看云起13 小时前
Bert:从“读不懂上下文”的AI,到真正理解语言
论文阅读·人工智能·深度学习·语言模型·自然语言处理·bert
jerryinwuhan16 小时前
基于大语言模型(LLM)的城市时间、空间与情感交织分析:面向智能城市的情感动态预测与空间优化
人工智能·语言模型·自然语言处理
郭庆汝17 小时前
自然语言处理笔记
笔记·自然语言处理·easyui
只是懒得想了18 小时前
使用 Gensim 进行主题建模(LDA)与词向量训练(Word2Vec)的完整指南
人工智能·自然语言处理·nlp·word2vec·gensim
闲看云起19 小时前
论文阅读《LIMA:Less Is More for Alignment》
论文阅读·人工智能·语言模型·自然语言处理
高洁011 天前
大模型-去噪扩散概率模型(DDPM)采样算法详解
python·深度学习·神经网络·transformer·知识图谱
丁学文武1 天前
大语言模型(LLM)是“预制菜”? 从应用到底层原理,在到中央厨房的深度解析
人工智能·语言模型·自然语言处理·大语言模型·大模型应用·预制菜
JAVA学习通2 天前
发布自己的 jar 包到 Maven 中央仓库 ( mvnrepository.com )
人工智能·docker·自然语言处理·容器·rocketmq