迁移学习--fasttext概述

迁移学习

1、fasttext概述

作为NLP工程领域常用的工具包, fasttext有两大作用:进行文本分类、训练词向量

正如它的名字, 在保持较高精度的情况下, 快速的进行训练和预测是fasttext的最大优势 。fasttext工具包中内含的fasttext模型具有十分简单的网络结构。使用fasttext模型训练词向量时使用层次softmax结构, 来提升超多类别下的模型性能。由于fasttext模型过于简单无法捕捉词序特征, 因此会进行n-gram特征提取以弥补模型缺陷提升精度。

2、fasttext模型架构

FastText 模型架构和 Word2Vec 中的 CBOW 模型很类似, 不同之处在于, FastText 预测标签, 而 CBOW 模型预测中间词。

FastText的模型分为三层架构:

  • 输入层: 是对文档embedding之后的向量, 包含N-gram特征
  • 隐藏层: 是对输入数据的求和平均
  • 输出层: 是文档对应的label

(一)、层次softmax

为了提高效率, 在fastText中计算分类标签概率的时候, 不再使用传统的softmax来进行多分类的计算, 而是使用哈夫曼树, 使用层次化的softmax来进行概率的计算。

(1)、哈夫曼树

当利用n 个结点试图构建一棵树时, 如果构建的这棵树的带权路径长度最小, 称这棵树为"最优二叉树", 有时也叫"赫夫曼树"或者"哈夫曼树"。

权值越大的节点距离根节点也较近。

(2)、构建哈夫曼树

假设有n个权值, 则构造出的哈夫曼树有n个叶子节点. n个权值分别设为 w1、w2、...、wn, 则哈夫曼树的构造规则为:

  • 步骤1: 将w1、w2、..., wn看成是有n 棵树的森林(每棵树仅有一个节点);
  • 步骤2: 在森林中选出两个根节点的权值最小的树合并, 作为一颗新树的左、右子树, 且新树的根节点权值为其左、右子树根节点权值之和;
  • 步骤3: 从森林中删除选取的两棵树, 并将新树加入森林;
  • 步骤4: 重复2-3步骤, 直到森林只有一颗树为止, 该树就是所求的哈夫曼树。
(3)、哈夫曼树编码

哈夫曼编码一般规定哈夫曼树中的左分支为 0, 右分支为 1, 从根节点到每个叶节点所经过的分支对应的 0 和 1 组成的序列便为该节点对应字符的编码。这样的编码称为哈夫曼编码。

(二)、负采样

(1)、策略

减少计算softmax的token数量。

噪声词获取策略:指定拿到噪声词的数量K,每个噪声词token被取为噪声词的概率为
P = f ( t i ) 0.75 ∑ ( f ( t j ) 0.75 ) P=\frac{f(t_i)^{0.75}}{\sum(f(t_j)^{0.75})} P=∑(f(tj)0.75)f(ti)0.75

(2)、优势
  • 提高训练速度, 选择了部分数据进行计算损失, 损失计算更加简单
  • 改进效果, 增加部分负样本, 能够模拟真实场景下的噪声情况, 能够让模型的稳健性更强,泛化能力更强

3、fasttext文本分类

  • 模型训练
python 复制代码
# 进行文本分类任务(有监督)
'''
input:输入的文本
lr:学习率
epoch:训练轮次
wordNgram:n-gram特征
dim:词向量维度
loss:计算损失的方式,默认是softmax,'hs';还可以选择'ova',代表one vs all,改变意味着我们在统一语料下同时训练多个二分类模型
'''
fasttext.train_supervised()
# 进行文本分类任务(无监督)
fasttext.train_unsupervised()
  • 预测
python 复制代码
model.predict('需要预测的内容')

# 返回结果:
# 元组中的第一项代表标签, 第二项代表对应的概率
  • 测试
python 复制代码
model.test('验证集/测试集')

# 返回结果:
# 元组中的每项分别代表, 验证集样本数量, 精度以及召回率
  • 保存模型
python 复制代码
model.save_model('模型存储位置')
  • 重加载模型
python 复制代码
fasttext.load_model('模型存储位置')

4、训练词向量

(一)、训练词向量的过程:

  • 获取数据
  • 训练词向量
  • 模型超参数设定
  • 模型效果检验
  • 模型的保存与重加载

(二)、API

  • 获得指定词汇的词向量
python 复制代码
model.get_word_vector(word='指定词汇')
  • 查找邻近词
python 复制代码
model.get_nearest_neighbors(word='指定词汇')

5、词向量迁移

大型语料库上已经进行训练完成的词向量模型,我们可以直接使用这些模型,或者对模型进行改造。

  • 下载词向量模型压缩的bin.gz文件
  • 解压bin.gz文件到bin文件
  • 加载bin文件获取词向量
  • 利用邻近词进行效果检验
python 复制代码
# 使用gunzip进行解压, 获取cc.zh.300.bin文件
gunzip cc.zh.300.bin.gz
# 加载模型
model = fasttext.load_model("cc.zh.300.bin")
# 使用模型获得'音乐'这个名词的词向量
model.get_word_vector("海鸥")
# 以'音乐'为例, 返回的邻近词基本上与音乐都有关系, 如乐曲, 音乐会, 声乐等
model.get_nearest_neighbors("海鸥")

6、迁移学习

(一)、概述

(1)、预训练模型

一般情况下预训练模型都是大型模型 ,具备复杂的网络结构,众多的参数量,以及在足够大的数据集下进行训练而产生的模型.。

在NLP领域,预训练模型往往是语言模型。因为语言模型的训练是无监督的 ,可以获得大规模语料,同时语言模型又是许多典型NLP任务的基础,如机器翻译,文本生成,阅读理解等,

常见的预训练模型有BERT, GPT, roBERTa, transformer-XL

(2)、微调

根据给定的预训练模型,改变它的部分参数或者为其新增部分输出结构后,通过在小部分数据集上训练,来使整个模型更好的适应特定任务

(3)、两种迁移方式
  • 直接使用预训练模型 ,进行相同任务的处理,不需要调整参数或模型结构 ,这些模型开箱即用。但是这种情况一般只适用于普适任务, 如:fasttest工具包中预训练的词向量模型。另外,很多预训练模型开发者为了达到开箱即用的效果,将模型结构分各个部分保存为不同的预训练模型,提供对应的加载方法来完成特定目标。

  • 更主流的迁移学习方式是发挥预训练模型特征抽象的能力 ,然后再通过微调的方式,通过训练更新小部分参数以此来适应不同的任务。这种迁移方式需要提供小部分的标注数据来进行监督学习。

(二)、NLP中常见的预训练模型

(1)、常见的训练模型

BERT、GPT、GPT-2、Transformer-XL、XLNet、XLM、RoBERTa、DistilBERT、ALBERT、T5、XLM-RoBERTa

(2)、BERT及其变体
  • bert-base-uncased: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在小写的英文文本上进行训练而得到.
  • bert-large-uncased: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共340M参数量, 在小写的英文文本上进行训练而得到.
  • bert-base-cased: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在不区分大小写的英文文本上进行训练而得到.
  • bert-large-cased: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共340M参数量, 在不区分大小写的英文文本上进行训练而得到.
  • bert-base-multilingual-uncased: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在小写的102种语言文本上进行训练而得到.
  • bert-large-multilingual-uncased: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共340M参数量, 在小写的102种语言文本上进行训练而得到.
  • bert-base-chinese: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在简体和繁体中文文本上进行训练而得到.
(3)、GPT

openai-gpt: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 由OpenAI在英文语料上进行训练而得到

(4)、GPT-2及其变体
  • gpt2: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共117M参数量, 在OpenAI GPT-2英文语料上进行训练而得到.
  • gpt2-xl: 编码器具有48个隐层, 输出1600维张量, 25个自注意力头, 共1558M参数量, 在大型的OpenAI GPT-2英文语料上进行训练而得到.
(5)、Transformer-XL

transfo-xl-wt103: 编码器具有18个隐层, 输出1024维张量, 16个自注意力头, 共257M参数量, 在wikitext-103英文语料进行训练而得到

(6)、XLNet及其变体
  • xlnet-base-cased: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共110M参数量, 在英文语料上进行训练而得到.
  • xlnet-large-cased: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共240参数量, 在英文语料上进行训练而得到.
(6)、XLM

xlm-mlm-en-2048: 编码器具有12个隐层, 输出2048维张量, 16个自注意力头, 在英文文本上进行训练而得到

(7)、RoBERTa及其变体
  • roberta-base: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共125M参数量, 在英文文本上进行训练而得到.
  • roberta-large: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共355M参数量, 在英文文本上进行训练而得到.
(8)、DistilBERT及其变体
  • distilbert-base-uncased: 基于bert-base-uncased的蒸馏(压缩)模型, 编码器具有6个隐层, 输出768维张量, 12个自注意力头, 共66M参数量.
  • distilbert-base-multilingual-cased: 基于bert-base-multilingual-uncased的蒸馏(压缩)模型, 编码器具有6个隐层, 输出768维张量, 12个自注意力头, 共66M参数量.
(9)、ALBERT
  • albert-base-v1: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共125M参数量, 在英文文本上进行训练而得到.
  • albert-base-v2: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共125M参数量, 在英文文本上进行训练而得到, 相比v1使用了更多的数据量, 花费更长的训练时间.
(10)、T5及其变体
  • t5-small: 编码器具有6个隐层, 输出512维张量, 8个自注意力头, 共60M参数量, 在C4语料上进行训练而得到.
  • t5-base: 编码器具有12个隐层, 输出768维张量, 12个自注意力头, 共220M参数量, 在C4语料上进行训练而得到.
  • t5-large: 编码器具有24个隐层, 输出1024维张量, 16个自注意力头, 共770M参数量, 在C4语料上进行训练而得到.
(11)、XLM-RoBERTa及其变体
  • xlm-roberta-base: 编码器具有12个隐层, 输出768维张量, 8个自注意力头, 共125M参数量, 在2.5TB的100种语言文本上进行训练而得到.
  • xlm-roberta-large: 编码器具有24个隐层, 输出1027维张量, 16个自注意力头, 共355M参数量, 在2.5TB的100种语言文本上进行训练而得到.

(三)、Transformers库使用

(1)、Transformer库三层应用结构
  • 管道(Pipline)方式:高度集成的极简使用方式,只需要几行代码即可实现一个NLP任务。
  • 自动模型(AutoMode)方式:可载入并使用BERTology系列模型。
  • 具体模型(SpecificModel)方式:在使用时,需要明确指定具体的模型,并按照每个BERTology系列模型中的特定参数进行调用,该方式相对复杂,但具有较高的灵活度。
(2)、编码解码函数
<一>、编码
python 复制代码
tokenizer.encode()
tokenizer.tokenize()
tokenizer.encode_plus()
tokenizer.batch_encode_plus()
tokenizer.convert_tokens_to_ids()
<1>、tokenizer.encode()
python 复制代码
# 1、tokenizer.encode()
# 进行分词和token转换,encode=tokenize+convert_tokens_to_ids
# 单个句子 or 句子列表:分开编码,分开padding,一个句子对应一个向量
# 句子对(pair)和句子元组(tuple):组合编码,统一padding,句子之间用 102 隔开

# 单个句子,默认只返回 input_ids
out = tokenizer.encode(
    text=sents[0],
    truncation=True,
    padding='max_length',
    max_length=20,
    return_tensors='pt'
)
print(out)
print(out.shape)
# exit()

# pair对中的两个句子,合并编码,默认只返回 input_ids
out = tokenizer.encode(
    text=(sents[0], sents[1]),
    truncation=True,
    padding='max_length',
    max_length=20,
    return_tensors='pt',
)
print(out)
print(out.shape)
<2>、tokenizer.tokenize()
python 复制代码
# 2、tokenizer.tokenize()
# 只做分词
out = tokenizer.tokenize(
    text=sents[:2],
    truncation=True,
    padding='max_length',
    max_length=20,
    return_tensors='pt'
)
print(out)
<3>、tokenizer.encode_plus()
python 复制代码
# 3、tokenizer.encode_plus()
# 在encode的基础之上生成input_ids、token_type_ids、attention_mask
# 单个句子编码,默认返回 input_ids、token_type_ids、attention_mask
out = tokenizer.encode_plus(
    text=sents[0],
    truncation=True,
    padding='max_length',
    max_length=20,
    return_tensors='pt'
)
print(out)
# exit()

# pair对,合并编码
# todo 注意 token_type_ids
out = tokenizer.encode_plus(
    text=(sents[0], sents[1]),
    truncation=True,
    padding='max_length',
    max_length=20,
    return_tensors='pt'
)
print(out)
<4>、tokenizer.batch_encode_plus()
python 复制代码
# 4、tokenizer.batch_encode_plus()
# 在encode_plus的基础之上,能够批量梳理文本
# 批量编码
out = tokenizer.batch_encode_plus(
    batch_text_or_text_pairs=sents,
    truncation=True,
    padding='max_length',
    max_length=20,
    return_tensors='pt'
)
print(out['input_ids'].shape)
# exit()


# 批量编码 成对句子
out = tokenizer.batch_encode_plus(
    # pair内编码为一句话,统一padding,列表内分别编码,分别padding
    batch_text_or_text_pairs=[(sents[0], sents[1]), (sents[2], sents[3])],
    truncation=True,
    padding='max_length',
    max_length=20,
    return_tensors='pt'
)
print(out['input_ids'].shape)
<5>、tokenizer.convert_tokens_to_ids()
python 复制代码
# 5、tokenizer.convert_tokens_to_ids()
# convert_tokens_to_ids,将token转化成id,在分词之后。
# convert_ids_to_tokens,将id转化成token,通常用于模型预测出结果,查看时使用。
out = [tokenizer.convert_tokens_to_ids(i) for i in sents[0]]
print(out)
<二>、解码
python 复制代码
tokenizer.decode()
tokenizer.convert_ids_to_tokens()
<1>、tokenizer.decode()
python 复制代码
res1 = tokenizer.decode(out['input_ids'][0])
print(res1)
<2>、tokenizer.convert_ids_to_tokens()
python 复制代码
res2 = [tokenizer.convert_ids_to_tokens(i.item()) for i in out['input_ids'][0]]
print(res2)
(3)、管道方式完成多种NLP任务
<一>、文本分类任务

文本分类是指模型可以根据文本中的内容来进行分类。句子级别的分类。

python 复制代码
# 导入工具包
import torch
from transformers import pipeline
import numpy as np

# 实现情感分析
def text_classcify():
    # 1 定义模型
    model = pipeline(task='sentiment-analysis', model='./model/chinese_sentiment')
    # 2 直接预测
    res = model('我爱北京天安门,天安门上太阳升。')
    print(res)
<二>、特征提取任务

特征抽取任务只返回文本处理后的特征,属于预训练模型的范畴。特征抽取任务的输出结果需要和其他模型一起工作。

python 复制代码
# 实现特征提取,拿到词向量,用于下游任务
def feature_extraction():
    # 1 创建pipline
    model = pipeline(task='feature-extraction', model='./model/bert-base-chinese')
    # 2 模型预测
    res = model('去码头整点薯条')
    print(res)
    print(type(res))
    print(np.array(res).shape)
# 输出结果
# output---> <class 'list'> (1, 9, 768)
# 7个字变成9个字原因: [CLS] 去 码 头 整 点 薯 条 [SEP]
  • 不带任务头输出:特征抽取任务属于不带任务头输出,本bert-base-chinese模型的9个字,每个字的特征维度是768
  • 带头任务头输出:其他有指定任务类型的比如文本分类,完型填空属于带头任务输出,会根据具体任务类型不同输出不同的结果
<三>、完形填空任务

完型填空任务又被叫做"遮蔽语言建模任务",它属于BERT模型训练过程中的子任务。分类任务。

python 复制代码
# 完形填空任务
def fill_mask():
    model = pipeline(task='fill-mask', model='./model/chinese-bert-wwm')
    res = model('我想明天去[MASK]家吃饭。')
    print(res)
    

# 输出结果
# output--->
# [{'score': 0.34331339597702026, 'token': 1961, 'token_str': '她', 'sequence': '我 想 明 天 去 她 家 吃 饭.'},
# {'score': 0.2533259987831116, 'token': 872, 'token_str': '你', 'sequence': '我 想 明 天 去 你 家 吃 饭.'},
# {'score': 0.1874391734600067, 'token': 800, 'token_str': '他', 'sequence': '我 想 明 天 去 他 家 吃 饭.'},
# {'score': 0.1273055076599121, 'token': 2769, 'token_str': '我', 'sequence': '我 想 明 天 去 我 家 吃 饭.'},
# {'score': 0.02162978984415531, 'token': 2644, 'token_str': '您', 'sequence': '我 想 明 天 去 您 家 吃 饭.'}]
<四>、阅读理解任务

阅读理解任务又称为"抽取式问答任务",即输入一段文本和一个问题,让模型输出结果。

python 复制代码
# 阅读理解
def qa():
    context = '我叫张三,我是一个程序员,我的喜好是打篮球。'
    questions = ['我是谁?', '我是做什么的?', '我的爱好是什么?']
    model = pipeline(task='question-answering', model='./model/chinese_pretrain_mrc_roberta_wwm_ext_large')
    res = model(context=context, question=questions)
    print(res)
    
# 输出结果
'''
[{'score': 1.2071758523357623e-12, 'start': 2, 'end': 4, 'answer': '张三'},
 {'score': 2.60890374192968e-06, 'start': 9, 'end': 12, 'answer': '程序员'},
 {'score': 4.1686924134864967e-08, 'start': 18, 'end': 21, 'answer': '打篮球'}]
'''
<五>、文本摘要任务

摘要生成任务的输入一一段文本,输出是一段概况、简单的文字。

python 复制代码
# 5 文本摘要
def summary():
    model = pipeline(task='summarization', model='./model/distilbart-cnn-12-6')
    text = 'BERT is a transformers model pretrained on a large corpus of English data " \
           "in a self-supervised fashion. This means it was pretrained on the raw texts " \
           "only, with no humans labelling them in any way (which is why it can use lots " \
           "of publicly available data) with an automatic process to generate inputs and " \
           "labels from those texts. More precisely, it was pretrained with two objectives:Masked " \
           "language modeling (MLM): taking a sentence, the model randomly masks 15% of the " \
           "words in the input then run the entire masked sentence through the model and has " \
           "to predict the masked words. This is different from traditional recurrent neural " \
           "networks (RNNs) that usually see the words one after the other, or from autoregressive " \
           "models like GPT which internally mask the future tokens. It allows the model to learn " \
           "a bidirectional representation of the sentence.Next sentence prediction (NSP): the models" \
           " concatenates two masked sentences as inputs during pretraining. Sometimes they correspond to " \
           "sentences that were next to each other in the original text, sometimes not. The model then " \
           "has to predict if the two sentences were following each other or not.'
    res = model(text)
    print(res)
    
# 输出结果
output---> [{'summary_text': ' BERT is a transformers model pretrained on a large corpus of English data in a self-supervised fashion . It was pretrained with two objectives: Masked language modeling (MLM) and next sentence prediction (NSP) This allows the model to learn a bidirectional representation of the sentence .'}]
<六>、NER任务

**实体词识别(NER)**任务是NLP中的基础任务。它用于识别文本中的人名(PER)、地名(LOC)、组织(ORG)以及其他实体(MISC)等。例如:(王 B-PER) (小 I-PER) (明 I-PER) (在 O) (北 B-LOC) (京 I-LOC)。其中O表示一个非实体,B表示一个实体的开始,I表示一个实体块的内部。

实体词识别本质上是一个分类任务(又叫序列标注任务:token级别的分类任务),实体词识别是句法分析的基础,而句法分析优势NLP任务的核心。

  • ner(命名实体识别、实体抽取):两阶段 分别是 边界识别 and 实体分类
  • 常见的命名实体:人名、地名、机构名、时间、日期、货币、百分比
  • 句子里边的关键信息,一般由命名实体承载,场景:意图识别、关键词抽取、知识图谱
  • 信息抽取:实体抽取、关系抽取、事件抽取(属性抽取)
python 复制代码
def ner():
    model = pipeline(task='ner', model='./model/roberta-base-finetuned-cluener2020-chinese')
    res = model('特朗普第二次担任了美国总统')
    print(res)
(4)、自动模型方式完成多种NLP任务
  • AutoTokenizer、AutoModelForSequenceClassification函数可以自动从官网下载预训练模型,也可以加载本地的预训练模型
  • AutoModelForSequenceClassification类管理着分类任务,会根据参数的输入选用不同的模型。
  • AutoTokenizer的encode()函数使用return_tensors='pt'参数和不使用pt参数对文本编码的结果不同
  • AutoTokenizer的encode()函数使用padding='max_length'可以按照最大程度进行补齐,俗称打padding
  • 调用模型的forward函数输入return_dict=False参数,返回结果也不同
<一>、文本分类任务
python 复制代码
# 导入工具包
import torch
from transformers import AutoConfig, AutoModel, AutoTokenizer
from transformers import AutoModelForSequenceClassification, AutoModelForMaskedLM, AutoModelForQuestionAnswering
# AutoModelForSeq2SeqLM:文本摘要
# AutoModelForTokenClassification:ner
from transformers import AutoModelForSeq2SeqLM, AutoModelForTokenClassification

# 实现文本分类
def text_classify():
    # chinese_sentiment 是一个5分类
    # 1 加载切词器:分词+word2id(BPE)
    my_tokenizer = AutoTokenizer.from_pretrained('./model/chinese_sentiment')
    # 2 加载模型 
    # SequenceClassification 句子级别的分类
    # TokenClassification token级别的分类
    my_model = AutoModelForSequenceClassification.from_pretrained('./model/chinese_sentiment')
    # 3 准备数据样本句子
    # message = '人生该如何起头'
    # message = '我的人生很灰暗'
    # message = '我的人生很辉煌'
    message = '我不同意你的看法'
    # message = '我对你的看法表示中立'
    # message = '我很同意你的看法'
    # message = '你的看法太棒了,我非常同意'

    # message = ['艾海两只黄鹂鸣翠柳', '一行白鹭上青天']
    # 4 对句子进行编码 encode
    output1 = my_tokenizer.encode(
        message,
        return_tensors='pt',  # 可选 pt(torch tensor) tf(tensorflow) None(list)
        truncation=True,  # 超过 max-len 就进行截断
        padding='max_length',  # True 根据最长的句子进行补齐;'max_length' 根据设置的max_length进行补齐
        max_length=20  # 设置句子的最大长度
    )
    print(output1)
    print(output1.shape)
    # exit()

    # 不设置 pt,返回 list
    output2 = my_tokenizer.encode(
        message,
        # return_tensors='pt',
        truncation=True,
        padding=True,
        max_length=20
    )
    print(output2)

    # 5 使用模型进行预测
    my_model.eval()  # 开启模型预测验证
    result = my_model(output1)
    print(result)
    result2 = my_model(output1, return_dict=False)
    print(result2)

    # 结果分析
    topv, topi = torch.topk(result.logits, k=1, dim=-1)
    print('star', topi.item())
<二>、特征提取任务
python 复制代码
# 特征提取 拿到词向量 句向量
# todo token_type_ids attention_mask
def feature_extraction():
    # 1 加载分词器
    my_tokenizer = AutoTokenizer.from_pretrained('./model/bert-base-chinese')
    print(my_tokenizer)
    # 2 加载模型
    my_model = AutoModel.from_pretrained('./model/bert-base-chinese')
    # 3 准备样本
    message = ['你是谁', '人生该如何起头']
    # 4 样本编码
    output = my_tokenizer.batch_encode_plus(
        message,  # message 句子列表,有多句话,所以用的 batch_encode_plus
        return_tensors='pt',
        truncation=True,
        padding='max_length',  # 不够就补0
        max_length=20,
    )
    # output 一般有3个kv对,input_ids 就是token具体的编码结果 前后加 [CLS] [SEP]
    # 'input_ids': tensor([
    # 		[101, 872, 3221, 6443, 102, 0, 0, 0, 0, 0, 0, 0,
    # 			0, 0, 0, 0, 0, 0, 0, 0
    # 		],
    # 		[101, 782, 4495, 6421, 1963, 862, 6629, 1928, 102, 0, 0, 0,
    # 			0, 0, 0, 0, 0, 0, 0, 0
    # 		]
    # attention_mask 标识 padding 的位置 为 0,正常的有意义的 token 标识为 1
    # 'attention_mask': tensor([
    # 		[1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
    # 		[1, 1, 1, 1, 1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
    # 	])
    # token_type_ids 在一条样本内部,第一个句子标识为 0,第二个句子表示为 1
    # 'token_type_ids': tensor([
    # 		[0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],  # 因为此处只有一个句子,所以只有0
    # 		[0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0]
    # 	]),
    print(output)

    # 5 将数据送入到模型
    my_model.eval()
    res = my_model(**output)
    print(res)
    print(res.last_hidden_state.shape)  # 词向量 ner token级别的分类
    print(res.pooler_output.shape)  # 句向量 文本分类
<三>、完形填空任务
python 复制代码
# 完形填空
def fill_mask():
    # 1 加载分词器
    my_tokenizer = AutoTokenizer.from_pretrained('./model/chinese-bert-wwm')
    print(my_tokenizer)
    # 2 加载模型
    my_model = AutoModelForMaskedLM.from_pretrained('./model/chinese-bert-wwm')
    # 3 准备样本
    message = '我想明天去[MASK]家吃饭'
    # 4 对样本进行编码
    output = my_tokenizer.encode_plus(message, return_tensors='pt')
    print(output)
    # 5 将数据送入模型
    my_model.eval()
    res = my_model(**output).logits  # res.shape=(1,11,vocab_size)
    print(res.shape)
    # res[0][6]:[mask]对应的输出向量,长度vocab_size
    # torch.argmax(res[0][6]) 拿到最大值所在下表索引
    index = torch.argmax(res[0][6]).item()
    print(index)
    # 6 拿到 mask 对应的 token
    token = my_tokenizer.convert_ids_to_tokens(index)
    print(token)
<四>、阅读理解任务
python 复制代码
def qa():
    # 1 加载分词器
    my_tokenizer = AutoTokenizer.from_pretrained('./model/chinese_pretrain_mrc_roberta_wwm_ext_large')
    # 2 加载模型
    my_model = AutoModelForQuestionAnswering.from_pretrained('./model/chinese_pretrain_mrc_roberta_wwm_ext_large')
    # 3 准备语料
    context = '我叫张三 我是一个程序员 我的喜好是打篮球'
    questions = ['我是谁?', '我是做什么的?', '我的爱好是什么?']
    # 4 将数据送入模型
    my_model.eval()
    for question in questions:
        print(question)
        # pair对 进行统一合并编码
        inputs = my_tokenizer.encode_plus(question, context, return_tensors='pt')
        outputs = my_model(**inputs)
        print(outputs)
        # 拿到输出的开始的logit,结束的logit,通过argmax拿到index
        start_index = torch.argmax(outputs.start_logits, dim=-1).item()
        end_index = torch.argmax(outputs.end_logits, dim=-1).item()
        # 来到inputs中做切片, a 是id序列
        a = inputs['input_ids'][0][start_index: end_index + 1]
        # 对 a 进行解码
        res = my_tokenizer.convert_ids_to_tokens(a)
        print(res)
<五>、文本摘要任务
python 复制代码
def summary():
    # 1 加载分词器
    my_tokenizer = AutoTokenizer.from_pretrained('./model/distilbart-cnn-12-6')
    # 2 加载模型
    my_model = AutoModelForSeq2SeqLM.from_pretrained('./model/distilbart-cnn-12-6')
    # 3 准备语料
    # text = "BERT is a transformers model pretrained on a large corpus of English data " \
    #        "in a self-supervised fashion. This means it was pretrained on the raw texts " \
    #        "only, with no humans labelling them in any way (which is why it can use lots " \
    #        "of publicly available data) with an automatic process to generate inputs and " \
    #        "labels from those texts. More precisely, it was pretrained with two objectives:Masked " \
    #        "language modeling (MLM): taking a sentence, the model randomly masks 15% of the " \
    #        "words in the input then run the entire masked sentence through the model and has " \
    #        "to predict the masked words. This is different from traditional recurrent neural " \
    #        "networks (RNNs) that usually see the words one after the other, or from autoregressive " \
    #        "models like GPT which internally mask the future tokens. It allows the model to learn " \
    #        "a bidirectional representation of the sentence.Next sentence prediction (NSP): the models" \
    #        " concatenates two masked sentences as inputs during pretraining. Sometimes they correspond to " \
    #        "sentences that were next to each other in the original text, sometimes not. The model then " \
    #        "has to predict if the two sentences were following each other or not."

    text = 'I have a dream.'

    # 4 把文本进行张量表示
    inputs = my_tokenizer.encode_plus(text, return_tensors='pt')
    # 5 将数据送入模型,进行解码
    my_model.eval()
    outputs = my_model.generate(inputs['input_ids'])
    print(outputs)
    # skip_special_tokens=True 跳过特殊符号 BERT的特殊符号 CLS SEP PAD UNK MASK
    # clean_up_tokenization_spaces=False 是否清理空字符
    res = my_tokenizer.decode(outputs[0], skip_special_tokens=True, clean_up_tokenization_spaces=True)
    print(res)
<六>、NER任务

命名实体识别、实体抽取

python 复制代码
def ner():
    # 1 加载分词器、模型、配置config
    my_tokenizer = AutoTokenizer.from_pretrained('./model/roberta-base-finetuned-cluener2020-chinese')
    my_model = AutoModelForTokenClassification.from_pretrained('./model/roberta-base-finetuned-cluener2020-chinese')
    my_config = AutoConfig.from_pretrained('./model/roberta-base-finetuned-cluener2020-chinese')
    # 2 准备数据,并进行张量化
    text = '我爱北京天安门,天安门上太阳升'
    inputs = my_tokenizer.encode_plus(text, return_tensors='pt')
    print('inputs: ', inputs)
    # 3 将tensor送入到模型,拿到 id-token,因为 inputs 已经添加了特殊符号
    my_model.eval()
    # logits 是模型返回的主要张量,用来做token分类的
    outputs = my_model(**inputs).logits
    # 因为原来的 inputs 已经添加了特殊符号,而特殊符号也需要标签label
    tokens = my_tokenizer.convert_ids_to_tokens(inputs['input_ids'][0])
    print('tokens:', tokens)
    # 4 预测结果
    # 初始化返回结果的列表output_list
    output_list = []
    # 循环遍历 具体的token,及其对应的标签tensor,这个tensor未经过argmax的
    # logit 是一个一维的tensor
    for token, logit in zip(tokens, outputs[0]):
        # 跳过特殊符号
        if token in my_tokenizer.all_special_tokens:
            continue
        index = torch.argmax(logit, dim=-1).item()
        # 根据id拿到具体的标签label
        label = my_config.id2label[index]
        # 封装 token及其标签 进 output_list
        output_list.append((token, label))
    print(output_list)

(四)、微调方式进行迁移学习

(1)、迁移学习的两种类型
  • 直接加载预训练模型进行输入文本的特征表示, 后接自定义网络进行微调输出结果

  • 使用指定任务类型的微调脚本微调预训练模型, 后接带有输出头的预定义网络输出结果

(2)、中文分类
<一>、导包
python 复制代码
import torch
import torch.nn as nn
from torch.utils.data import Dataset, DataLoader
from datasets import load_dataset  # 用来加载数据
from transformers import BertModel, BertTokenizer
from transformers import AdamW
import time
import shutup
<二>、加载分词器和模型
python 复制代码
shutup.please()  # 去掉无意义的警告

# 定义设备
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

# 加载分词器
my_tokenizer = BertTokenizer.from_pretrained('./model/bert-base-chinese')

# 加载模型, my_model对应的下游任务模型
bert_model = BertModel.from_pretrained('./model/bert-base-chinese')
<三>、加载数据
python 复制代码
# 3 使用 load_dataset 加载数据
def file2dataset():
    '''
    load_dataset 3种情况
    情况1 data_files如果传入的是一个字典(不同的类型对应的不同的数据文件,这个类型就是split)
    情况2 如果直接传入数据文件路径,直接写死 split='train' 没有意义了
    情况3 不使用data_files,使用data_dir,那么直接返回一个 dataset dict,根据 key 去检索数据文件 dataset['train]
    '''
    my_files = {
        'train': './data/train.csv',
        'test': './data/test.csv',
        'valid': './data/validation.csv',
    }
    # 加载训练集, load_dataset 三个参数:数据文件格式、文件路径、类型
    train_dataset = load_dataset('csv', data_files=my_files, split='train')
    print(train_dataset[0])
    # 测试集
    test_dataset = load_dataset('csv', data_files=my_files, split='test')
    # 验证集
    valid_dataset = load_dataset('csv', data_files=my_files, split='valid')
    return train_dataset, test_dataset, valid_dataset
<四>、对同一批次的数据做标准化
python 复制代码
# 4 自定义批处理函数, 对一个批次的数据做标准化
def collate_fn(data):
    # data=[{text:xxx, label:1}, {},{},,,]
    # 主要作用:对句子长度进行规范化,规范到统一的标准长度
    sents = [i['text'] for i in data]
    labels = [i['label'] for i in data]
    # print(sents)
    # print(labels)

    inputs = my_tokenizer.batch_encode_plus(
        sents,
        # 是否截断
        truncation=True,
        # padding
        padding='max_length',
        max_length=500,
        # 返回tensor,默认列表
        return_tensors='pt',
        # 返回长度
        return_length=True
    )

    input_ids = inputs['input_ids']
    token_type_ids = inputs['token_type_ids']
    attention_mask = inputs['attention_mask']
    labels = torch.LongTensor(labels)
    return input_ids, token_type_ids, attention_mask, labels
<五>、获得dataloader
python 复制代码
# 5 测试数据集,获得dataloader
def get_dataloader():
    train_dataset = load_dataset('csv', data_files='./data/train.csv', split='train')
    my_dataloader = DataLoader(
        train_dataset,
        batch_size=8,  # 一个 batch 有 8 条样本
        shuffle=True,  # 将数据打乱
        collate_fn=collate_fn,  # 批处理函数,统一句子长度
        drop_last=True,  # 删除最后一个不足一个 batch 的数据
    )

    # 通过 next(iter()) 方法拿到一个batch的数据
    input_ids, token_type_ids, attention_mask, labels = next(iter(my_dataloader))
    # print(input_ids)
    # print(token_type_ids)
    # print(labels)

    return my_dataloader
<六>、自定义下游任务模型
python 复制代码
# 6 自定义下游任务模型
class MyModel(nn.Module):
    def __init__(self):
        super().__init__()
        # 适配下游任务,一个线性层
        self.linear = nn.Linear(768, 2)

    def forward(self, input_ids, token_type_ids, attention_mask):  # 参数均为编码的结果
        # 不对预训练模型的参数更新
        with torch.no_grad():
            # 输出两个值,词向量和句向量
            bert_output = bert_model(input_ids=input_ids,
                                     attention_mask=attention_mask,
                                     token_type_ids=token_type_ids)
        output = self.linear(bert_output.pooler_output)  # 可以不做 softmax,后续有嵌套
        return output
<七>、模型训练
python 复制代码
# 7 模型训练
def train_model():
    # 1 准备物料: 模型、损失函数、优化器、数据
    my_model = MyModel().to(device)
    # 把bert参数固定住
    for param in bert_model.parameters():
        param.requires_grad_(False)
    # CrossEntropyLoss 本身自带 softmax
    my_loss_fn = nn.CrossEntropyLoss(reduction='mean')
    my_adamw = AdamW(my_model.parameters(), lr=3e-4)
    # 拿到数据
    my_dataloader = get_dataloader()
    # 2 开始训练
    my_model.train()
    epochs = 3
    for epoch_idx in range(epochs):
        # 记录开始时间
        start_time = time.time()
        for i, (input_ids, token_type_ids, attention_mask, labels) in enumerate(my_dataloader, start=1):
            input_ids = input_ids.to(device)
            token_type_ids = token_type_ids.to(device)
            attention_mask = attention_mask.to(device)
            labels = labels.to(device)

            # 训练的4步:前向传播、计算损失、损失反向传播、参数更新、梯度清零
            output = my_model(input_ids, token_type_ids, attention_mask)
            loss = my_loss_fn(output, labels)
            loss.backward()
            my_adamw.step()
            my_adamw.zero_grad()

            # 每隔几步 打印日志
            if i % 2 == 0:
                # 根据 argmax 拿到预测值 idx
                tem = torch.argmax(output, dim=-1)
                # 计算准确率,预测正确的 / 总的数量
                acc = (tem == labels).sum().item() / len(labels)
                use_time = time.time() - start_time
                print('当前训练轮次%d,迭代步数%d,损失%.2f,准确率%.2f,时间%d' % (epoch_idx + 1,
                                                                                i,
                                                                                loss.item(),
                                                                                acc,
                                                                                use_time))
        # 每隔epoch保存一次模型
        torch.save(my_model.state_dict(), './save/classify_%d.bin' % (epoch_idx + 1))
<八>、模型评估
python 复制代码
# 9 模型评估
def ceshi_model():
    # 1 准备物料 必要 模型 数据 也可以有损失
    test_dataset = load_dataset('csv', data_files='./data/test.csv', split='train')
    test_dataloader = DataLoader(
        test_dataset,
        batch_size=8,
        shuffle=True,
        collate_fn=collate_fn,
        drop_last=True,
    )
    my_model = MyModel()
    my_model.load_state_dict(torch.load('./save/classify_3.bin'))

    # 2 开始测试
    correct = 0  # 预测正确的样本数量
    total = 0  # 总的样本数量

    # 开启模型验证模式
    my_model.eval()
    # 只需要一个epoch即可
    for i, (input_ids, token_type_ids, attention_mask, labels) in enumerate(test_dataloader, start=1):
        # 数据放到 with torch.no_grad() 执行
        with torch.no_grad():
            output = my_model(input_ids, token_type_ids, attention_mask)
        temp = torch.argmax(output, dim=-1)
        # 把当前batch的预测正确的、总的数量分别加到correct、total
        correct += (temp == labels).sum().item()
        total += len(labels)

        # 打印日志
        if i % 2 == 0:
            print('平均acc:', correct / total)
            text = my_tokenizer.decode(input_ids[0], skip_special_tokens=True)
            print('当前batch第一个原始文本:', text)
            print('模型的预测结果', temp[0])
            print('真是结果是:', labels[0])

    print('模型总的acc:', correct / total)
相关推荐
engchina13 分钟前
如何在 Python 中忽略烦人的警告?
开发语言·人工智能·python
paixiaoxin1 小时前
CV-OCR经典论文解读|An Empirical Study of Scaling Law for OCR/OCR 缩放定律的实证研究
人工智能·深度学习·机器学习·生成对抗网络·计算机视觉·ocr·.net
OpenCSG1 小时前
CSGHub开源版本v1.2.0更新
人工智能
weixin_515202491 小时前
第R3周:RNN-心脏病预测
人工智能·rnn·深度学习
Altair澳汰尔1 小时前
数据分析和AI丨知识图谱,AI革命中数据集成和模型构建的关键推动者
人工智能·算法·机器学习·数据分析·知识图谱
机器之心2 小时前
图学习新突破:一个统一框架连接空域和频域
人工智能·后端
AI视觉网奇2 小时前
人脸生成3d模型 Era3D
人工智能·计算机视觉
call me by ur name2 小时前
VLM--CLIP作分类任务的损失函数
人工智能·机器学习·分类
Python机器学习AI2 小时前
分类模型的预测概率解读:3D概率分布可视化的直观呈现
算法·机器学习·分类
吃个糖糖2 小时前
34 Opencv 自定义角点检测
人工智能·opencv·计算机视觉