Bert快速入门

Python 语言 BERT 入门:让我们一起"吃透"BERT

1. 什么是 BERT?

BERT(Bidirectional Encoder Representations from Transformers)是 Google 提出的预训练语言模型,它通过双向编码器理解文本中的上下文信息,帮助我们更好地理解语言。BERT 的设计使其在处理复杂语言任务时,能够有效捕捉单词的语境含义。

BERT 的应用场景:

BERT 是 NLP(自然语言处理)领域的一个突破性工具,它能够做很多有用的事情,包括:

  • 文本分类:如情感分析、垃圾邮件分类等。
  • 命名实体识别(NER):从文本中提取人物、地点、时间等实体。
  • 问答系统:回答基于文章内容的问题。
  • 自然语言推理(NLI):判断两个句子之间的关系。
  • 文本生成:例如对话生成、文章自动写作等。

2. BERT 入门篇:我们要做什么?

在这一部分,我们将通过几个经典的 NLP 任务来展示 BERT 的强大能力:

  1. 情感分析:判断电影评论是积极还是消极。
  2. 命名实体识别:从文本中提取出关键的实体,如人名、地点名等。
  3. 问答系统:基于提供的文本来回答问题。

这些案例是 BERT 在 NLP 中的经典应用,能够帮助你了解如何使用 BERT 解决实际问题。

3. 安装依赖

首先,确保安装了以下 Python 库:

复制代码
pip install transformers torch

4. 使用 BERT 进行文本分类

4.1 情感分析:判断电影评论是积极还是消极

我们将用一个简单的电影评论数据集,展示如何用 BERT 进行情感分析。

python 复制代码
from transformers import BertTokenizer,BertForSequenceClassification
import torch

#加载Bert tokenizer和模型
tokenize = BertTokenizer.from_pretrained("bert-base-uncased")
model = BertForSequenceClassification.from_pretrained('bert-base-uncased')

#输入文本
text = "The movie was absolutely amazing!"

#编码文本
inputs = tokenize(text,return_tensors="pt",padding=True,truncation=True,max_length=512)

#推理
with torch.no_grad():
    outputs = model(**inputs)

logits = outputs.logits
probs = torch.nn.functional.softmax(logits,dim=-1)

#输出检测结果
print(f"Predicted probabilities:{probs}")

4.2 命名实体识别(NER)

接下来,我们将用 BERT 来进行命名实体识别,从文本中提取出人物、地点等信息。

python 复制代码
from transformers import BertForTokenClassification,BertTokenizer
import torch


# 加载预训练的NER模型
ner_model = BertForTokenClassification.from_pretrained("dbmdz/bert-large-cased-finetuned-conll03-english")
ner_tokenizer = BertTokenizer.from_pretrained("dbmdz/bert-large-cased-finetuned-conll03-english")

# 输入文本
text = "Barack Obama was born in Hawaii."

# 编码文本
inputs = ner_tokenizer(text, return_tensors="pt", padding=True, truncation=True, max_length=512)

# 推理
with torch.no_grad():
    outputs = ner_model(**inputs)

# 获取标签
predictions = outputs.logits.argmax(dim=-1)
labels = ner_tokenizer.convert_ids_to_tokens(predictions[0].tolist())

# 打印识别出的实体
for token, label in zip(text.split(), labels):
    print(f"Token: {token}, Label: {label}")

4.3 问答系统

在这一部分,我们将展示如何使用 BERT 构建一个简单的问答系统,从给定的文本中回答问题。

python 复制代码
from transformers import BertForQuestionAnswering,BertTokenizer
import torch

# 加载预训练的问答模型
qa_model = BertForQuestionAnswering.from_pretrained("bert-large-uncased-whole-word-masking-finetuned-squad")
qa_tokenizer = BertTokenizer.from_pretrained("bert-large-uncased-whole-word-masking-finetuned-squad")

# 输入文本和问题
context = "Barack Obama was born in Hawaii. He was elected president in 2008."
question = "Where was Barack Obama born?"

# 编码问题和上下文
inputs = qa_tokenizer.encode_plus(question, context, return_tensors="pt")

# 推理
with torch.no_grad():
    outputs = qa_model(**inputs)

# 获取答案的起始和结束位置
start_idx = outputs.start_logits.argmax()
end_idx = outputs.end_logits.argmax()

# 获取答案
answer = qa_tokenizer.convert_tokens_to_string(qa_tokenizer.convert_ids_to_tokens(inputs['input_ids'][0][start_idx:end_idx+1]))

print(f"Answer: {answer}")

5. 微调 BERT

在实际使用中,我们通常会根据特定的任务对 BERT 进行微调。微调的核心思想是使用少量的任务特定数据进一步训练 BERT,以便它能更好地适应特定的应用场景。

6. 总结

BERT 是一个强大的 NLP 工具,它可以广泛应用于各种任务,以下是一些典型的应用场景:

  • 情感分析:判断文本是积极的还是消极的。
  • 命名实体识别:识别文本中的人名、地名、组织名等实体。
  • 问答系统:从给定的文本中回答问题。
  • 自然语言推理:判断两个句子之间的关系(比如,是否存在蕴含关系)。

BERT 的强大之处在于它的双向理解能力预训练+微调 的策略,能够适应多种 NLP 任务。而且,由于我们可以使用 transformers 库来加载预训练的模型和 tokenizer,BERT 在实际应用中的部署变得非常简便。

BERT 的实际应用场景:

  1. 搜索引擎:提升搜索结果的相关性和准确度。
  2. 客服自动化:利用问答系统为用户提供实时的客户支持。
  3. 内容推荐系统:分析用户评论的情感,向用户推荐合适的内容。
  4. 医疗领域:从医学文献中自动提取关键信息,比如药品、疾病、治疗方案等。

希望通过这篇文章,你能够对 BERT 的基本使用和应用场景有一个清晰的认识,进一步激发你在 NLP 领域的探索兴趣

相关推荐
哈哈你是真的厉害2 分钟前
CANN生态核心算子库合集:赋能AIGC多模态落地的全链路算力支撑
人工智能·aigc·cann
imbackneverdie2 分钟前
2026国自然申请书模板大改版,科研人员如何应对?
人工智能·自然语言处理·aigc·科研·学术·国自然·国家自然科学基金
哈哈你是真的厉害2 分钟前
驾驭万亿参数 MoE:深度剖析 CANN ops-transformer 算子库的“核武库”
人工智能·深度学习·aigc·transformer
忆~遂愿2 分钟前
CANN ATVOSS 算子库深度解析:基于 Ascend C 模板的 Vector 算子子程序化建模与融合优化机制
大数据·人工智能
喵叔哟10 分钟前
02-YOLO-v8-v9-v10工程差异对比
人工智能·yolo·机器学习
ZH154558913111 分钟前
Flutter for OpenHarmony Python学习助手实战:面向对象编程实战的实现
python·学习·flutter
玄同76512 分钟前
SQLite + LLM:大模型应用落地的轻量级数据存储方案
jvm·数据库·人工智能·python·语言模型·sqlite·知识图谱
L、21812 分钟前
CANN 内存管理深度解析:高效利用显存,突破 AI 推理瓶颈
人工智能
聊聊科技14 分钟前
原创音乐人使用AI编曲软件制作伴奏,编曲用什么音源好听
人工智能
爱吃烤鸡翅的酸菜鱼14 分钟前
CANN ops-nn卷积算子深度解析与性能优化
人工智能·性能优化·aigc