Bert 将长段分成句子放在一个batch输入

bash 复制代码
from nltk.tokenize import RegexpTokenizer

sentence = """Thomas Jefferson began building Monticello at the age of 26."""
# 按照自己的规则进行分词,使用正则分词器
# \w 匹配字母、数字、下划线
# 匹配任何非空白字符
tokenizer = RegexpTokenizer(r'\w+|$[0-9.]+|\S+')
print(tokenizer.tokenize(sentence))

bert的任务 上下句和mask,mask掩码就是需要预测的部分,上下句预测现在基本不用了 mask基本都会加上,mask 可以控制掩住哪里

使用预训练模型时候要注意预训练的权重是在什么类型的数据集上训练的,方面情感分析 可以分为多少个方面类也比较重要

相关推荐
weixin_505154461 分钟前
博维数孪,重塑3D作业指导新时代
人工智能·物联网·3d·智慧城市·数据安全·数字孪生
鼓掌MVP2 分钟前
用 QClaw 创作宝可梦4格漫画的AI 创意应用实践
人工智能
随便写写2 分钟前
第三章 索引构建
人工智能
zzzzzz3104 分钟前
DeepSeek-R1 蒸馏技术解密:如何用小模型超越 GPT-4?
人工智能
啥都鼓捣的小yao4 分钟前
What is Prompt Engineering —— 提示词工程是什么?
人工智能·语言模型·prompt
ZWZhangYu6 分钟前
【Gradio系列】使用 Gradio 快速构建机器学习图像分类实战
人工智能·机器学习·分类
大字明6 分钟前
04 构建你的第一个 AI Agent
人工智能
溪饱鱼7 分钟前
如何节省OpenClaw 80%的Token消耗
人工智能·aigc·ai编程
羽翼安全8 分钟前
终端电脑视觉感知防拍屏软件 视觉感知防拍照软件
人工智能
霖大侠9 分钟前
Towards Generalizable Scene Change Detection
人工智能·深度学习·机器学习