Bert 将长段分成句子放在一个batch输入

bash 复制代码
from nltk.tokenize import RegexpTokenizer

sentence = """Thomas Jefferson began building Monticello at the age of 26."""
# 按照自己的规则进行分词,使用正则分词器
# \w 匹配字母、数字、下划线
# 匹配任何非空白字符
tokenizer = RegexpTokenizer(r'\w+|$[0-9.]+|\S+')
print(tokenizer.tokenize(sentence))

bert的任务 上下句和mask,mask掩码就是需要预测的部分,上下句预测现在基本不用了 mask基本都会加上,mask 可以控制掩住哪里

使用预训练模型时候要注意预训练的权重是在什么类型的数据集上训练的,方面情感分析 可以分为多少个方面类也比较重要

相关推荐
上进小菜猪22 分钟前
基于 YOLOv8 面向水环境监测的藻类细胞智能识别系统 [目标检测完整源码](YOLOv8 + PyQt5 工程实践)
人工智能
小鸡吃米…27 分钟前
TensorFlow 实现多层感知机学习
人工智能·python·tensorflow
systeminof37 分钟前
智谱发布GLM Coding Plan致歉信:规则透明度不够、GLM-5灰度节奏太慢、老用户升级机制设计粗糙修改标题
人工智能
AI周红伟37 分钟前
周红伟:Qwen3.5-Plus - 企业级部署案例实操,Qwen3.5 LLM,包括 Qwen3.5-397B-A17B
大数据·人工智能·大模型·智能体
永无魇足38 分钟前
人工神经网络(Artificial Neural Network,ANN)
人工智能
憨憨の大鸭鸭1 小时前
今日机器学习
人工智能·机器学习
宝贝儿好1 小时前
【强化学习】第十章:随机高斯策略
人工智能·python·深度学习·神经网络·机器人·自动驾驶
eihh233331 小时前
山东大学软件学院毕业设计(二)
人工智能·深度学习·机器学习
KG_LLM图谱增强大模型2 小时前
图谱智能体记忆技术和应用综述:构建AI Agent的“大脑记忆系统“
人工智能