Bert 将长段分成句子放在一个batch输入

bash 复制代码
from nltk.tokenize import RegexpTokenizer

sentence = """Thomas Jefferson began building Monticello at the age of 26."""
# 按照自己的规则进行分词,使用正则分词器
# \w 匹配字母、数字、下划线
# 匹配任何非空白字符
tokenizer = RegexpTokenizer(r'\w+|$[0-9.]+|\S+')
print(tokenizer.tokenize(sentence))

bert的任务 上下句和mask,mask掩码就是需要预测的部分,上下句预测现在基本不用了 mask基本都会加上,mask 可以控制掩住哪里

使用预训练模型时候要注意预训练的权重是在什么类型的数据集上训练的,方面情感分析 可以分为多少个方面类也比较重要

相关推荐
devpotato1 分钟前
人工智能(十八)- 大模型幻觉生产风险治理
人工智能
TangGeeA1 分钟前
Hermes Agent 安全约束实现分析:模型层、提示词层、Agent 层与 Tool 层
人工智能·ai
happyprince3 分钟前
04-FlagEmbedding 微调模块详细分析
人工智能
cd_9492172113 分钟前
2026做标书用哪个AI工具好?深挖标书AI核心竞争力与实测对比
人工智能
派拉软件15 分钟前
AI 网关:重塑企业级大模型服务治理架构
大数据·人工智能·架构
江汉似年23 分钟前
强化学习中的 On-policy 与 Off-policy 全面解析
人工智能·深度学习·算法·rl
sunneo26 分钟前
03-从Chat到Act-Agent行动闭环的产品心理学拆解
人工智能·产品运营·aigc·产品经理·ai-native
Marvel__Dead28 分钟前
基于 AI 大模型的百度旋转验证识别(通用能力极强)
人工智能·爬虫·python·验证码识别·ai 大模型
小船跨境30 分钟前
ChatGPT助力高效网页数据抓取实战
人工智能·网络协议
Juicedata33 分钟前
AI 战略下架构演进:小米基于 JuiceFS 的统一存储实践
人工智能·架构