bert-base-chinese另外的加载方法.txt

import os

os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'

import torch

from transformers import pipeline

pipe = pipeline("fill-mask", model="google-bert/bert-base-chinese")

from transformers import AutoTokenizer, AutoModelForMaskedLM

tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-chinese")

model = AutoModelForMaskedLM.from_pretrained("google-bert/bert-base-chinese")

input_text='bert-base-chinese该怎么用?'

inx_text=tokenizer.encode(input_text)

inv_text=tokenizer.convert_ids_to_tokens(inx_text)

with torch.no_grad():

output=model(torch.tensor([inx_text]))

print(type(output))

last_hidden=output['logits']

print(last_hidden.shape,last_hidden[0])# (1,9,21128)(batch_size,seq_len,d_model)

from transformers import AutoModelForQuestionAnswering

aq=AutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-chinese")

定义问题和上下文

question = "你好,请问今天天气怎么样?"

context = "今天是晴天,气温适中,非常适合户外活动。"

使用分词器对问题和上下文进行编码

inputs = tokenizer(question, context, return_tensors='pt', \

padding=True, truncation=True)

input_ids = inputs['input_ids']

attention_mask = inputs['attention_mask']

在Transformers库中,模型并不是通过数字本身来识别分割符的,

而是通过分词器(Tokenizer)对输入文本的处理来识别这些特殊标记。

在不计算梯度的情况下进行推理

with torch.no_grad():

aq_outputs =aq(input_ids, attention_mask=attention_mask)

start_inxes=aq_outputs['start_logits'][0]

end_inxes=aq_outputs['end_logits'][0]

print(len(start_inxes),len(end_inxes))

start=torch.argmax(start_inxes)

end=torch.argmax(end_inxes)

(question+context)[start:end]

相关推荐
Daydream.V几秒前
卷积神经网络——附水果分类案例及参数优化
人工智能·分类·cnn·卷积神经网络
地平线开发者1 分钟前
【地平线J6工具链入门教程】J5到J6算法部署迁移指南
人工智能·算法·自动驾驶·汽车
zhangshuang-peta7 分钟前
MCP vs Prompt 工程:从“写提示词”到“立协议”的范式迁移
人工智能·ai agent·mcp·peta
m0_4750645013 分钟前
Spring AI RAG简易demo
java·人工智能·spring
翼龙云_cloud14 分钟前
阿里云代理商:阿里云部署 OpenClaw 常见问题排查手册
服务器·人工智能·阿里云·云计算·openclaw
OAoffice15 分钟前
AI Agent 重构办公流:智能 SaaS 办公软件技术能力测评
人工智能·云办公·saas云办公·中小企业云办公·中小企业办公
2601_9507607919 分钟前
BAFF蛋白在自身免疫性疾病中的作用机制研究
人工智能
liangdabiao19 分钟前
【开源】Seedance 2.0 写好广告视频 带货短视频和品牌广告TVC
人工智能
摸鱼仙人~25 分钟前
拆解 Llama 3.1 8B:从模型结构看懂大语言模型的核心设计
人工智能·语言模型·llama
黎阳之光27 分钟前
黎阳之光:数智技术赋能水利“平急两用” 筑牢水利工程安全防线
大数据·人工智能·算法·安全·数字孪生