bert-base-chinese另外的加载方法.txt

import os

os.environ['HF_ENDPOINT'] = 'https://hf-mirror.com'

import torch

from transformers import pipeline

pipe = pipeline("fill-mask", model="google-bert/bert-base-chinese")

from transformers import AutoTokenizer, AutoModelForMaskedLM

tokenizer = AutoTokenizer.from_pretrained("google-bert/bert-base-chinese")

model = AutoModelForMaskedLM.from_pretrained("google-bert/bert-base-chinese")

input_text='bert-base-chinese该怎么用?'

inx_text=tokenizer.encode(input_text)

inv_text=tokenizer.convert_ids_to_tokens(inx_text)

with torch.no_grad():

output=model(torch.tensor([inx_text]))

print(type(output))

last_hidden=output['logits']

print(last_hidden.shape,last_hidden[0])# (1,9,21128)(batch_size,seq_len,d_model)

from transformers import AutoModelForQuestionAnswering

aq=AutoModelForQuestionAnswering.from_pretrained("google-bert/bert-base-chinese")

定义问题和上下文

question = "你好,请问今天天气怎么样?"

context = "今天是晴天,气温适中,非常适合户外活动。"

使用分词器对问题和上下文进行编码

inputs = tokenizer(question, context, return_tensors='pt', \

padding=True, truncation=True)

input_ids = inputs['input_ids']

attention_mask = inputs['attention_mask']

在Transformers库中,模型并不是通过数字本身来识别分割符的,

而是通过分词器(Tokenizer)对输入文本的处理来识别这些特殊标记。

在不计算梯度的情况下进行推理

with torch.no_grad():

aq_outputs =aq(input_ids, attention_mask=attention_mask)

start_inxes=aq_outputs['start_logits'][0]

end_inxes=aq_outputs['end_logits'][0]

print(len(start_inxes),len(end_inxes))

start=torch.argmax(start_inxes)

end=torch.argmax(end_inxes)

(question+context)[start:end]

相关推荐
Raink老师2 分钟前
【AI面试临阵磨枪-34】单 Agent 与多 Agent(Multi-Agent)架构区别、适用场景、挑战
人工智能·ai 面试
LeesonWong2 分钟前
从 PDF 到 MCP:让 AI Agent 按需查询你的简历
人工智能
lwf0061644 分钟前
DeepFM 学习日记
深度学习·机器学习
灵机一物4 分钟前
灵机一物AI原生电商小程序、PC端(已上线)-【AI 技术周报】2026 年 4 月第 4 周|模型、算力、商业化、安全全景梳理
人工智能
redreamSo7 分钟前
一个只有70行的文件,凭什么拿下GitHub 10万星?
人工智能·开源
互联网志8 分钟前
政策赋能校产融合 推动高校科技成果落地生根
大数据·人工智能·物联网
qcx2311 分钟前
Warp源码深度解析(四):AI Agent原生集成——MCP协议、代码索引与Skills系统
人工智能·ai·agent·源码解析·wrap
Narrastory16 分钟前
Note:强化学习(六)
人工智能·深度学习·强化学习
智枢圈26 分钟前
Embedding 与向量数据库
人工智能
羑悻28 分钟前
深入 LangChain 内存向量存储(Memory Vector Stores):架构解析与优化
人工智能