-
先安装transformers
-
在huggingface下载模型
模型bert-multi-cased-finetuned-xquadv1可以从huggingface中下载,具体操作方法可以参照文章https://blog.csdn.net/zhaomengsen/article/details/130616837下载

-
git clone就可以了
-
然后使用pipline加载模型
from transformers import pipeline
nlp = pipeline("question-answering",model="mrm8488/bert-multi-cased-finetuned-xquadv1",tokenizer="mrm8488/bert-multi-cased-finetuned-xquadv1") -
测试
context = """非root用户使用HBase客户端,请确保该HBase客户端目录的属主为该用户,否则请参考如下命令修改属主"""
question = "命令是什么?"
result = nlp(question=question, context=context)
print("Answer:", result['answer'])
print("Score:", result['score'])Answer: 修改属主
Score: 0.9437811374664307
python-在transformers的问答模型中使用中文
liwulin05062023-07-21 14:31
相关推荐
zadyd1 小时前
vLLM Linux 双卡部署大模型服务器指南叼烟扛炮1 小时前
C++ 知识点08 类与对象紫小米7 小时前
后端日志管理你不是我我7 小时前
【Java 开发日记】HTTP3 性能更好,为什么内网微服务依然多用 HTTP2?HTTP2 内网优势是什么?tjl521314_218 小时前
04C++ 名称空间(Namespace)赏金术士8 小时前
Kotlin 数据流与单双向绑定白雪茫茫8 小时前
监督学习、半监督学习、无监督学习算法详解つ安静与叛逆的小籹人9 小时前
小红书API:通过笔记ID获取笔记详情数据教程05候补工程师9 小时前
[实战复盘] 拒绝 AI 屎山!我从设计模式中学到的“调教”AI 新范式逻辑驱动的ken9 小时前
Java高频面试场景题25