-
先安装transformers
-
在huggingface下载模型
模型bert-multi-cased-finetuned-xquadv1可以从huggingface中下载,具体操作方法可以参照文章https://blog.csdn.net/zhaomengsen/article/details/130616837下载

-
git clone就可以了
-
然后使用pipline加载模型
from transformers import pipeline
nlp = pipeline("question-answering",model="mrm8488/bert-multi-cased-finetuned-xquadv1",tokenizer="mrm8488/bert-multi-cased-finetuned-xquadv1") -
测试
context = """非root用户使用HBase客户端,请确保该HBase客户端目录的属主为该用户,否则请参考如下命令修改属主"""
question = "命令是什么?"
result = nlp(question=question, context=context)
print("Answer:", result['answer'])
print("Score:", result['score'])Answer: 修改属主
Score: 0.9437811374664307
python-在transformers的问答模型中使用中文
liwulin05062023-07-21 14:31
相关推荐
晓晓hh6 小时前
JavaSE学习——迭代器Laurence6 小时前
C++ 引入第三方库(一):直接引入源文件kyriewen116 小时前
你点的“刷新”是假刷新?前端路由的瞒天过海术014-code6 小时前
String.intern() 到底干了什么421!7 小时前
GPIO工作原理以及核心极梦网络无忧7 小时前
OpenClaw 基础使用说明(中文版)codeJinger7 小时前
【Python】操作Excel文件摇滚侠7 小时前
JAVA 项目教程《苍穹外卖-12》,微信小程序项目,前后端分离,从开发到部署@insist1237 小时前
网络工程师-生成树协议(STP/RSTP/MSTP)核心原理与应用野生技术架构师8 小时前
2026年牛客网最新Java面试题总结