-
先安装transformers
-
在huggingface下载模型
模型bert-multi-cased-finetuned-xquadv1可以从huggingface中下载,具体操作方法可以参照文章https://blog.csdn.net/zhaomengsen/article/details/130616837下载

-
git clone就可以了
-
然后使用pipline加载模型
from transformers import pipeline
nlp = pipeline("question-answering",model="mrm8488/bert-multi-cased-finetuned-xquadv1",tokenizer="mrm8488/bert-multi-cased-finetuned-xquadv1") -
测试
context = """非root用户使用HBase客户端,请确保该HBase客户端目录的属主为该用户,否则请参考如下命令修改属主"""
question = "命令是什么?"
result = nlp(question=question, context=context)
print("Answer:", result['answer'])
print("Score:", result['score'])Answer: 修改属主
Score: 0.9437811374664307
python-在transformers的问答模型中使用中文
liwulin05062023-07-21 14:31
相关推荐
C++ 老炮儿的技术栈7 小时前
C/C++ 中 inline(内联函数)和宏定义(#define)的区别我什么都学不会7 小时前
Python练习作业2b2077218 小时前
Flutter for OpenHarmony 身体健康状况记录App实战 - 健康目标实现henujolly8 小时前
ethers.js读取合约信息Eugene__Chen8 小时前
Java关键字(曼波版)lixin5565568 小时前
基于深度生成对抗网络的高质量图像生成模型研究与实现无望__wsk8 小时前
Python第一次作业Word码8 小时前
[C++语法]-vector(用法详解及实现)代码雕刻家9 小时前
4.3.多线程&JUC-多线程的实现方式梦6509 小时前
网络传输七层协议