这一段时间都在学习与预研大模型技术,目前采用的模型是用hugging-face上的Qwen-1.8B参数级别的模型, 本地部署启动, AMD 630 16G显卡,启动与推理都没什么压力

这几天碰到一个比较有意思的问题, 我想通过使用模型的NLP能力来进行意图分析,通过构造提示词模版来达到预期效果:

如图, 想让大模型按照我的提问来返回对应的答案,在实际使用场景中, 正确率只有50-60%左右,

很多时候会与模版中的希望返回的答案不匹配,同样的问题在通义千问的官网的回答基本都是准确的:

不知道有没有了解的大佬们看下到底是什么原因引起的这种问题,是要调整prompt还是要调整模型的参数?