如何调试QWEN-1.8B模型的prompt来达到预期效果

这一段时间都在学习与预研大模型技术,目前采用的模型是用hugging-face上的Qwen-1.8B参数级别的模型, 本地部署启动, AMD 630 16G显卡,启动与推理都没什么压力

这几天碰到一个比较有意思的问题, 我想通过使用模型的NLP能力来进行意图分析,通过构造提示词模版来达到预期效果:

如图, 想让大模型按照我的提问来返回对应的答案,在实际使用场景中, 正确率只有50-60%左右,

很多时候会与模版中的希望返回的答案不匹配,同样的问题在通义千问的官网的回答基本都是准确的:

不知道有没有了解的大佬们看下到底是什么原因引起的这种问题,是要调整prompt还是要调整模型的参数?

相关推荐
leo03082 天前
7种流行Prompt设计模式详解:适用场景与最佳实践
设计模式·prompt
风雨中的小七2 天前
解密prompt系列60. Agent实战:从0搭建Jupter数据分析智能体
prompt
zzywxc7873 天前
AI在金融、医疗、教育、制造业等领域的落地案例(含代码、流程图、Prompt示例与图表)
人工智能·spring·机器学习·金融·数据挖掘·prompt·流程图
bboyzqh3 天前
任务型Agent:prompt工程实践
大模型·prompt·上下文工程
美人鱼战士爱学习3 天前
2024 arXiv Cost-Efficient Prompt Engineering for Unsupervised Entity Resolution
prompt
水的精神3 天前
写好 Prompt 的 12 条实践经验
prompt
Wilber的技术分享4 天前
【大模型实战笔记 1】Prompt-Tuning方法
人工智能·笔记·机器学习·大模型·llm·prompt
relis4 天前
解密llama.cpp:Prompt Processing如何实现高效推理?
prompt·llama
relis5 天前
解密大语言模型推理:Prompt Processing 的内存管理与计算优化
android·语言模型·prompt
relis5 天前
大语言模型推理的幕后英雄:深入解析Prompt Processing工作机制
人工智能·语言模型·prompt