如何调试QWEN-1.8B模型的prompt来达到预期效果

这一段时间都在学习与预研大模型技术,目前采用的模型是用hugging-face上的Qwen-1.8B参数级别的模型, 本地部署启动, AMD 630 16G显卡,启动与推理都没什么压力

这几天碰到一个比较有意思的问题, 我想通过使用模型的NLP能力来进行意图分析,通过构造提示词模版来达到预期效果:

如图, 想让大模型按照我的提问来返回对应的答案,在实际使用场景中, 正确率只有50-60%左右,

很多时候会与模版中的希望返回的答案不匹配,同样的问题在通义千问的官网的回答基本都是准确的:

不知道有没有了解的大佬们看下到底是什么原因引起的这种问题,是要调整prompt还是要调整模型的参数?

相关推荐
适应规律44 分钟前
python版代码风格撰写prompt
prompt
知识汲取者2 小时前
从 Prompt 到 Context 再到 Harness ,AI Coding 正在经历第三次范式跃迁
人工智能·prompt
书到用时方恨少!6 小时前
提示词工程终章:ReAct——让大模型“边想边做”的智能体革命
prompt·agent·react·智能体·提示词工程
X.AI66615 小时前
主流7个大模型测评,谁更懂代码和空间感知?
3d·prompt
狐狐生风1 天前
LangGraph 核心概念全解笔记
人工智能·python·langchain·prompt·langgraph
Hello:CodeWorld1 天前
AI大模型之Prompt编写
prompt
测试开发Kevin1 天前
梳理OpenAI官方发布的Prompt Engineering指南以及相关最佳实践后总结出的六点核心原则
人工智能·ai·prompt
Super_King_1 天前
AI - 开发日常可直接复用的实用 Prompt
prompt
熊出没1 天前
02——从 Prompt 到 Workflow
java·前端·prompt