ChatGPT 变懒最新解释!或和系统Prompt太长有关

大家好我是二狗。

ChatGPT变懒这件事又有了最新解释了。

这两天,推特用户Dylan Patel发文表示:

你想知道为什么 ChatGPT 和 6 个月前相比会如此糟糕吗?

那是因为ChatGPT系统Prompt是竟然包含1700 tokens,看看这个prompt里面有多少垃圾,这是导致ChatGPT变懒的部分原因。

Dylan Patel 通过下面的 prompt输入把ChatGPT4版本的系统Prompt给"骗了出来":

有用户对ChatGPT的系统prompt表示怀疑:

于是Dylan Patel把完整视频放了出来:

详细的系统Prompt可以从下面的地址中查看:

https://pastebin.com/vnxJ7kQk

有用户对ChatGPT 3.5版本进行了同样的操作,发现同样可以「召唤出来」类似的系统Prompt。

比如我们可以看一下系统Prompt中对Dalle的限制:

每当给出图像的描述时,请创建 dalle 可用于生成图像的提示并遵守以下策略:提示必须是英文。如果需要的话,翻译成英文。

请勿请求生成图像的许可,直接执行即可!

请勿在生成图像之前或之后列出或参考描述。

即使用户请求更多图像,也不要创建超过 1 个图像。

请勿创建政客或其他公众人物的形象。推荐其他想法。

请勿以 1912 年之后最新作品创作的艺术家、创意专业人士或工作室的风格创作图像(例如毕加索、卡罗)。

仅当艺术家、创意专业人士或工作室的最新作品创作于 1912 年之前(例如梵高、戈雅)时,您才可以在提示中命名他们。

关于生成公众人物这块,二狗我找朋友对此亲自试了一下,果然如此:

有用户表示原来prompt真的会让其变懒:

OpenAI声称懒惰行为被修复

前不久OpenAI将GPT-4 Turbo 预览模型更新为gpt-4-0125-preview,新模型还修复了影响非英语 UTF-8 生成的错误。

另外更重要的是OpenAI声称新模型相比之前的预览模型可以更彻底地完成代码生成等任务, 这将减少模型未完成任务的"懒惰"情况!

芜湖!要知道前一段时间,GPT-4模型变懒惹的多少人来吐槽,OpenAI官方也亲自承认了。

之前有网友认为GPT-4变懒可能和季节有关系,GPT-4也会和学生一样"放寒假",到了冬天的时候就自己变的懒起来。

在前不久的一篇论文中,加州大学圣克鲁斯分校研究者的新发现或可解释 GPT-4 性能下降的深层原因:

"我们发现,在训练数据创建日期之前发布的数据集上,LLM 的表现出奇地好于之后发布的数据集。"它们在"见过的"任务上表现出色,而在新任务上则表现糟糕。这意味着,LLM 只是基于近似检索的模仿智能方法,主要是记忆东西,而没有任何程度的理解。

说白了,就是 LLM 的泛化能力"没有说的那么强",造成这种结果的一大原因是「任务污染」,这是数据污染的其中一种形式。

当时为了应对GPT-4变懒,众多网友祭出了魔法prompt:

最后,希望ChatGPT越来越好用起来~

参考资料

1\]https://twitter.com/dylan522p/status/1755086111397863777

相关推荐
华新嘉华DTC创新营销1 小时前
华新嘉华:AI搜索优化重塑本地生活行业:智能推荐正取代“关键词匹配”
人工智能·百度·生活
SmartBrain2 小时前
DeerFlow 实践:华为IPD流程的评审智能体设计
人工智能·语言模型·架构
l1t3 小时前
利用DeepSeek实现服务器客户端模式的DuckDB原型
服务器·c语言·数据库·人工智能·postgresql·协议·duckdb
寒月霜华4 小时前
机器学习-数据标注
人工智能·机器学习
九章云极AladdinEdu5 小时前
超参数自动化调优指南:Optuna vs. Ray Tune 对比评测
运维·人工智能·深度学习·ai·自动化·gpu算力
人工智能训练师6 小时前
Ubuntu22.04如何安装新版本的Node.js和npm
linux·运维·前端·人工智能·ubuntu·npm·node.js
cxr8288 小时前
SPARC方法论在Claude Code基于规则驱动开发中的应用
人工智能·驱动开发·claude·智能体
研梦非凡8 小时前
ICCV 2025|从粗到细:用于高效3D高斯溅射的可学习离散小波变换
人工智能·深度学习·学习·3d
幂简集成8 小时前
Realtime API 语音代理端到端接入全流程教程(含 Demo,延迟 280ms)
人工智能·个人开发
龙腾-虎跃9 小时前
FreeSWITCH FunASR语音识别模块
人工智能·语音识别·xcode