【gpt实践】实用咒语分享

直接上咒语了,大家可以自行实践。

1、忽略先前所有的提示

有时候gpt会停留在之前的问题中,导致回答当前问题带着之前问题结论。

2、忽略所有的客套话

我们只是需要有用的信息,有时候gpt客套话会混淆视听。

3、给出非常简短明确的答案

同样是为了减少gpt冗余信息的输出,我们只需要关键信息

20G AI资料课程获取
4、let's think step by step

就是按照层次推进,可以让模型能力尤其是推理能力大幅提升。

5、Take a deep breath.

这是出自 Google DeepMind,让大模型作为优化器持续不断的根据最终效果来改进 Prompt。可以结合4一起使用:Take a deep breath and work on this problem step-by-step.

6、I have no fingers.

初听可能会觉得离谱,我没有手指算什么,但其实这条指令大有用处,会让gpt输出完整代码,而不只是方法和注释,程序员必备指令 ,在之前的俄罗斯方块开发中,chatgpt的prompt加入该指令也得到了较为完整的代码输出。

相关推荐
悟道心3 小时前
8. 自然语言处理NLP -GPT
人工智能·gpt·自然语言处理
周周爱喝粥呀1 天前
LLM 中的自回归模型与非自回归模型:GPT 和 BERT 的区别
人工智能·gpt·ai·回归
共绩算力1 天前
DeepSeek V3.2 迈向 GPT-5 级别性能的路径:稀疏注意力、大规模强化学习与上下文重用
人工智能·gpt·共绩算力
百***24371 天前
GPT-5.2 vs DeepSeek-V3.2 全维度对比:一步API适配下的研发选型指南
gpt
百***24371 天前
GPT-5.2与DeepSeek-V3.2选型指南:一步API通用下的全维度技术对比
gpt
维度攻城狮1 天前
科研提速!Zotero Awesome GPT 搭配本地 Ollama 模型使用指南
gpt·zotero·ollama·awesome gpt
victory04312 天前
同一prompt下 doubao qwen gpt kimi的模型训练时长预测不同表现
gpt·prompt
向量引擎3 天前
【万字硬核】解密GPT-5.2-Pro与Sora2底层架构:从Transformer到世界模型,手撸一个高并发AI中台(附Python源码+压测报告)
人工智能·gpt·ai·aigc·ai编程·ai写作·api调用
程序员佳佳3 天前
【万字硬核】从GPT-5.2到Sora2:深度解构多模态大模型的“物理直觉”与Python全栈落地指南(内含Banana2实测)
开发语言·python·gpt·chatgpt·ai作画·aigc·api
向量引擎4 天前
[架构师级] 压榨GPT-5.2与Sora 2的极限性能:从单体调用到高并发多模态Agent集群的演进之路(附全套Python源码与性能调优方案)
开发语言·人工智能·python·gpt·ai·ai写作·api调用