【gpt实践】实用咒语分享

直接上咒语了,大家可以自行实践。

1、忽略先前所有的提示

有时候gpt会停留在之前的问题中,导致回答当前问题带着之前问题结论。

2、忽略所有的客套话

我们只是需要有用的信息,有时候gpt客套话会混淆视听。

3、给出非常简短明确的答案

同样是为了减少gpt冗余信息的输出,我们只需要关键信息

20G AI资料课程获取
4、let's think step by step

就是按照层次推进,可以让模型能力尤其是推理能力大幅提升。

5、Take a deep breath.

这是出自 Google DeepMind,让大模型作为优化器持续不断的根据最终效果来改进 Prompt。可以结合4一起使用:Take a deep breath and work on this problem step-by-step.

6、I have no fingers.

初听可能会觉得离谱,我没有手指算什么,但其实这条指令大有用处,会让gpt输出完整代码,而不只是方法和注释,程序员必备指令 ,在之前的俄罗斯方块开发中,chatgpt的prompt加入该指令也得到了较为完整的代码输出。

相关推荐
武子康1 小时前
大语言模型 11 - 从0开始训练GPT 0.25B参数量 MiniMind2 准备数据与训练模型 DPO直接偏好优化
人工智能·gpt·ai·语言模型·自然语言处理
武子康5 小时前
大语言模型 10 - 从0开始训练GPT 0.25B参数量 补充知识之模型架构 MoE、ReLU、FFN、MixFFN
大数据·人工智能·gpt·ai·语言模型·自然语言处理
武子康21 小时前
大语言模型 09 - 从0开始训练GPT 0.25B参数量 补充知识之数据集 Pretrain SFT RLHF
人工智能·gpt·ai·语言模型·自然语言处理
一叶茶1 天前
VsCode和AI的前端使用体验:分别使用了Copilot、通义灵码、iflyCode和Trae
前端·vscode·gpt·ai·chatgpt·copilot·deepseek
sbc-study2 天前
GPT( Generative Pre-trained Transformer )模型:基于Transformer
gpt·深度学习·transformer
Code_流苏2 天前
《Python星球日记》 第69天:生成式模型(GPT 系列)
python·gpt·深度学习·机器学习·自然语言处理·transformer·生成式模型
字节旅行3 天前
大语言模型主流架构解析:从 Transformer 到 GPT、BERT
gpt·语言模型·transformer
AI Echoes4 天前
GPT 经验
gpt
fanstering4 天前
mac一键安装gpt-sovit教程中,homebrew卡住不动的问题
gpt·macos
2301_787552874 天前
console-chat-gpt开源程序是用于 AI Chat API 的 Python CLI
人工智能·python·gpt·开源·自动化