AI Prompt 工程师认证-学习笔记

如果说 AI 大语言模型(LLM,Large Language Model)是宝藏,那么 Prompt 提示词 就是打开宝藏的钥匙。

(认证学习链接:AI Prompt工程师认证

(参考资料:Prompt提示词------常见的Prompt框架

体验AI大模型

动手创建AI助手

  • 解决重复性操作,使用 Prompt 结构化的模版将 AI 大模型的特定能力固定,一劳永逸
  • 减少输入,减少反复思考压力
  • 更稳定,效率提升,可以直接使用已经调整好参数的 AI助手所提供的服务(提高生产力)
  • 便于分享,将助手分享给其他用户共同体验,解决多人使用问题

1、未创建AI助手------"每次都要发送结构化的Prompt提示词模板"

2、创建AI助手后------"仅发送需求即可"

Prompt的知识点

1、使用场景

(1)文本生成

  • 短视频脚本生成:使用 Prompt 的短视频脚本助手生成关于"冰淇淋、坚果和巧克力"的脚本。该脚本已经细分为到分镜管理,极大地方便了短视频的拍摄和设计。
  • 短篇小说创作助手:我们可以看到 Prompt 辅助生成的短端小说。如果你希望写一篇关于"一个杀手、公主和骑士的三角恋故事",模型可以根据给定的场景为你完成创作。

(2)信息提炼

问:

"这段文本里面讲了什么内容,请分点概括"

下面是我给出的文本信息:

在大森林里住着一只小熊猫,大家都不喜欢它,说它是一只没礼貌的小熊猫。为此,小熊猫很不开心。于是,它决定出门去找找"礼貌",为什么"礼貌"总是离自己这么远呢?

出门没走多远,小熊猫就遇见了正在晒太阳的猴爷爷,小熊猫对着猴爷爷大声喊道:"老猴子,快告诉我,礼貌在哪里啊?"

猴爷爷一听,睁开眼睛,瞪了小熊猫一眼,没好气地回了一句,说:"在山顶上,你自己去找吧!"

听了猴爷爷的话,小熊猫头也不回地往前走了。它来到山脚下,吃力地往山顶上爬,费了九牛二虎之力,终于爬到了山顶。可四处一看,什么也没有啊!便大叫起来:"老猴子,你骗人,不,你骗熊!"

这时,喜鹊阿姨正好飞过这里,听见小熊猫的叫骂声,便停了下来,问它是怎么回事。小熊猫就把这件事告诉了喜鹊阿姨。"依我看,这件事不能怪猴爷爷,是你没礼貌在先,打搅猴爷爷睡午觉,还不尊重长辈,叫人家老猴子,对长辈要称呼'您',问完话还要说'谢谢'。你如此对待猴爷爷,它对你自然是这样的态度了!"

喜鹊阿姨语重心长地对小熊猫说。此时,小熊猫的脸也红到了耳根,它也明白了,原来礼貌就在自己身边,就在生活当中。

小熊猫这时恭恭敬敬地对喜鹊阿姨说:"谢谢您告诉我这些,我也找到礼貌了!谢谢您!"喜鹊阿姨拍拍翅膀,笑着说:"好孩子,祝贺你找到'礼貌'了。"

后来的日子里,小熊猫很有礼貌,小伙伴也都愿意和它一起玩耍,小熊猫也生活得越来越开心了。

答:

(3)娱乐应用

  • 性格测试:总想知道自己的性格类型吗?用 Prompt 做一个简单的测试,看看你是不是那种喜欢冒险的人,还是更偏向于稳重?你可能会对结果感到惊讶哦!
  • 哄人神器:不小心惹女朋友生气了?没关系,大模型可以教你怎样哄女朋友开心!

(ps:大模型仅可作为参考使用)

(4)更多场景

附上链接:讯飞星火认知大模型指令集

2、局限性

(1)时效性

Prompt与AI大模型交互的知识来自于训练时接触到的数据,无法提供未知信息和新的发现

(2)上下文记忆

上下文记忆问题可能是由于模型在处理超长文本时遇到了字节长度限制或者信息丢失的情况导致的。这可能会导致模型在较长的对话或文本中失去一些先前的上下文信息。

要解决这个问题,你可以尝试以下几种方法:

  • 分割文本: 如果你的文本很长,可以尝试将其分割成较短的段落或句子,减轻模型处理长文本时的记忆负担。
  • 清晰明了的表达: 尽量使用清晰、简洁的语言表达你的问题或信息,避免过于复杂的句子结构。
  • 明确问题: 在对话中确保提出的问题或请求是明确的,以便模型更容易理解并提供相关的回答逐步引导: 如果有一个较长的对话历史,可以逐步引导模型,提供必要的背景信息,确保模型能够理解上下文。
  • 检查输入格式:确保输入的格式符合模型的期望,避免包含过多的冗余信息或不必要的细节。

(3)AI幻觉

(4)精确字数

在你让大模型生成一篇文章,并规定了精确的文章字数的时候,大模型很有可能给出的文章字数与你规定的字数不相符,这是LLM大模型本身的一个缺陷。

参考链接:你是否发现ChatGPT甚至不能按字数要求回复问题?

(5)内容合规

AI大语言模型的生成内容时受国内监管的,当你问出的问题涉及敏感话题的时候,大模型会直接拒绝回答。

3、结构化框架

葵花宝典:指定角色扮演,明确分配任务,控制输出结果

明确并结构化地表达需求,可以提高输出回答的质量。

一个有效的提示词应该包括:

  1. 角色:让模型扮演某个特定角色,比如"作家"、"设计师"或"历史学家"等
  2. 任务:明确告诉模型你希望它完成的任务,比如"写一篇小说"或"设计一个标志"等。
  3. 格式:指定你希望的输出格式,如"Markdown 格式"或"PDF 格式"

进阶框架:

4、写好Prompt的法则

参考链接:openAI Cookbook


hahaha都看到这里了,要是觉得有用的话辛苦动动小手点个赞吧!

相关推荐
YRr YRr3 分钟前
深度学习:神经网络的搭建
人工智能·深度学习·神经网络
威桑5 分钟前
CMake + mingw + opencv
人工智能·opencv·计算机视觉
爱喝热水的呀哈喽9 分钟前
torch张量与函数表达式写法
人工智能·pytorch·深度学习
rellvera16 分钟前
【强化学习的数学原理】第02课-贝尔曼公式-笔记
笔记·机器学习
Mephisto.java27 分钟前
【大数据学习 | Spark-Core】Spark提交及运行流程
大数据·学习·spark
肥猪猪爸42 分钟前
使用卡尔曼滤波器估计pybullet中的机器人位置
数据结构·人工智能·python·算法·机器人·卡尔曼滤波·pybullet
PandaCave1 小时前
vue工程运行、构建、引用环境参数学习记录
javascript·vue.js·学习
yuwinter1 小时前
鸿蒙HarmonyOS学习笔记(2)
笔记·学习·harmonyos
LZXCyrus1 小时前
【杂记】vLLM如何指定GPU单卡/多卡离线推理
人工智能·经验分享·python·深度学习·语言模型·llm·vllm
red_redemption1 小时前
自由学习记录(23)
学习·unity·lua·ab包