chatGPT讲师AIGC讲师叶梓:大模型这么火,我们在使用时应该关注些什么?-5

以下为叶老师讲义分享:

P25-P28

提示工程的模式

  • 9、翻译是一种转化。 由于人类对语言理解的巨大需求,翻译涉及 ChatGPT 翻译和转换不同的语言或术语。
  • 10、推理模式下,可以让 ChatGPT 观察和推断未知的事实或逻辑关系。 它的价值在于提供更全面的解决方案和灵感。
  • 11、感应模式下,ChatGPT 可以从具体的例子或事实中归纳出一般规则或结论,看到一些事物的本质。
  • 12、模拟 模式下,可以让 ChatGPT 模拟一个过程或现象
  • 13、演员 模式下,可以让你与其进行更专注、更专业的对话,提高获取信息的效率。

微调大模型的意义

  1. 节省计算资源:
    1. 在微调过程中,不需要重新训练整个模型,因此可以节省计算资源。
  2. 提高特定任务上的性能:
    1. 通过微调,模型可以适应特定任务的语言特征和模式,从而提高模型的性能。
  3. 保留模型的通用性:
    1. 预训练模型具有较高的通用性能,微调可以帮助模型适应特定任务的语言特征和模式,从而提高模型的通用性。
  4. 减少数据需求:
    1. 预训练模型已经过大量训练,因此在微调过程中可以使用较少的数据。

微调大模型的方法(Adapter-Tuning)

  • 微调时冻结预训练模型的主体,由Adapter模块学习特定下游任务的知识。
  • Adapter调优的参数量大约为LM参数的3.6%。
  • Prefix Tuning只是在每个任务前有少量的prefix的参数,
  • 比如翻译任务,可以在每句话的前面加上"翻译:"来引导模型进行翻译功能。
  • Prefix Tuning参数规模约为LM模型整体规模的0.1%。

未完,下一章继续......

相关推荐
大龄程序员狗哥3 小时前
第47篇:使用Speech-to-Text API快速构建语音应用(操作教程)
人工智能
KKKlucifer3 小时前
数据安全合规自动化:策略落地、审计追溯与风险闭环技术解析
人工智能·安全
RWKV元始智能3 小时前
RWKV超并发项目教程,RWKV-LM训练提速40%
人工智能·rnn·深度学习·自然语言处理·开源
dyj0953 小时前
Dify - (一)、本地部署Dify+聊天助手/Agent
人工智能·docker·容器
墨染天姬3 小时前
【AI】Hermes的GEPA算法
人工智能·算法
小超同学你好3 小时前
OpenClaw 深度解析系列 · 第8篇:Learning & Adaptation(学习与自适应)
人工智能·语言模型·chatgpt
紫微AI3 小时前
前端文本测量成了卡死一切创新的最后瓶颈,pretext实现突破了
前端·人工智能·typescript
码途漫谈4 小时前
Easy-Vibe开发篇阅读笔记(四)——前端开发之结合 Agent Skills 美化界面
人工智能·笔记·ai·开源·ai编程
易连EDI—EasyLink4 小时前
易连EDI–EasyLink实现OCR智能数据采集
网络·人工智能·安全·汽车·ocr·edi
冬奇Lab4 小时前
RAG 系列(二):用 LangChain 搭建你的第一个 RAG Pipeline
人工智能·langchain·llm