Application Development using Large Language Models笔记

诸神缄默不语-个人CSDN博文目录

这是2023年NeurIPS Andrew Ng和Isa Fulford做的tutorial,关于如何用LLM来开发新产品的技术和思路:NeurIPS Tutorial Application Development using Large Language Models

文章目录

  • [1. LLM基础](#1. LLM基础)
  • [2. 提示工程技巧](#2. 提示工程技巧)
  • [3. 微调](#3. 微调)
  • [4. AI创业和其他应用思路](#4. AI创业和其他应用思路)

1. LLM基础

LLM base的思路是"预测下一个token",LLM聊天模型的思路是对齐instructuion(指令),也就是用问答对来继续预训练LLM。这样能让LLM有回答问题 / 遵从指令的能力。

RLHF,对齐人类需求:人工对LLM回答结果打分(实现是比较哪个回答更好),学习人工打分的reward model

2. 提示工程技巧

  1. 加reference
  2. 重复问,用类似模型聚合的方式
  3. 分解任务:分类query
  4. moderation API:检测安全性
  5. 防止prompt injection:
    1. 将用户输入从prompt中分隔出来

      2. 多问一次,有没有prompt injection
  6. 用户给出的例子、低资源语言prompt、代码、"奶奶讲故事"可能会绕过安全限制

3. 微调

  1. 也许只需要200-500个样本

4. AI创业和其他应用思路

  1. 分解人类的实际工作内容,根据技术的可获得性判断AI在哪一步可能有用
  2. 及时监控LLM输出
  3. 评估LLM的表现:制作测试集和评估指标
  4. 用LM评估指标:这一点我记得另外有一篇paper说LLM更倾向于同一LLM生成的结果来着,忘了具体是哪篇了,下次找找
  5. 这玩意仍然难以debug(我对此深有感触)
  6. 定义specific and narrow use case,明确评估指标、成功的标准,评估风险
  7. 用LLM让工作流程更简单、更便宜
  8. LLM基座模型可能会自己变好(什么,AI界自己的摩尔定律)
  9. personalized LLM可能需要LLM在每一层都努力,pretraining阶段就需要考虑文化差异,RLHF阶段有personalized RLHF、group wise RLHF、不同的甚至冲突的preference
  10. LLM的置信度:简单方案是直接问LLM你的confidence是多少;更好的方法是抽样多条回答,检查其一致性
  11. 闭源模型效果好但不好调,还想要长记忆,还想要用户能够实时反馈并得以调整:Andrew的建议是模仿人类的思路一步一步来,这样也方便做错误分析
相关推荐
武子康10 分钟前
AI-调查研究-76-具身智能 当机器人走进生活:具身智能对就业与社会结构的深远影响
人工智能·程序人生·ai·职场和发展·机器人·生活·具身智能
递归不收敛13 分钟前
PyCharm项目上传GitHub仓库(笔记)
笔记·pycharm·github
小鹿清扫日记14 分钟前
从蛮力清扫到 “会看路”:室外清洁机器人的文明进阶
人工智能·ai·机器人·扫地机器人·具身智能·连合直租·有鹿巡扫机器人
递归不收敛16 分钟前
一、Java 基础入门:从 0 到 1 认识 Java(详细笔记)
java·开发语言·笔记
fanstuck44 分钟前
Prompt提示工程上手指南(六):AI避免“幻觉”(Hallucination)策略下的Prompt
人工智能·语言模型·自然语言处理·nlp·prompt
zhangfeng11331 小时前
win7 R 4.4.0和RStudio1.25的版本兼容性以及系统区域设置有关 导致Plots绘图面板被禁用,但是单独页面显示
开发语言·人工智能·r语言·生物信息
xian_wwq1 小时前
【学习笔记】Https证书如何升级到国密
笔记·学习·证书
DogDaoDao2 小时前
神经网络稀疏化设计构架方法和原理深度解析
人工智能·pytorch·深度学习·神经网络·大模型·剪枝·网络稀疏
一又四分之一.2 小时前
hexo文章
笔记
西猫雷婶3 小时前
pytorch基本运算-Python控制流梯度运算
人工智能·pytorch·python·深度学习·神经网络·机器学习