Re78 读论文:GPT-4 Technical Report

诸神缄默不语-个人CSDN博文目录
诸神缄默不语的论文阅读笔记和分类

论文全名:GPT-4 Technical Report

官方博客:GPT-4 | OpenAI

appendix懒得看了。

文章目录

  • [1. 模型训练过程心得](#1. 模型训练过程心得)
  • [2. scaling law](#2. scaling law)
  • [3. 实验结果](#3. 实验结果)

1. 模型训练过程心得

模型结构还是Transformers,训练目标还是语言模型(预测下一个token),我写过GPT-1/2/3的博文了直接看之前的博文吧。

增加了后训练对齐过程/用Reinforcement Learning from Human Feedback (RLHF)微调,提升模型回答的真实性,使其更符合人类偏好。

训练过程验证了scaling law,也就是有效的架构和优化方案在小模型上跑过之后,它们在大尺度模型上的效果提升是可预期的,这样只需在小模型上验证方案,就可以在大模型上放心去做了。

GPT-4仍然具有如下缺点(这也是现在很多大模型工作在致力于干掉的):幻觉,上下文长度限制,训练后就无法更新知识(does not learn from experience),偏见

GPT-4模型可以根据用户偏好实现一定程度的定制化。

针对风险的解决方案:

  1. safety-relevant RLHF training prompts
  2. rule-based reward models (RBRMs):若干GPT-4零样本分类器,输入是prompt、模型回复和人工评估的标准,输出是这个问答对是否安全

更多安全问题可以看System Card。

2. scaling law

  1. 损失函数与计算量遵循幂函数,高度可预测
  2. 指标也是
  3. 但也有例外:

3. 实验结果

对于数据污染情况,又做了一个把测试集中泄露数据去掉的新数据集,报告两个测试集上比较差的结果。

考试:

标准LM benchmark:

在用户偏好方面,相比GPT-3.5,人工标注者对GPT-4的回答打分更高。

GPT-4的跨语言能力:

多模态示例:

遵从事实的能力得到了提升:

上图任务所用的数据示例:

后训练(PPO)影响calibration(评估模型对可能性高的答案给出更高的置信度的能力):

减少风险

找了专家来进行对抗式提问

示例:

改进误杀的示例:

安全性提升效果:

相关推荐
AI英德西牛仔1 小时前
deepseek导出word排版
人工智能·ai·chatgpt·deepseek·ds随心转
码路飞2 小时前
AI 写的代码越来越多,但你敢直接上线吗?我的多模型交叉 Review 方案
python·openai
智算菩萨4 小时前
ChatGPT在非洲主要国家教育中的应用:效益、接受度与伦理挑战——基于2022-2024年文献的系统综述精读
论文阅读·人工智能·gpt·深度学习·ai·chatgpt·论文笔记
lbh13 小时前
当我开始像写代码一样和AI对话,一切都变了
前端·openai·ai编程
七牛云行业应用16 小时前
GPT-5.4 mini 与 nano 深度评测:核心差异、API 成本实测与选型指南
人工智能·openai·api调用·gpt-5.4·大模型降本
前端付豪19 小时前
实现一个用户可以有多个会话
前端·后端·llm
superior tigre20 小时前
LLM/HPC常见术语汇总
人工智能·llm·hpc
Sakuraba Ema1 天前
从零理解 MoE(Mixture of Experts)混合专家:原理、数学、稀疏性、专家数量影响与手写 PyTorch 实现
人工智能·pytorch·python·深度学习·数学·llm·latex
柯儿的天空1 天前
【OpenClaw 全面解析:从零到精通】第 006 篇:OpenClaw 在 Windows/WSL2 上的安装与部署实战
人工智能·windows·语言模型·chatgpt·ai作画
范特西林1 天前
从GPT到OpenClaw:AI智能体演进的五个阶段与范式革命
openai·agent