【学习笔记】生成式AI(ChatGPT原理,大型语言模型)

ChatGPT原理剖析

  • 语言模型 == 文字接龙
  • ChatGPT在测试阶段是不联网的。

ChatGPT背后的关键技术:预训练(Pre-train)

  • 又叫自监督式学习(Self-supervised Learning),得到的模型叫做基石模型(Foundation Model)。在自监督学习中,用一些方式"无痛"生成成对的学习资料。



  • GPT1 -> GPT2 -> GPT3 (参数量增加,通过大量网络资料学习,这一过程称为预训练),GPT -> ChatGPT (增加人类老师提供的资料学习),GPT到ChatGPT增加的继续学习的过程就叫做 微调 (finetune)。

预训练多有帮助呢?

  • 在多种语言上做预训练后,只要教某一个语言的某一个任务,自动学会其他语言的同样任务。
  • 当在104种语言上预训练,在英语数据上微调后在中文数据上测试的结果(78.8的F1值),和在中文数据上微调并在中文数据上测试的结果(78.1的F1值)相当。

ChatGPT带来的研究问题

  • 1.如何精准提出需求
  • 2.如何更正错误【Neural Editing】
  • 3.侦测AI生成的物件
    • 怎么用模型侦测一段文字是不是AI生成的
  • 4.不小心泄露秘密?【Machine Unlearning】

对于大型语言模型的两种不同期待 Finetune vs. Prompt

  • 成为专才,对预训练模型做改造,加外挂和微调参数。

  • 成为通才,机器要学会读题目描述或者题目范例
    • 题目叙述--Instruction Learning
    • 范例--In-context Learning
  • In-context Learning
  • 给机器的范例的domain是很重要的;范例的数量并不需要很多,并不是通过范例进行学习,范例的作用只是唤醒模型的记忆;也就是说,语言模型本来就会做情感分析,只是需要被指出需要做情感任务。
  • Instruction-tuning
相关推荐
民乐团扒谱机4 分钟前
实验室安全教育与管理平台学习记录(七)网络安全
学习·安全·web安全
蒙奇D索大25 分钟前
【11408学习记录】考研英语长难句精析:三步拆解真题复杂结构,轻松攻克阅读难关!
笔记·学习·考研·改行学it
兰亭妙微31 分钟前
用户体验的真正边界在哪里?对的 “认知负荷” 设计思考
人工智能·ux
13631676419侯36 分钟前
智慧物流与供应链追踪
人工智能·物联网
TomCode先生38 分钟前
MES 离散制造核心流程详解(含关键动作、角色与异常处理)
人工智能·制造·mes
zd2005721 小时前
AI辅助数据分析和学习了没?
人工智能·学习
johnny2331 小时前
强化学习RL
人工智能
乌恩大侠1 小时前
无线网络规划与优化方式的根本性变革
人工智能·usrp
放羊郎1 小时前
基于萤火虫+Gmapping、分层+A*优化的导航方案
人工智能·slam·建图·激光slam
王哈哈^_^1 小时前
【数据集+完整源码】水稻病害数据集,yolov8水稻病害检测数据集 6715 张,目标检测水稻识别算法实战训推教程
人工智能·算法·yolo·目标检测·计算机视觉·视觉检测·毕业设计