第一天学习(GPT)

1.图片和语义是如何映射的?

**Dalle2:**首先会对图片和语义进行预训练,将二者向量存储起来,然后将语义的vector向量转成图片的向量,然后基于这个图片往回反向映射(Diffusion)------>根据这段描述得到最终的图片

2.RLHF的概念:

RL(Reinforcement Learning): 强化学习就是一种机器学习方法,其中的AI通过与环境互动 来学习如何执行任务,最后的目标是得到最大化的奖励;
HF(Human Feedback):RLHF中,人类的反馈作用在于指导和调整AI的学习过程------>这可以通过多种方式实现,如评估代理的行为、提供奖励信号或直接修改代理的策略。(本质就是AI靠近人类的这个,减少偏移)

3.方法技术:

  1. 偏好排序(Preference-based Learning):

    人类操作员比较AI产生的一对策略或行为序列,并选择哪一个更优。这些选择被用作训练信号,引导AI学习更优的行为。

  2. 人类示范(Learning from Demonstrations):

    AI通过观察模仿 人类专家的行为来学习。这种方法特别适用于复杂的任务,其中定义明确的奖励函数困难或不可能。

  3. 纠正反馈(Corrective Feedback):

    当AI执行任务时,人类可以在AI犯错误或偏离期望路径时提供实时反馈,帮助AI更正其行为。

3.chatgpt对社会

本质上并不是对于某技术的创新,个人认为更多的是对以往知识的拼凑,然后基于你的问题在现有的数据上进行response

如果你的问题是那种非常创新的,那么chatgpt的效率就很低(因为它基于的base就是旧的数据)。

4.transformer的自注意力:

比如下面这句话,它的注意力更多放在上海和昆明,所以介绍的风景更多的是上海和昆明而不是沿途,故而违背了我的本意。

5.对自身:

它回答的问题不一定是正确的,所以你需要再进行百度进行交叉验证。这样效率是不高的,另外chatgpt的核心一句话:基于以前的数据make future

6.对未来:

  1. 未来可能产生大量垂直领域的类的大模型开发岗位,并非类似qwen,gpt,wenxin这类的大模型,而是在此基础之上结合私域的数据进行训练,以至于满足公司的需求。

7.GPT的发展历程;

GPT(Generative Pre-trained Transformer),一个预训练语言模型,这一系列的模型可以在非常复杂的NLP任务中取得非常惊艳的效果,例如文章生成,代码生成,机器翻译,Q&A等,而完成这些任务并不需要有监督学习进行模型微调。而对于一个新的任务,GPT仅仅需要非常少的数据便可以理解这个任务的需求并达到接近或者超过state-of-the-art的方法。

GPT模型的训练需要超大的训练语料(而这些语料和data都是以前的,注定了就不能make future) ,超多的模型参数以及超强的计算资源。GPT系列的模型结构秉承了不断堆叠transformer的思想 ,通过不断的提升训练语料的规模 和质量,提升网络的参数数量来完成GPT系列的迭代更新的。

https://blog.csdn.net/yimenren/article/details/122286135

相关推荐
二川bro3 小时前
多模态AI开发:Python实现跨模态学习
人工智能·python·学习
石像鬼₧魂石3 小时前
Netcat,网络瑞士军刀(新手学习备用)
学习
todoitbo4 小时前
基于 DevUI MateChat 搭建前端编程学习智能助手:从痛点到解决方案
前端·学习·ai·状态模式·devui·matechat
Ma0407137 小时前
【机器学习】监督学习、无监督学习、半监督学习、自监督学习、弱监督学习、强化学习
人工智能·学习·机器学习
小熊officer7 小时前
Nginx学习
运维·学习·nginx
秋邱7 小时前
价值升维!公益赋能 + 绿色技术 + 终身学习,构建可持续教育 AI 生态
网络·数据库·人工智能·redis·python·学习·docker
Three~stone7 小时前
Matlab2025b的安装教程(附安装包和密钥破解文件)
学习·mysql·持续部署
爱学习的大牛1237 小时前
如何系统学习网络渗透测试:从入门到精通的完整指南
网络·学习
落子摘星8 小时前
suricata学习杂记(一)
学习·modbus·suricata·pdu
charlie1145141918 小时前
深入理解C/C++的编译链接技术6——A2:动态库设计基础之ABI设计接口
c语言·开发语言·c++·学习·动态库·函数