LLM基础

LLM:

AGI 通用人工智能

计算不可约性原理

监督微调、奖励建模

饶毅关于gpt https://mp.weixin.qq.com/s/Govj_KD_afL_nK9T16nE0w

gpt2 windows :https://matters.town/@tianci/63096-教你如何在自己的电脑上运行使用gpt-2-2020-07-bafyreihimyaazpasxf6m5nb2f52pkvvv7rkz3eb6uoze4u42kka7qd7a4e

this is chat gpt

https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/#its-just-adding-one-word-at-a-time
1 adding one word each time

(1) ask for the following word

chatGPT is always asking given the text,whats the next word(token which could be part of word )

chatgpt 在做的是对文本合理的延续, 合理指的是 全网数据学习后,要能知道接下来应该是什么字词,

eg: The best thing about AI is its ability to ...

chatgpt looks for meaningful things, and generate a ranked list of words that might follow, together with "probabilities":

(2)随机选词

randomly choose a word in ranked list ,instead of the word with highest posibility;if gpt choose the best one everytime then it lose the creativity and generate massive repeated content

randomness means the same prompt produces different result

(3) "language model" neural net:

Image

i generate next word with probability

ii randomly choose a word for producing different result

2 Where Do the Probabilities Come From?

calculate how often every letter in a content text

相关推荐
檀越剑指大厂4 小时前
【实战】GPT-SoVITS+内网穿透:3分钟搭建可公网访问的语音克隆系统
gpt
电脑小白技术1 天前
安装win11硬盘分区MBR还是GPT_装win11系统分区及安装教程
gpt·mbr·win11选择mbr还是gpt·安装win11硬盘分区
满怀10151 天前
【生成式AI文本生成实战】从GPT原理到企业级应用开发
人工智能·gpt
武子康2 天前
大语言模型 11 - 从0开始训练GPT 0.25B参数量 MiniMind2 准备数据与训练模型 DPO直接偏好优化
人工智能·gpt·ai·语言模型·自然语言处理
武子康2 天前
大语言模型 10 - 从0开始训练GPT 0.25B参数量 补充知识之模型架构 MoE、ReLU、FFN、MixFFN
大数据·人工智能·gpt·ai·语言模型·自然语言处理
武子康3 天前
大语言模型 09 - 从0开始训练GPT 0.25B参数量 补充知识之数据集 Pretrain SFT RLHF
人工智能·gpt·ai·语言模型·自然语言处理
一叶茶3 天前
VsCode和AI的前端使用体验:分别使用了Copilot、通义灵码、iflyCode和Trae
前端·vscode·gpt·ai·chatgpt·copilot·deepseek
sbc-study4 天前
GPT( Generative Pre-trained Transformer )模型:基于Transformer
gpt·深度学习·transformer
Code_流苏5 天前
《Python星球日记》 第69天:生成式模型(GPT 系列)
python·gpt·深度学习·机器学习·自然语言处理·transformer·生成式模型
字节旅行6 天前
大语言模型主流架构解析:从 Transformer 到 GPT、BERT
gpt·语言模型·transformer