LLM基础

LLM:

AGI 通用人工智能

计算不可约性原理

监督微调、奖励建模

饶毅关于gpt https://mp.weixin.qq.com/s/Govj_KD_afL_nK9T16nE0w

gpt2 windows :https://matters.town/@tianci/63096-教你如何在自己的电脑上运行使用gpt-2-2020-07-bafyreihimyaazpasxf6m5nb2f52pkvvv7rkz3eb6uoze4u42kka7qd7a4e

this is chat gpt

https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/#its-just-adding-one-word-at-a-time
1 adding one word each time

(1) ask for the following word

chatGPT is always asking given the text,whats the next word(token which could be part of word )

chatgpt 在做的是对文本合理的延续, 合理指的是 全网数据学习后,要能知道接下来应该是什么字词,

eg: The best thing about AI is its ability to ...

chatgpt looks for meaningful things, and generate a ranked list of words that might follow, together with "probabilities":

(2)随机选词

randomly choose a word in ranked list ,instead of the word with highest posibility;if gpt choose the best one everytime then it lose the creativity and generate massive repeated content

randomness means the same prompt produces different result

(3) "language model" neural net:

Image

i generate next word with probability

ii randomly choose a word for producing different result

2 Where Do the Probabilities Come From?

calculate how often every letter in a content text

相关推荐
智匠MindCraft Al17 小时前
GPT o1 模型使用及API调用
人工智能·gpt·ai·语言模型·chatgpt
一者仁心17 小时前
【AI技术】GPT-SoVits训练日志
人工智能·gpt
JarodYv17 小时前
GPT-5 要来了:抢先了解其创新突破
gpt·openai·生成式ai·gpt-4·gpt-5
灰哥数据智能19 小时前
DB-GPT系列(五):DB-GPT六大基础应用场景part2
数据库·人工智能·python·sql·gpt·abi
小毕超1 天前
基于 PyTorch 从零手搓一个GPT Transformer 对话大模型
pytorch·gpt·transformer
hunteritself2 天前
Sam Altman:年底将有重磅更新,但不是GPT-5!
人工智能·gpt·深度学习·chatgpt·openai·语音识别
知来者逆3 天前
基于ChatGPT 的人工智能代理挖掘化学文献的演变探索
人工智能·gpt·语言模型·自然语言处理·chatgpt·gpt-4v
搬砖的小码农_Sky4 天前
ChatGPT中的“GPT”是什么含义?
人工智能·gpt·深度学习·chatgpt·agi
云起无垠5 天前
第73期 | GPTSecurity周报
人工智能·gpt·安全
obullxl5 天前
深入解析 Transformers 框架(四):Qwen2.5/GPT 分词流程与 BPE 分词算法技术细节详解
人工智能·gpt·ai·transformers·qwen2.5·bpe