LLM基础

LLM:

AGI 通用人工智能

计算不可约性原理

监督微调、奖励建模

饶毅关于gpt https://mp.weixin.qq.com/s/Govj_KD_afL_nK9T16nE0w

gpt2 windows :https://matters.town/@tianci/63096-教你如何在自己的电脑上运行使用gpt-2-2020-07-bafyreihimyaazpasxf6m5nb2f52pkvvv7rkz3eb6uoze4u42kka7qd7a4e

this is chat gpt

https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/#its-just-adding-one-word-at-a-time
1 adding one word each time

(1) ask for the following word

chatGPT is always asking given the text,whats the next word(token which could be part of word )

chatgpt 在做的是对文本合理的延续, 合理指的是 全网数据学习后,要能知道接下来应该是什么字词,

eg: The best thing about AI is its ability to ...

chatgpt looks for meaningful things, and generate a ranked list of words that might follow, together with "probabilities":

(2)随机选词

randomly choose a word in ranked list ,instead of the word with highest posibility;if gpt choose the best one everytime then it lose the creativity and generate massive repeated content

randomness means the same prompt produces different result

(3) "language model" neural net:

Image

i generate next word with probability

ii randomly choose a word for producing different result

2 Where Do the Probabilities Come From?

calculate how often every letter in a content text

相关推荐
哪吒编程11 小时前
谁是最强编程大模型?横向对比GPT-5、GPT-5 Codex、Claude Sonnet 4.5、Gemini 2.5 Pro
gpt·chatgpt·claude
小咕聊编程1 天前
【含文档+PPT+源码】基于SpringBoot+Gpt个人健康管理系统
java·gpt·tomcat·毕业设计·hibernate
Mr.Lee jack1 天前
体验GPT-OSS-120B:在PH8平台上探索超大规模语言模型的强大能力
人工智能·gpt·语言模型·openai·deepseek
哪吒编程1 天前
如何用好 Codex?OpenAI 内部最佳实践指南:8 个最佳应用场景
gpt·openai
viperrrrrrrrrr74 天前
GPT系列模型-详解
人工智能·gpt·llm
2401_841495644 天前
预训练基础模型简介
gpt·语言模型·自然语言处理·bert·transformer·大语言模型·预训练
Skrrapper7 天前
GPT‑5 都更新了些什么?
gpt
三天哥9 天前
Sora 2为什么会火?
人工智能·gpt·ai·aigc·agi·ai视频·sora
. . . . .9 天前
GPT的前世今生及发展
人工智能·gpt
丁学文武9 天前
大模型原理与实践:第三章-预训练语言模型详解_第3部分-Decoder-Only(GPT、LLama、GLM)
人工智能·gpt·语言模型·自然语言处理·大模型·llama·glm