LLM基础

LLM:

AGI 通用人工智能

计算不可约性原理

监督微调、奖励建模

饶毅关于gpt https://mp.weixin.qq.com/s/Govj_KD_afL_nK9T16nE0w

gpt2 windows :https://matters.town/@tianci/63096-教你如何在自己的电脑上运行使用gpt-2-2020-07-bafyreihimyaazpasxf6m5nb2f52pkvvv7rkz3eb6uoze4u42kka7qd7a4e

this is chat gpt

https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/#its-just-adding-one-word-at-a-time
1 adding one word each time

(1) ask for the following word

chatGPT is always asking given the text,whats the next word(token which could be part of word )

chatgpt 在做的是对文本合理的延续, 合理指的是 全网数据学习后,要能知道接下来应该是什么字词,

eg: The best thing about AI is its ability to ...

chatgpt looks for meaningful things, and generate a ranked list of words that might follow, together with "probabilities":

(2)随机选词

randomly choose a word in ranked list ,instead of the word with highest posibility;if gpt choose the best one everytime then it lose the creativity and generate massive repeated content

randomness means the same prompt produces different result

(3) "language model" neural net:

Image

i generate next word with probability

ii randomly choose a word for producing different result

2 Where Do the Probabilities Come From?

calculate how often every letter in a content text

相关推荐
盼小辉丶7 小时前
PyTorch实战(10)——从零开始实现GPT模型
人工智能·pytorch·gpt·深度学习
Constantine371 天前
GPT-5.1已上线!亲测国内可用,保姆级使用教程
gpt
FreeBuf_1 天前
攻击者利用自定义GPT的SSRF漏洞窃取ChatGPT机密数据
gpt·chatgpt
yaocheng的ai分身1 天前
【转载】 OpenAI 推出 GPT-5.1:面向开发者的智能模型
gpt·chatgpt
AI探知-阿薇1 天前
GPT-5.1发布:深入解读与 GPT-5、GPT-4o 在性能与安全基准上的全面对比
gpt·安全
illuspas3 天前
MI50运算卡使用llama.cpp的ROCm后端运行gpt-oss-20b的速度测试
人工智能·gpt·llama
TGITCIC4 天前
开源模型登顶?Kimi K2 Thinking 实测解析:它真能超越 GPT-5 吗?
gpt·ai大模型·开源大模型·kimi·月之暗面·大模型ai·国产大模型
金木讲编程6 天前
如何创建“国学助手”GPT?
gpt·ai编程
少林码僧6 天前
2.3 Transformer 变体与扩展:BERT、GPT 与多模态模型
人工智能·gpt·ai·大模型·bert·transformer·1024程序员节
FreeBuf_6 天前
GPT-4o与GPT-5存在七项零点击攻击漏洞
gpt·chatgpt