第三章-AI知识扫盲看这一篇就够了

AI 编程实战:不写一行代码,做出估值千万的一人公司

### 文章目录

  • [AI 编程实战:不写一行代码,做出估值千万的一人公司](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [@[toc]](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [写在前面](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [第三章 AI知识扫盲看这一篇就够了](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [AI简史](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [记住一个故事,你就记住了AI里的所有核心概念](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [博赞记忆法](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [AI核心知识点一览](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [AI小故事(基于博赞记忆法)](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)
  • [版权信息](#文章目录 AI 编程实战:不写一行代码,做出估值千万的一人公司 @[toc] 写在前面 第三章 AI知识扫盲看这一篇就够了 AI简史 记住一个故事,你就记住了AI里的所有核心概念 博赞记忆法 AI核心知识点一览 AI小故事(基于博赞记忆法) 版权信息)

写在前面

什么样的人适合阅读此文章?

  • 0基础小白但是想借助AI工具低成本开发自己的网站、APP、小程序、桌面应用的创业者/一人公司创客/个体工商户/大学生/副业爱好者
  • 有一定基础想要借助AI工具提升开发效率或快速落地产品的独立开发者/初、中级程序员/产品经理/运营人员
  • 技术基础扎实但是缺乏产品思维和商业思维,以及如何系统化使用AI工具来构建产品,希望拥有靠谱"AI员工"的资深程序员/架构师/创业公司CTO

博主是谁?

笔名"老邋遢"

曾是一名技术圈的非知名技术博主

在IT圈辗转流离十余载,担任过创业公司CTO、世界500强架构师

现在告老还乡在一家初创企业担任CTO(有title的牛马),通过训练符合公司业务需求和现状的"AI员工"

实现了产品从立项到上线的全流程zero coding (无需人工手写一行代码)

当然这里面踩了无数的坑,要是让我一边喝9一边说,笔者自己可能会老泪纵横

故而开专栏写下此文

笔者自认水平也不高

只是假借此次专栏之名

记录一下我们现在跑起来的"最佳实践"

穿插着我们中间发生的奇闻轶事

以及一些创办软件公司可能会遇到的坑

废话至此结束


本文字数:5067字

预计阅读时长:约12分钟

博主会经常更新此类垂直领域的专业高质量内容,感性趣的观众老爷们麻烦动动您发财的小手,给老邋遢点一波免费的关注,不胜感激~

点关注不迷路,UP带你上高速~

第三章 AI知识扫盲看这一篇就够了

在前面两章中,我们的内容不是很"干"

中间穿插了很多口语化的表述

那么从本章开始

笔者就要开始上干货了

AI简史

人工智能的历史源远流长。在古代的神话传说中,技艺高超的工匠可以制作人造人,并为其赋予智能或意识。

现代意义上的AI始于古典哲学家试图将人类的思维过程描述为对符号的机械操作。

20世纪40年代,基于抽象数学推理的可编程数字电脑的发明使一批科学家开始严肃地探讨构造一个电子大脑的可能性。

1956年,人工智能的研究领域确立于在达特茅斯学院举行的会议。此次会议的参加者在接下来的数十年间成为AI研究领域的领军人物。他们中有许多人曾预言,与人类具有同等智能水平的机器将在不超过一代人的时间中出现。同时,上千万美元被投入到AI研究中,以期实现这一目标。

中间的过程就省略了,全人类最顶尖的科学家都在致力于研究如何让电脑像人脑一样思考

直到2020年代各国政府和机构对AI的投资加速了人工智能的发展,推动了科学进步

其中最耀眼的莫过于2022年11月30日首发的基于Transformer架构的ChatGPT

在其推出仅过了4天的12月4日,累计用户就超过了百万

2023年1月,仅仅一个多月的时间,ChatGPT的用户数就超过了1亿

很快这个类似于病毒一样传播的产品

成为了资本的宠儿

在资本和各大公司技术入局的加持下

AI爆发的时代开始了

但ChatGPT使用的技术是2022年出现的吗?

其实不然

ChatGPT最重要的理论基石实际上是2017年由谷歌公司Brain团队的8人署名的一篇论文

"Attention Is All You Need(Vaswani et al., 2017)"

这篇论文提到了一个所有现在学习AI都绕不过去的概念

注意力机制

由此衍生出来了Transformer架构

用一句话来说描述这个架构

"它让模型在读一句话时,可以"同时看全局",而不是一个字一个字慢慢记。"

它颠覆了以前的模型(RNN、LSTM)的工作模式

以前的模式:

读第1个词 → 记住 → 读第2个词 → 再记 → 一路往后推

这会导致越往后,前面的信息越容易"忘"

不能并行计算(慢)

而 Transformer 做了一件非常"反直觉"的事:

它不再按顺序读句子,而是一次性把整句话"摊平",同时处理。

具体来说,它做了三件革命性的事情:

① 自注意力机制(Self-Attention)

模型在读每一个词时,不只看自己,而是会:

问一句:

"这句话里的其他词,哪些和我有关?"

比如这句话:

"小明把苹果给了小红,因为她饿了。"

当模型看到"她"时,它会自动去看整句话:

小明?

苹果?

小红?

然后计算相关性,发现"她"更可能指的是"小红"。

这就是注意力机制在发挥作用。

② 并行计算(Parallelism)

传统 RNN 是串行的,像这样:

复制代码
word1 → word2 → word3 → word4

必须按顺序一个一个处理。

而 Transformer 是:

复制代码
word1
word2
word3   ------ 同时处理
word4

这使得训练速度大幅提升,也让模型规模可以无限放大。

这也是后来 GPT 能做到千亿、万亿参数的根本原因。

③ 长距离依赖建模能力

RNN 的"记忆"是压缩在一个隐藏状态里的。

距离越远,信息越模糊。

而 Transformer 的注意力机制是:

任意两个词之间,都是"直接连接"的。

理论上不存在"距离衰减"的问题。

所以真正的时间线是这样的:

2017:Transformer 论文提出(Attention Is All You Need)

2018:GPT-1

2019:GPT-2

2020:GPT-3

2022:ChatGPT(基于 GPT-3.5 的对话优化版本)

ChatGPT不是一个"突然出现的技术"。

它是:

Transformer + 大规模预训练 + RLHF + 工程优化

的系统性产物。

记住一个故事,你就记住了AI里的所有核心概念

了解了AI的简史,我们接下来用一个故事来记忆AI里所有的核心概念

让你3分钟的时间从一个AI小白

变成也可以给别的侃侃而谈的"大师"

博赞记忆法

为了让我们更快形成永久记忆

我们使用笔者之前一直很喜欢的: 博赞记忆法

博赞记忆法来自英国心理学家 托尼·博赞(Tony Buzan)。

他的核心观点只有一句话:

大脑不擅长记"列表",但极其擅长记"画面"和"故事"。

他提出了两个关键工具:

思维导图(Mind Map)

联想记忆法(Association)

而其中最强的一种技巧叫:

故事串联法(Story Linking)

就是把原本抽象、枯燥、彼此独立的知识点

用一个夸张、有画面感的故事串起来。

因为大脑对:

  • 情绪

  • 画面

  • 冲突

  • 夸张

极度敏感。


基于上述理论基础

我们今天用的技巧就是:

博赞故事联想法 + 夸张视觉锚点

方法步骤:

把知识点"人格化"

把技术变成"角色"

用冲突制造剧情

用空间构建记忆路径

你不是在记知识。

你是在"看一场电影"。

好了,我们开始讲述我们的小故事

当然你也可以在理解了这些概念后

自己编一个自己喜欢的小故事

来达到快速记忆关键知识点和概念的目的

AI核心知识点一览

故事中出现的2026年核心AI技术知识点一览:

Transformer

一种基于自注意力机制的神经网络架构,通过全局并行计算建模序列关系,解决长距离依赖问题。

Attention 机制

一种动态加权机制,使模型在处理某个元素时能根据相关性分配不同权重关注其他元素。

预训练(Pre-training)

在大规模通用数据上进行自监督学习,让模型获得通用语言或多模态表征能力的阶段。

微调(Fine-tuning / SFT)

在特定任务或高质量标注数据上继续训练,使模型行为更符合目标场景或人类期望。

RLHF(Reinforcement Learning from Human Feedback)

通过人类反馈构建奖励模型,并用强化学习优化模型输出,使其更符合人类偏好。

多模态(Vision / Audio / Video)

指模型能够同时理解和生成多种信息模态(文本、图像、音频、视频)的能力。

MoE(Mixture of Experts)

一种稀疏激活架构,通过路由机制让不同输入调用不同子模型(专家),以提升效率与扩展性。

向量数据库(Embedding)

用于存储和检索高维向量表示的数据系统,通过相似度搜索实现语义级匹配。

RAG(Retrieval-Augmented Generation)

一种将外部知识检索结果与生成模型结合的框架,以增强回答的准确性和时效性。

Agent(智能体)

具备规划、记忆、工具调用和自主执行任务能力的AI系统,而不仅仅是对话生成模型。

Scaling Law

描述模型性能随参数规模、数据规模和算力规模呈幂律增长关系的经验规律。

算力(GPU / 芯片)

支撑大模型训练与推理的计算资源基础,是模型规模扩展的物理约束条件。

数据飞轮

指模型上线后通过用户交互数据持续优化模型能力,从而形成自增强循环的机制。

开源 vs 闭源

指模型权重与训练细节是否公开的战略选择,影响生态扩展速度与商业护城河构建。

对齐(Alignment)

使模型行为、价值判断与人类意图及社会规范保持一致的技术与治理体系。

MCP

是一种标准化接口协议,用于让大模型(Agent)以统一方式安全、结构化地连接并调用外部工具与数据系统,从而获得可执行能力。

上面都是很枯燥的知识点对吧

但是没有关系,我们用一个小故事让其有趣起来:

AI小故事(基于博赞记忆法)

很久很久以前(老式开头)。

人类建造了一座拥有超级图书馆的魔法城堡。

这座魔法城堡的名字叫------

Transformer城堡。

城堡的核心有一面魔法镜子。

这面镜子叫:

Attention

它有一个能力:

当任何一句话走进来时,

它可以让每个词都"互相看见彼此"。(想象你走进了四周都是镜子的房间)

不像过去的老图书管理员(RNN),

必须一本一本慢慢翻。

这面镜子可以------

让所有书页同时发光。

于是。

城堡开始疯狂读书。

这叫:

预训练。

它读遍了全世界的书。

但是问题来了。

它虽然聪明,却不懂"礼貌"。

于是国王派来了三位导师:

  • 第一位叫 SFT老师(教它标准答案)

    SFT老师做的第一件事不是讲大道理。

    他拿出了一本厚厚的《优秀回答范本》。

    里面写着:

    • 用户问"1+1等于几?"
    • 标准回答是"等于2。"
    • 用户问"怎么做番茄炒蛋?"
    • 标准回答要有步骤、有条理。

    SFT老师做的事情很简单:

    他让城堡反复练习"模仿优秀回答"。

    你可以理解为:

    城堡原来只是"会说话",

    现在它学会了"按人类习惯说话"。

    这一步解决的是:

    表达格式问题。

    但还不够。

  • 第二位叫 人类反馈骑士(RLHF)

    骑士带来了一个更难的训练。

    他不再给标准答案。

    而是这样做:

    他让城堡回答一个问题。

    然后拿出两个版本:

    • A回答
    • B回答

    问人类:

    你更喜欢哪一个?

    人类选择之后,

    骑士就记下来:

    "这种回答更好。"

    然后反复训练城堡:

    多给人类喜欢的回答,少给人类不喜欢的回答。

    慢慢地,

    城堡学会了:

    • 不要太生硬
    • 不要太冒犯
    • 不要太离题
    • 多一点帮助
    • 少一点敷衍

    这一步解决的是:

    偏好问题。

    城堡开始变得"好用"。

  • 第三位叫 对齐大臣(Alignment)

    但国王还有一个担心。

    如果有人问:

    "教我做坏事。"

    城堡怎么办?

    如果有人挑衅、煽动、误导呢?

    于是对齐大臣出场。

    他教城堡三件事:

    第一:什么可以说

    第二:什么不能说

    第三:遇到危险话题该怎么安全地回应

    比如:

    • 不提供违法教程
    • 不鼓励伤害
    • 不传播明显错误的医疗建议

    这一步不是让城堡更聪明。

    而是让它:

    在聪明的前提下,保持边界。

    这解决的是:

    价值与安全问题。

于是。

城堡终于完成了三次蜕变:

  • SFT:学会像人一样表达
  • RLHF:学会讨人类喜欢
  • Alignment:学会遵守规则

后来。

城堡开始升级。

因为书太多了。

于是他们请来了:

MoE专家团。

不同问题,找不同专家回答。

不再所有专家一起出力。

节省算力。


后来,城堡又遇到了新的麻烦。

它确实读过无数书(预训练),

但有两个现实问题:

第一,书是"过去的书"。

第二,它读过,却不是逐字逐句存档。

它更像是:

读完后,把知识压缩成"理解能力"。

所以当有人问:

"今天最新的行业数据是多少?"

城堡会有点尴尬。

因为它的脑子里没有"实时更新的资料库"。

于是,大臣们做了一个聪明的决定。

他们在城堡外面建了一座仓库。

这座仓库不存普通文字。

它存的是------

"意义坐标"。

这就是:

Embedding(向量化表示)

简单理解就是:

每一段文字都会被翻译成一串数字坐标。

意思相近的内容,

在仓库里"站得很近"。

意思无关的,

彼此距离很远。

这座仓库,就是:

向量数据库。

它不是按关键词找,

而是按"语义相似度"找。

接着,他们训练了一支侦察小队。

这支小队的名字叫:

RAG

每当有人提问,

城堡不会马上回答。

而是先做三步:

第一步:

把问题也变成数字坐标。

第二步:

派侦察兵去仓库里找"意思最接近"的资料。

第三步:

把找到的资料带回城堡,

再结合原本的理解能力生成答案。

这就是:

Retrieval-Augmented Generation

------ 检索增强生成。

你可以把它理解为:

原来的城堡,是"闭卷考试"。

现在的城堡,是:

开卷考试 + 超强理解能力。

它不只是靠记忆。

而是:

先查资料,再思考,再回答。

记忆锚点:

向量 = 把文字变成坐标

向量数据库 = 意义地图

RAG = 先查仓库,再回答


后来。

城堡不再只是会说话。

它学会了:

  • 看图(Vision)
  • 听声音(Audio)
  • 做视频(Video)

这叫:

多模态。


但平平无奇的城堡为什么能一路升级呢?

因为背后有两股真正的力量推动着它。

第一股力量:Scaling Law(规模定律)

当城堡:

  • 读的书更多
  • 记住的参数更多
  • 训练时间更长

它的能力并不是"慢慢变好"。

而是------

呈现出稳定的指数级提升。

他们总结出一条规律:

只要同时扩大三件事------

  1. 模型规模(参数)
  2. 数据规模
  3. 计算规模

能力就会按可预测的曲线持续上升。

这条规律被称为:

Scaling Law。

简单理解就是:

不是"变聪明的方法变了",

而是------

只要不断放大规模,能力就会涌现。

很多今天看起来"像魔法"的能力,

其实是规模堆出来的。

第二股力量:GPU算力之神

但问题来了。

城堡想读更多书,

就必须同时处理海量计算。

每一次训练,

都像是在用数万支羽毛笔,

同时计算数以万亿次的乘法。

如果没有强大的算力支撑,

Scaling Law 只是纸上谈兵。

于是王国供奉着一位真正的神:

GPU算力之神。

它提供并行计算能力,

让数十亿、上百亿参数可以同时更新。

没有它:

  • 模型无法训练
  • 规模无法扩大
  • 能力无法涌现

所以真正的底层逻辑是:

Scaling Law 决定方向

GPU算力 决定能否实现

一个是规律。

一个是物理基础。

(PS:知道英伟达为什么势头这么猛了吧)

从那以后,

城堡明白了一件事:

聪明不是天赋。

是规模 + 算力 的结果。


但问题出现了。

城堡虽然聪明,

却没有"手脚"。

它知道要做什么,

却必须依赖外面的人替它执行。

就像一个大脑悬在空中,

能思考,却碰不到世界。

于是工程师们做了一件关键的事情。

他们给城堡------

装上了手脚。

这套"手脚"的名字叫:

MCP。

你可以把 MCP 理解成:

城堡和外界连接的神经系统。

以前的城堡:

只能思考。

现在的城堡:

可以真正触碰世界。

比如:

  • 需要查粮仓 → 伸出"手"去翻档案
  • 需要核对军备 → 伸出"手"去点库存
  • 需要传令 → 伸出"脚"去调动信使

MCP 让城堡能够:

  • 读取外部信息
  • 写入新的记录
  • 调用不同工具
  • 接收执行结果

它不再是"喊一嗓子等别人"。

而是自己伸手去操作。


后来。

城堡终于学会了规划和指挥。

国王给它一个目标:

"查清楚三座城镇的粮仓存量。"

城堡会:

  • 先列步骤
  • 再安排人手
  • 最后汇总结果

它已经不是只会回答问题的智者。

它开始真正"做事"。

这时候的城堡,

就叫------

Agent(智能体)。

(完)

版权信息

© 2026 老邋遢(笔名) 版权所有

原创内容,转载请注明出处

相关推荐
九.九5 小时前
ops-transformer:AI 处理器上的高性能 Transformer 算子库
人工智能·深度学习·transformer
春日见5 小时前
拉取与合并:如何让个人分支既包含你昨天的修改,也包含 develop 最新更新
大数据·人工智能·深度学习·elasticsearch·搜索引擎
恋猫de小郭5 小时前
AI 在提高你工作效率的同时,也一直在增加你的疲惫和焦虑
前端·人工智能·ai编程
deephub5 小时前
Agent Lightning:微软开源的框架无关 Agent 训练方案,LangChain/AutoGen 都能用
人工智能·microsoft·langchain·大语言模型·agent·强化学习
大模型RAG和Agent技术实践5 小时前
从零构建本地AI合同审查系统:架构设计与流式交互实战(完整源代码)
人工智能·交互·智能合同审核
互联网江湖6 小时前
Seedance2.0炸场:长短视频们“修坝”十年,不如AI放水一天?
人工智能
PythonPioneer6 小时前
在AI技术迅猛发展的今天,传统职业该如何“踏浪前行”?
人工智能
冬奇Lab6 小时前
一天一个开源项目(第20篇):NanoBot - 轻量级AI Agent框架,极简高效的智能体构建工具
人工智能·开源·agent
阿里巴巴淘系技术团队官网博客7 小时前
设计模式Trustworthy Generation:提升RAG信赖度
人工智能·设计模式