人工智能公开课学习目录

一句话总结:

大语言模型 = Transformer + 海量数据 + 预测下一个 Token

课程目标人群:

  • AI 小白

  • 程序员想转 AI

  • 想理解 ChatGPT 原理的人

生成式 AI 知识图谱

├── 1 基础概念

│ │

│ ├── 生成内容

│ │ ├── 文本

│ │ ├── 图片

│ │ ├── 音频

│ │ └── 视频

│ │

│ └── 典型应用

│ ├── ChatGPT

│ ├── Midjourney

│ └── Stable Diffusion

├── 2 大语言模型 (LLM)

│ │

│ ├── Token

│ │ └── 文本最小单位

│ │

│ ├── Language Model

│ │ └── 预测下一个 Token

│ │

│ └── Transformer

│ ├── Embedding

│ ├── Self-Attention

│ └── Feed Forward

├── 3 Attention 机制

│ │

│ ├── 关注重要词

│ ├── 理解上下文

│ └── 建立长距离关系

├── 4 Prompt Engineering

│ │

│ ├── Role Prompt

│ │ └── 指定角色

│ │

│ ├── Few-shot

│ │ └── 给示例学习

│ │

│ └── Chain-of-Thought

│ └── 逐步推理

├── 5 模型训练流程

│ │

│ ├── Pretraining

│ │ └── 海量数据训练

│ │

│ ├── Fine-tuning

│ │ └── 任务优化

│ │

│ └── RLHF

│ └── 人类反馈强化学习

├── 6 模型能力来源

│ │

│ ├── 数据规模

│ ├── 参数规模

│ └── 计算能力

├── 7 局限性

│ │

│ ├── AI幻觉

│ ├── 数据偏见

│ └── 高训练成本

└── 8 未来方向

├── 多模态 AI

├── AI Agent

└── 人机协作

3个核心问题

1️⃣ AI 如何生成内容

通过 概率预测 Token

例如:

markdown 复制代码
我今天很____

模型预测概率:

复制代码
开心 0.42
高兴 0.28
累    0.12

2️⃣ AI 如何理解语言

核心结构:

Transformer architecture

关键机制:

Attention

作用:

  • 找到句子重点
  • 理解上下文

3️⃣ AI 如何变得更聪明

训练流程:

复制代码
海量数据
   ↓
Pretraining
   ↓
Fine-tuning
   ↓
RLHF
相关推荐
刀法如飞10 小时前
Agentic Workflow 设计与实战指南
架构·agent·ai编程
tkevinjd10 小时前
基于LangChain的简易智能旅游助手Agent
langchain·agent
码云之上13 小时前
上下文工程实战:解决多轮对话中的"上下文腐烂"问题
前端·node.js·agent
攀登的牵牛花13 小时前
我把 Gemma4:26b 装进 M1 Pro 后,才看清 AI 编程最贵的不是模型费,而是工作流
前端·agent
LucaJu14 小时前
Agent Skill 踩坑记录 | SpringBoot 打包后 Skill 加载失败问题排查与解决
agent·skill·spring ai·spring ai alibaba
DigitalOcean15 小时前
拒绝 GPU 集群资源浪费:教你打造自动化降本的 AI 运维 Agent
agent·自动化运维
不丿二15 小时前
MCP 动态 Token 注入:企业级认证的下一步
agent
iuyup15 小时前
拆解 Hermes Agent 学习闭环,用 LangGraph 实现 Self-Improving Agent 设计模式
agent
程序消消乐17 小时前
第一章:Claude Code 记忆系统——架构总览与四种记忆类型
大数据·架构·agent·claude code
程序消消乐17 小时前
第四章:Claude Code CLI中的CLAUDE.md 系统、团队记忆安全、配置开关与最佳实践
agent