今日学习资源精选
📚 精选文章
1. 为什么 Transformers 是现代 AI 的基石
- 作者:Jay Alammar
- 难度:⭐⭐⭐ (中级)
- 时长:约 15 分钟
- 简介:这篇文章通过极具视觉冲击力的图解,拆解了 Transformer 架构的核心------自注意力机制(Self-Attention)。它解释了模型是如何通过计算权重来理解上下文联系的。
- 链接 :The Illustrated Transformer
- 推荐理由:如果你想从"只会调包"进阶到"理解原理",这是公认的必读圣经。
2. 构建 AI Agent 的设计模式
- 作者:Andrew Ng (吴恩达)
- 难度:⭐⭐ (初级/中级)
- 时长:约 8 分钟
- 简介:吴恩达教授探讨了从"提示词工程"向"代理流工作模式"的转变,分析了反思(Reflection)、工具使用和多智能体协作的潜力。
- 链接 :DeepLearning.AI Blog
- 推荐理由:AI 的未来不仅仅是大模型,更是能自主完成任务的 Agent。这篇文章指明了技术前沿的落地方向。
🎥 视频教程
-
[Andrej Karpathy] Let's build GPT: from scratch, in code.
-
简介:前 Tesla AI 负责人手把手教你用 Python 和 PyTorch 从零写出一个小型 GPT。
-
观看建议:适合有一定编程基础,想彻底搞懂"预测下一个 Token"是怎么回事的同学。
-
[3Blue1Brown] Neural Networks Series
-
简介:数学之美的巅峰之作,用极其直观的动画解释线性代数在神经网络中的运作方式。
🛠️ 实用工具
- Cursor :集成了大模型的 AI 代码编辑器,能大幅提升编程效率。 - cursor.com
- Hugging Face :AI 界的 GitHub,你可以在这里找到几乎所有开源的模型、数据集和演示。 - huggingface.co
- Perplexity AI :结合了搜索与生成的知识获取工具,适合替代传统搜索进行深度调研。 - perplexity.ai
💡 学习技巧
- 费曼技巧 (Feynman Technique):尝试向一个 10 岁的孩子解释什么是"大语言模型"。如果你解释不清楚,说明你还没完全掌握。
- 间隔重复 (Spaced Repetition):对于 AI 领域的海量新名词(如 RAG, LoRA, Quantization),使用 Anki 或类似工具进行周期性复习,防止"知识过载"。
- 边学边做 (Build to Learn):不要只看教程。尝试用 API 开发一个能自动回复邮件的小脚本,实战中的报错是你最好的老师。
📖 推荐书籍
- 《深度学习》 (Deep Learning) - 伊恩·古德费洛 (Ian Goodfellow) 等著。被誉为 AI 领域的"花书",数学基础和算法理论非常扎实。
- 《芯片战争》 (Chip War) - 克里斯·米勒 (Chris Miller) 著。虽然不是技术书,但它能帮你理解 AI 算力竞赛背后的地缘政治与硬件逻辑。
🎯 本周学习计划
- 周一:阅读 Transformer 原理文章,手动推演 Self-Attention 的计算过程。
- 周二:观看 Karpathy 的视频(前 30 分钟),搭建基础的 Python 深度学习环境。
- 周三:在 Hugging Face 上寻找一个感兴趣的开源模型,尝试在本地运行推理。
- 周四:学习 Prompt Engineering 的高级技巧(如 CoT, Few-shot),并在 Leets 或 ChatGPT 上测试。
- 周五:复盘本周笔记,尝试用 AI 工具(如 Cursor)写一个简单的爬虫或小工具。
精选时间:2026年2月22日