【2025年度总结】从4篇到187篇

前言

  • 2026 年的第二天,今天的我在深圳图书馆,看着 后台统计的那个数字------187篇 ,我竟然有一种恍如隔世的感觉。如果把时间轴拉回一年前,我的2024年只留下了4篇文章的记录;再往前看,2023年只有1篇。那时的我,或许是忙碌,或许是迷茫,博客对于我来说,更像是一个偶尔路过的驿站。

  • 但在2025年,一切都变了。这一年 我小小的征服了下技术,技术也重塑了我。

  • 如果非得要给我的2025年一个关键词,那就是:"坚持"。

一、 技术复盘
  • 2025年是人工智能尤其是大语言模型(LLM)狂飙突进的一年。面对铺天盖地的新技术、新名词,我没有选择做一个只会调包的"API调用工程师",而是选择了一条最笨、但最扎实的路------从底层原理出发,构建自己的认知大厦。
  • 翻看我的专栏列表,这187篇文章并非流水账,而是我这一年技术攻坚的战地笔记:

    1. 从0到1的执着 : 这是我今年最自豪的成就。在**《构建大语言模型(从头开始)》** 专栏中,我更新了整整 34篇 文章。从最基础的Tokenizer到复杂的Attention机制,我强迫自己不依赖现成的黑盒,而是去理解每一行代码背后的数学原理。

    2. 死磕核心架构 : Transformer是现代LLM的基石,我用了 21篇 文章去拆解它;为了搞懂神经网络的"神经元",我专门写了 17篇 关于**《神经网络常见激活函数》**的解析。等等这些看似枯燥的基础设施建设,让我在面对后来涌现的各种MoE或者其他等新架构时,让我能够相对轻松的看穿其本质。

    3. 广泛涉猎与精准打击 : 从 《数学之美》 的读书笔记(12篇)到 Transformer 的实战,再到 LLM中的强化学习RAG 技术。我的技术栈从Python基础库(Pandas, 常用库)一路延伸到了AI的最前沿。

  • 这187篇文章,每一篇都是我与技术焦虑对抗的痕迹,也是我将知识内化为能力的证明。

二、 心路历程
  • 很多人问我:"你怎么有时间写这么多文章?不用工作吗?不用带娃吗?"

    坦白说,2025年对我来说并不轻松。作为一名技术人,工作上的压力从未减少;而在生活中,我也同样扮演着重要的角色,我的小孩去年9 月出生,所以我的母亲今年在帮慢带孩子,我的老婆每天下班比我还晚,每天除了上班,我还得兼顾晚饭,可能 9 点半以后,才会有属于我自己个人的时间

    这一百多篇文章,大多诞生于凌晨的微光和深夜的静谧中。

  • 为什么要写? 最开始是为了记忆 。好记性不如烂笔头,尤其是在大模型领域,知识迭代速度太快,上个月的最先进模型这个月可能就过时了。不记录,就意味着遗忘。 后来是为了思考 。费曼技巧告诉我,如果你不能简单地把一个东西讲清楚,你就没有真正理解它。写作,就是我与自己进行的一场深度对话,是对思维碎片的整理和重构。 最后变成了习惯 。看着专栏里的文章一篇篇增加,看着粉丝的关注和点赞,这种正向反馈成为了一种巨大的精神力量。它让我在疲惫时确信:我正在做一件有意义的事情。
三、 展望2026
  • 在 2025 年的九月后,我就在备考其他相对于我职业生涯更重要的考试,在这之间,我也穿插考了下 CAIE 的一级和二级,得益于我之前的学习,很轻松的考过了(ps. 裸考,不难)

  • 2025年的爆发,是量变的积累。面对即将到来的2026年,我的目标非常明确:继续深耕大模型和人工智能领域。

  • 如果说2025年是"广度"上的铺开,那么2026年我希望在"深度"上做文章:

    1. 从理解到创造:不仅是拆解现有模型,更希望在Agent(智能体)开发、垂直领域微调上产出更多实战型的项目经验。

    2. 从技术到产品:探索LLM如何真正落地,解决实际业务中的痛点。

    3. 保持空杯心态:AI领域日新月异,永远保持学徒的心态,对每一行代码、每一个公式保持敬畏。

四、总结:
  • 回首这一年,我的大部分时间都浸泡在各种新技术和基础理论的学习中。或许在旁人眼中,这些基础的学习笔记和对枯燥原理的推导,算不上什么,甚至显得有些笨拙。但对于我个人而言,它们却有着非凡的意义。这每一行代码、每一个被攻克的知识盲区,都是我走出舒适区、不断重塑认知的勋章。它们是我突破自我的见证,证明了那个曾经面对庞杂技术体系感到迷茫的我,终于通过坚持,在一点一点的剥开迷雾。