大家好,我们又见面了。
随着小龙虾OpenClaw的爆火,Agentic Engineering这个方向开始进入大家的视野,借助Vibe Coding的力量,这个门槛似乎变得很低。
本文是一个极简的学习路径,中间穿插了一些个人的看法,不喜勿喷。
首先我们写在前面,经过我和团队中的同学半年多的实践下来,有一些基本共识,可以供大家参考:
-
如果你没有扎实的开发基础,当然也可以写出来一些demo,小玩具,小游戏没什么问题;但是写不出来工业界可以大规模线上应用的产品,所以扎实的开发基础是必须的;
-
如果你完全不了解大模型的工作原理,设计&代码实现会非常低效。
所以在上面的基础上,一个极简的学习路线是:
编程工具的选择
我个人是Trae/Codex CLI+IDEA。
其中Trae用来做Vibe Coding,主要是借助模型的力量代码实现;其中Trae的平替有很多例如:Cursor,Windsurf,Codex等,你可以选择一个自己习惯的IDE当成工具,我目前在向Codex过渡;
IDEA做代码的Review和手动提交,主要是多年的IDEA资深用户,习惯了IDEA的界面和各种配置,很多人也用VSCode等工具。
也有一个趋势是很多人在慢慢习惯CLI的编程方式,不再使用任何IDE,大家多多尝试。
这部分在使用Trae这样的工具的时候,不同的工具提供了不同的开发方式,例如Trae的SOLO Code、SOLO Build模式等,他们分别适用不同的场景,这个需要自己多多体验。
理解Context Engineering(上下文工程)
这里的上下文工程是,你需要精确的控制传递给LLM的信息,尽量减少上下文带来的噪音和不足;另外尽量节省token消耗。
上下文工程(Context Engineering)范围很广,它关注的是「AI 看到什么」- 包括 System Prompt、工具描述、对话历史管理、动态信息注入、上下文窗口管理等全链路。核心目标是提升每个 Token 的信息密度,确保正确的上下文在正确的时间出现在Prompt中。
技术栈Java:Sping AI; Python:LangChain,都可以通过API注入上下文。
MCP + SKILL
如果2026年我们从AI Agentic Engineering技术路线中只选择一项学习,那么毫无疑问是MCP和SKILL。
MCP(Model Context Protocol)是Anthropic推出的开放协议,让LLM能够安全地连接外部工具和数据源。Skills则是可复用的Agent能力模块。
关于MCP你只需要知道:
-
Tools:LLM 可以调用的函数(如查询数据库、执行命令)
-
Resources:LLM 可以读取的数据源(如表结构、配置文件)
-
Prompts:预定义的提示词模板
MCP本身只是协议,Python和Java生态的框架都支持通过注解直接创建MCP服务。
他本质上和Http、Rpc等协议无任何区别,甚至有点多余。
Anthropic的开发者们定义了这样一套和大模型交互的标准,但是这套标准争议很大,我个人的看法是:无论MCP还是Skill,大概率都是AI发展中的中间产物。其中MCP协议更是画蛇添足,是为AI专门创造出来的抽象服务层,未来完全弃用也正常。
反馈闭环与Harness工程
Harness工程是构建整个环境、工具链和反馈闭环,让Agent无需人工干预就能可靠完成工作。核心理念:给Agent反馈闭环,而不仅仅是编辑器。
直接举例:
-
传统方式:Agent 写代码 → 人检查 → 人反馈 → Agent 改
-
Harness: Agent 写代码 → 自动测试 → 自动反馈 → Agent 自己改 → 循环直到通过
其中Python体系中的LangGraph支持的很好,Sping AI中如果需要复杂状态流转,可以结合Spring State Machine或Spring Integration实现类似LangGraph的效果,未来大概率也会支持。
A2A协议与Multi-Agent
这部分关键是理解Google A2A协议,掌握MCP vs A2A的关系和协同方式。核心目的是:实现多个Agent各自调用工具,同时互相配合完成复杂任务。这部分内容整个Agent生态也在快速发展,大家可以多关注LangChain 和 Spring AI的生态发展。
最后语言和技术栈选择
AI领域毫无疑问是Python的天下,所以初学者建议从Python开始学习,避开Java生态陡峭的学习曲线。
但是客观的说,Sping AI更适合后端的微服务架构,更适合做大规模的生产服务,所以如果你有Java基础,可以直接从Spring AI开始学习。
还有一部分设计模型的微调,这部分内容大家可以自己网上去搜,也不难。不深入基础模型开发的话大概率都能看懂。
我们今天的分享就到这里了。