从 DeepSeek 的服务器繁忙到 Claude Code 全栈交付:2025 年 AI 原生开发实录

目录

前言

2025 年对于开发者而言,是技术范式发生剧烈重构的一年。如果说前两年的 AI 浪潮更多停留在"对话"与"生成"的层面,那么 2025 年则标志着 AI 正式接管了从基础设施部署、协议标准化到全栈代码交付的完整工作流。这一年,技术的边界被打破,基于 Model Context Protocol (MCP) 的生态连接、边缘计算的普及以及智能体(Agent)的深度应用,共同构建了一个全新的开发宇宙。

回顾这一年,从年初 DeepSeek 的算力博弈,到年末利用 Claude Code 与腾讯云全家桶实现的全自动化交付,这是一场关于效率与创造力的进化。

2月:大模型战国时代的开启与本地化部署的尝试

2025 年初,科技界的目光聚焦于 DeepSeek 的横空出世。这不仅仅是一个新模型的发布,更是一场关于算力、算法优化与开源精神的无硝烟战争。随着 DeepSeek 展现出惊人的推理能力,全球开发者陷入了对高性能模型的狂热追逐,服务器负载的红色警报成为了一种常态。

面对云端 API 的不确定性与延迟,本地化部署(Local Deployment)成为了当时最迫切的技术需求。本地部署不仅仅是为了避开网络的拥堵,更是为了数据的隐私安全与低延迟交互。通过 Ollama 等容器化工具,将量化后的 DeepSeek 模型加载至本地 GPU 或高内存 CPU 环境中,成为了当时技术社区的热门议题。

当时撰写的第一篇关于本地 AI 部署的技术文档,详细记录了如何从拉取镜像到暴露 API 端口的全过程。这一实践证明,算力民主化正在让每一台终端都具备成为智能中心的能力。

在本地终端的黑色背景与白色字符之间,第一次与 DeepSeek 的对话标志着个人开发模式的转变。此时的模型已经具备了极强的逻辑推理能力,能够理解复杂的上下文指令,而不再仅仅是简单的关键词匹配。

随后的几周内,云计算巨头迅速跟进。腾讯云将 DeepSeek 深度集成至其大模型知识引擎 LKE (LLM Knowledge Engine) 中。这是一个典型的 RAG (检索增强生成) 架构应用。通过 LKE,企业可以将私有知识库进行向量化处理(Embedding),存储于向量数据库中。当用户发起提问时,系统首先在向量库中检索相关片段,然后将检索结果作为上下文(Context)输入给 DeepSeek 模型。

DeepSeek 强大的总结与推理能力,结合 LKE 精准的检索能力,解决了大模型普遍存在的"幻觉"问题,使得生成的内容既具有逻辑性又具备事实依据。这种架构迅速成为了企业级 AI 应用的标准范式。

3月:云端算力的可视化与角色扮演的深度定制

随着模型参数量的提升,本地硬件的瓶颈逐渐显现。3月份,重心转向了基于云端高性能计算资源的部署。腾讯云高性能应用服务 HAI (High Performance Application Service) 提供了一种开箱即用的解决方案。特别是其 CPU 算力实例,经过特定的指令集优化,能够以较低的成本运行大参数量的推理任务,打破了"AI 必须依赖昂贵 GPU"的固有认知。

在服务器端部署 WebUI,实现了可视化的交互界面。这不仅仅是 UI 的改变,更重要的是它支持了参数的动态调整,如 Temperature(温度值)、Top-P 等,让开发者能够直观地感受到不同参数对模型输出创造性的影响。

在这一阶段,Prompt Engineering(提示词工程)的重要性被提升到了新的高度。在可视化的对话界面中,通过系统级指令(System Prompt)给 DeepSeek 赋予特定的"身份"。例如,设定其为一名资深的 Python 架构师或一名精通 SEO 的内容创作者。

这种基于身份的上下文设定,利用了模型在预训练阶段接触到的特定领域数据分布。当模型"认为"自己是某个角色时,其输出的术语准确度、逻辑结构以及解决问题的视角都会发生显著变化。通过这种方式,AI 不再是一个通用的聊天机器人,而是一个具备特定专业技能的虚拟员工。

4月:边缘计算与 MCP 协议的初次邂逅

4月份的技术探索进入了架构层面,重点在于如何打破数据孤岛与提升访问速度。腾讯云 EdgeOne 的引入,将应用部署推向了边缘计算节点。EdgeOne Pages 不仅提供了静态资源的托管,更重要的是利用其全球加速网络,将内容分发至离用户最近的节点。

与此同时,MCP (Model Context Protocol) 开始进入视野。这是一个旨在标准化 AI 模型与外部数据、工具交互的协议。利用 EdgeOne Pages Deploy MCP Server,可以将本地开发的静态网页项目快速封装并部署至公网。这背后涉及到 CI/CD 流水线的自动化构建,以及边缘函数(Edge Functions)对 HTTP 请求的路由处理。

通过 EdgeOne 直接连接 GitHub 或 Gitee 仓库,实现了代码提交即部署的 GitOps 流程。这种无缝的集成极大地缩短了从代码编写到产品上线的周期,让开发者能够专注于业务逻辑而非繁琐的运维配置。

5月:AI 原生 IDE 的革新与 CodeBuddy 的崛起

5月标志着开发工具本身的智能化革命。腾讯发布了 AI 时代的 IDE ------ CodeBuddy。作为首批内测用户,深刻体验到了 AI 并非仅仅是代码补全工具,而是结对编程(Pair Programming)的实体化身。

CodeBuddy 深度理解项目的全量代码上下文(Context Awareness),能够基于整个项目结构提出重构建议。利用这一工具,开发了一款基于 Chrome 浏览器的网页翻译插件。这不仅仅是调用翻译 API,更涉及 DOM 树的解析、文本节点的替换以及异步请求的并发控制。CodeBuddy 在处理复杂的 JavaScript 异步逻辑和 CSS 样式隔离方面展现出了惊人的效率。

凭借对 CodeBuddy 的深度应用与技术解析,在年底的腾讯云大会上获得了最具价值原创作者的荣誉。这不仅是对个人技术探索的肯定,也是 AI 辅助开发模式逐渐成为主流的有力证明。

6月:MCP 生态的全面爆发

6月是 MCP 协议深度实践的一个月。MCP 的核心价值在于提供了一种通用的接口标准,使得 AI 模型可以"读写"外部系统。在这个月里,针对 Redis、MySQL、Obsidian 和 Figma 等不同类型的软件和服务,进行了 MCP 服务的配置与测试。

对于 MySQL MCP,AI 可以直接生成 SQL 查询语句并执行,从而实现自然语言查询数据库;对于 Figma MCP,AI 可以读取设计图的图层数据,理解设计规范。这种跨应用的数据互通,彻底打破了传统 SaaS 软件之间的壁垒,让 AI 成为了连接一切的万能胶水。

7月:设计到代码的闭环与浏览器自动化

CodeBuddy 的功能在 7 月迎来了重大升级,真正实现了"设计即代码"的愿景。新引入的功能模块包括 Select from FigmaSelect ComponentConfig MCPUpload ImagesPreview 以及 Deploy

通过 Select from Figma 功能,开发者可以直接在 IDE 中选中 Figma 的设计组件,CodeBuddy 能够解析其向量数据与样式属性,自动生成高质量的 React 或 Vue 组件代码。配合小红书卡片 MCP,这一工作流被应用于生成极具视觉冲击力的社交媒体封面。AI 能够自动分析当下的设计趋势,调整配色与排版,生成符合算法推荐逻辑的图片。

生成的封面不仅美观,而且严格遵循了图层分离与响应式设计的原则,展示了 AI 在创意设计领域的落地能力。

同月,Claude Code 与 BrowserCat MCP 的组合开启了网页自动化的新纪元。BrowserCat 提供了一个无头浏览器(Headless Browser)环境,通过 MCP 协议受控于 Claude。这意味着可以使用自然语言指挥 AI 去执行复杂的网页操作,如自动抓取数据、表单填写、甚至跨站点的交互测试。

在终端界面中,可以看到 AI 逐步解析网页结构、定位元素并执行操作的日志。这种自动化能力不再依赖脆弱的 CSS 选择器脚本,而是基于 AI 对网页语义的视觉理解,极大地提高了自动化任务的稳定性。

8月:从安全防御到协议构建与全栈部署

8月通过对腾讯 IOA (一体化终端安全管理系统) 的深度体验,补全了安全领域的拼图。在企业级开发中,安全是基石。IOA 提供了从病毒查杀、漏洞修复到资产管理的全面防护。其核心在于"零信任"架构的落地,确保只有合规的终端和身份才能访问企业资源。仪表盘上清晰展示了终端的安全评分与威胁拦截记录,为全栈开发提供了坚实的后盾。

在掌握了 MCP 的使用后,技术探索深入到了协议的创造层面。通过 Python 编写自定义的 MCP Server,并将其打包发布至 PyPI。这一过程涉及定义 MCP 的 JSON-RPC 接口、处理标准输入输出流(Stdio)以及 Python 包的构建(Poetry/Setuptools)。将原本分散的脚本工具封装成标准化的 MCP 服务,使得任何支持 MCP 的 AI 客户端都能直接调用这些能力。

基础设施方面,利用腾讯云轻量应用服务器(Lighthouse)配合宝塔面板搭建了个人 WordPress 站点。Lighthouse 提供了开箱即用的应用镜像,而宝塔面板则简化了 Nginx、PHP、MySQL 的配置管理。这是一个经典 LAMP/LEMP 栈的现代化实践。

随后,为了进一步提升站点的访问速度与安全性,EdgeOne 再次登场。这一次,它不仅仅是静态托管,而是作为动态站点的全站加速网关。配置了 CNAME 接入后,EdgeOne 提供了 DDoS 防护、Web 应用防火墙(WAF)以及智能路由优化。个人网站不仅实现了全球秒开,更具备了企业级的安全防护能力。

9月:命令行交互的智能化重构

随着 CodeBuddy CLI 的发布,服务器管理进入了"对话即运维"(ChatOps)的时代。CodeBuddy CLI 允许开发者在终端中直接与 AI 交互,通过自然语言生成复杂的 Shell 命令。

结合 Lighthouse MCP,这种交互变得更加强大。AI 可以直接读取服务器的状态(CPU 负载、内存使用、进程列表),并根据指令执行重启服务、查看日志或配置防火墙等操作。这避免了记忆繁琐的 Linux 命令参数,降低了运维门槛,同时也减少了误操作的风险。

12月:智能体开发平台与逻辑推理游戏

年末,腾讯元器(Yuanqi)平台的推出标志着智能体开发的普及化。在该平台上,开发了一款沉浸式的"海龟汤"推理智能体。

这不仅仅是一个聊天机器人,而是一个具备复杂状态管理的 Agent。它需要维护游戏的当前状态(谜面、已知的线索、玩家的提问历史),并根据预设的逻辑判断玩家的猜测是"是"、"否"还是"不相关"。腾讯元器提供了强大的提示词编排工具和知识库挂载能力,使得智能体能够严格遵守游戏规则,同时保持互动的趣味性与悬疑感。

1月:内容创作流的云端闭环

跨入新的一年,为了提升内容创作的效率,构建了一套基于腾讯云对象存储(COS)、PicGo 与 Obsidian 的无缝图床工作流。

COS 提供了高可靠、低成本的非结构化数据存储。通过配置 PicGo 工具,使其对接 COS 的 S3 兼容接口。在 Obsidian 中撰写 Markdown 文章时,粘贴的图片会自动触发 PicGo 的上传任务,将图片传输至云端,并返回标准的 Markdown 图片链接。这一流程极大地优化了写作体验,实现了本地写作、云端存储的内容生产模式。

结语:与云共生的 AI 之年

从年初 DeepSeek 的算力争夺,到年末构建复杂的 AI 智能体与全栈工作流,这一年的技术轨迹清晰地展示了 AI 如何从一个"玩具"进化为生产力核心。腾讯云提供的全方位基础设施------从 HAI 的算力、LKE 的知识引擎、EdgeOne 的边缘网络到 CodeBuddy 的开发工具------为这一进化提供了坚实的土壤。

代码不再仅仅是逻辑的堆砌,而是意图的表达;开发不再仅仅是敲击键盘,而是编排模型与服务的协奏曲。在这场技术变革中,与云的深度融合,让每一个开发者都拥有了改变世界的能力。

言尽于此,祝各位新年快乐,码到成功

相关推荐
aitoolhub2 小时前
AI设计重构创作逻辑:从技能执行到创意表达
人工智能·aigc·视觉传达
m0_737302582 小时前
云服务器:企业数字化转型的核心引擎与价值重构
服务器
霍格沃兹测试学院-小舟畅学2 小时前
Playwright测试数据模拟:Mock Service Worker使用指南
人工智能·测试工具·arcgis
Coder_Boy_2 小时前
基于SpringAI的在线考试系统-数据库设计关联关系设计
服务器·网络·数据库
Lian_Ge_Blog2 小时前
prompt 工程学习总结
人工智能·深度学习·prompt
Watermelo6172 小时前
面向大模型开发:在项目中使用 TOON 的实践与流式处理
javascript·数据结构·人工智能·语言模型·自然语言处理·数据挖掘·json
沛沛老爹2 小时前
从Web到AI:金融/医疗/教育行业专属Skills生态系统设计实战
java·前端·人工智能·git·金融·架构
老蒋每日coding2 小时前
AI Agent 设计模式系列(十)——模型上下文协议 (MCP)
人工智能·设计模式
重生之绝世牛码2 小时前
Linux软件安装 —— Flink集群安装(集成Zookeeper、Hadoop高可用)
大数据·linux·运维·hadoop·zookeeper·flink·软件安装