这两年,AI
编码工具确实给开发效率带来了很大提升。写脚本更快了,补测试更轻松了,搭原型更顺手了,连很多文档工作都被大幅压缩。笔者自己在持续使用
GPT-5.4 和 Claude
一段时间后,也真切感受到了这种效率红利。与此同时,随着使用越来越深入,笔者也开始经常在架构师论坛和技术社区里,围绕 AI
开发的安全性、保密性、稳定性、可控性等问题,与多位大厂架构师持续交流。讨论得越多、实践得越久,我越认同一个判断:小项目、低敏项目、单人维护项目,AI
基本没有大问题;但一旦进入多人协作、长期演进、涉及核心资产和生产责任的项目,AI
如果没有边界、规范和审计,就很容易从"效率工具"变成"失控放大器"。
很多人讨论 AI,还停留在"能不能更快把功能做出来"这个层面。但架构师的关注点从来不只是"能不能开发出来",而是"这个系统能不能长期、安全、可控地活下去"。对架构师而言,安全性、保密性、可用性、可靠性、稳定性、可扩展性、可治理性,永远排在"先把功能跑起来"前面。AI 当然能用,但如果用法不对,前期越快,后期越危险。
阿里巴巴对18个AI编码代理在100个真实代码库上进行了测试,每个代码库的测试时间长达233天。结果惨败。事实证明,通过一次测试很容易。但要让代码在八个月内保持稳定运行而不出现任何问题,这才是人工智能的真正弱点
一、安全性和保密性问题:这不是建议,而是红线
在所有 AI 开发风险里,安全性和保密性必须排在第一位,而且要说得足够重。很多人有一个很危险的误区:以为自己只是发了一段代码、一个报错、一份配置,没有什么大不了。真正的问题不在于单次发送了什么,而在于长期、连续、碎片化地把项目上下文喂给模型之后,模型会逐步拼出整个系统的关键轮廓。
对企业来说,完整代码仓一旦被暴露,泄露出去的可能不仅是实现细节,更是产品壁垒。核心推荐算法、风控规则、任务编排方式、数据校验逻辑、用户画像模型、供应链定价策略,都可能通过代码和配置被还原。对政府和国央企来说,风险更高。因为很多系统的敏感性并不体现在"代码是否复杂",而体现在权限体系、业务流转、组织流程、网络边界和安全策略。一份接口文档,可能暴露部门间的数据流转方式;一份配置文件,可能暴露中间件、注册中心和环境划分方式;一份数据样本,可能暴露真实字段规则、业务状态机甚至审计链路。这些内容如果被完整送到境外模型服务,性质就完全不同了。
公开案例已经足够说明问题。2023 年,三星出现员工将源代码和内部资料输入 ChatGPT 的事件,随后企业迅速收紧政策。苹果曾限制内部使用 ChatGPT 和 GitHub Copilot,JPMorgan、Verizon 也曾对员工使用外部生成式 AI 进行限制。它们不是"不懂 AI",恰恰相反,正是因为太懂风险,所以才会第一时间踩刹车。大公司如此,中小公司更不能掉以轻心。很多创业团队和小外包团队为了省时间,最容易把生产报错、客户样本数据、数据库结构、支付回调字段、权限接口约定整段发给模型。表面看是"快了半小时",实际上是在把最值钱的知识资产一点点送出去。
所以第一条结论必须明确:不可能也不应该把本地完整项目完整发送给 AI 一次,更不能让 AI 对整个仓库自行搜索后再把全量上下文发往外部云端。 对企业、政府、国央企项目而言,这不是优化建议,而是最基本的安全红线。
二、可控性问题:AI 能写代码,但不保证沿着同一条主线写代码
AI 的第二个大问题,是可控性。很多团队一开始觉得它特别好用,因为它几乎总能给出一个"像样的答案"。问题在于,软件工程不是一次性答题,而是持续演进。今天这个功能让 GPT 写,明天另一个功能让 Claude 写,后天换个人、换个 prompt、换个模型,出来的往往就不是同一种思路。
小项目里,这种差异未必致命,最多只是风格不统一。但一旦进入多人协作和长期维护,这种不可控就会迅速累积成结构性问题。比如,今天用户认证模块被 AI 按一种方式抽象,明天订单模块又被另一种方式封装;今天日志体系是统一埋点,明天 AI 为了"快速修复"绕过了标准组件;今天缓存策略写在服务层,后天 AI 又把同类逻辑塞回控制层。每一处改动看起来都"能跑",但整个系统却在慢慢失去主线。
大公司里,这种问题会体现为标准失效。一个平台团队规定了统一网关、统一鉴权、统一日志,可不同小组如果都依赖不同 AI 工具自由生成实现,最终还是会出现"同一件事七八种写法"。小公司里,这个问题更直接。往往是两三个人轮流用不同模型改同一个项目,短期内速度惊人,三个月后却发现没人敢重构,因为没人说得清哪一段是基于什么上下文、什么假设写出来的。
AI 最容易制造的错觉,就是"它很聪明,所以它会自然走向正确结构"。但现实恰恰相反:AI 会优先给出局部最像答案的东西,却不会天然替你维护全局一致性。 如果没有架构约束、目录约束、分层约束和评审约束,AI 写得越多,系统越容易偏航。
三、稳定性问题:一次跑通很容易,长期不塌才是真难点
很多团队在使用 AI 后会产生一种错觉:代码生成出来了,测试也过了,于是觉得这件事已经"解决了"。事实上,一次运行成功,和长期稳定可维护,是两回事。AI 当前最大的短板之一,不在于它写不出功能,而在于它很难持续、稳定地维护一个长期演进的系统。
2026 年 3 月 4 日公开的论文《SWE-CI》给了这个问题一个很有力的提醒。这项研究由中山大学与阿里巴巴集团研究者提出,测试并不是看模型能不能"一次修好一个问题",而是看它在真实代码库的连续维护过程中,能否不破坏原有功能。论文包含 100 个真实代码库任务,平均跨越 233 天、71 次连续提交。围绕这项研究的公开解读普遍提炼出一个结论:很多模型短期表现可以,但一旦进入长期维护,回归问题会不断累积。这恰恰说明,AI 的强项更像是"阶段性产出",而不是"长期守住系统稳定"。
公开事件中也有类似信号。2025 年,Replit 相关 AI 代理事故引发广泛关注,外界讨论的焦点不是"它能不能写代码",而是它在自动执行过程中触碰了不该触碰的生产数据,并且没有可靠地守住边界。大公司里,稳定性问题通常表现为发布后隐性回归增加,测试负担变重,修一个点带出另一个点;小公司里,稳定性问题更像"今天这版能跑,明天一改就炸,改到最后谁也不敢上线"。
所以必须承认一个现实:通过一次测试很容易,但让代码在八个月甚至更长时间内稳定运行、不出现结构性回归,这才是 AI 在工程维护中的真正弱点。 如果团队只看眼前速度,不看长期稳定,最终一定会被后续维护成本反噬。
四、多人协同问题:AI 不会自动形成共识,只会放大已有混乱
多人协作是 AI 使用中另一个极容易被低估的问题。单人项目里,一个人用一个模型,逻辑链条还算完整;一旦多人同时参与,每个人的提示方式、理解方式、审美方式、风险意识都不同,AI 产物就会迅速变得碎片化。
例如,大厂里一个中台项目往往涉及多个团队协作。如果没有统一约束,A 团队用一种方式设计接口,B 团队用另一种方式补错误码,C 团队再用第三种方式写权限校验,最后系统表面上是同一套服务,内部却是多种工程哲学混杂。小公司则常常出现更典型的情况:前端一个人用 GPT,后端一个人用 Claude,测试再根据另一个模型生成用例,结果每个人都"效率大增",但整个项目的术语、命名、分层、异常策略完全对不上。
AI 不会帮团队自动统一语言,也不会帮组织自动沉淀规范。它只会把现有组织的问题放大。如果组织本身没有主线、没有规范、没有清晰边界,那么 AI 带来的不是协同,而是加速分裂。今天大家都觉得自己省了时间,半年后你会发现,真正消耗掉的,是跨人理解成本、代码整合成本和历史追溯成本。
五、责任问题:出了事,背锅的永远不是模型,而是使用它的人和组织
AI 的最后一个核心问题,是责任性问题。很多人习惯性地把 AI 看成一个"很会写东西的助手",于是潜意识里会觉得,如果哪里出了问题,那大概率是"模型不靠谱"。但在真实世界里,责任从来不会落到模型身上,而只会落到人和组织身上。
Air Canada 的聊天机器人曾给用户提供错误信息,最终承担责任的是航空公司,而不是机器人。美国纽约律师因为使用 ChatGPT 生成虚假判例并提交法庭,最终被处罚的是律师和律所,而不是模型供应商。这两个案例其实已经把逻辑说透了:AI 可以参与生成,但不能替代责任主体。
放到软件工程里,道理完全一样。一个金融系统因为 AI 生成的边界判断错误导致风险控制失效,责任在公司;一个政务系统因为 AI 补出的权限逻辑存在漏洞导致数据越权,责任在建设方;一个国央企生产系统因为 AI 生成的调度策略存在隐蔽缺陷引发事故,责任不可能推给"大模型理解错了"。如果组织在使用 AI 时没有审查、没有审批、没有留痕、没有回滚机制,那么出问题只是时间问题。
真正可行的解决方案:不是拒绝 AI,而是把 AI 放进治理框架
*
说了这么多,并不是要否定 AI。恰恰相反,AI 仍然是这个时代非常有价值的生产力工具。关键不在于"用不用",而在于"怎么用"。
第一,必须先划红线,再谈提效。
完整仓库、核心算法、生产配置、真实数据样本、内网拓扑、证书密钥、关键接口文档,原则上不能直接交给外部尤其是境外模型。能私有化尽量私有化,能本地化尽量本地化,至少也要做到最小必要暴露。
第二,必须先定主线,再让 AI 参与。
架构、分层、目录结构、依赖边界、异常机制、日志规范、权限策略,必须由人先定好。AI 可以在明确边界内补代码、补测试、补文档,但不能代替架构师决定整个系统怎么长。
第三,必须把 AI 关进规则里。
什么目录能改,什么操作不能做,生成代码要过哪些测试,要经过谁评审,要不要灰度,要不要回滚预案,都应该制度化、工具化,而不是靠个人自觉。提示词模板、技能固化、代码扫描、单测门禁、Secrets 扫描、审计留痕,一个都不能少。
第四,多人协作必须有总线。
团队可以用不同 AI,但不能没有统一技术主线。谁负责公共能力,谁负责基础设施,谁负责业务模块,什么能改,什么不能随便动,要足够清晰。AI 只能加速统一路线,不能替代统一路线。
第五,核心模块必须人能看懂、敢负责。凡是涉及鉴权、账务、风控、调度、审计、加解密、事务一致性、消息可靠性等关键部分,负责人必须能讲清楚逻辑,必须能解释为什么这么设计,也必须能承担最终责任。AI 写出来的内容,如果人自己都没有真正理解,就绝不能轻易上生产。
归根到底,AI 最适合做的是加速器,而不是方向盘。它可以帮助我们更快写代码、更快补测试、更快搭原型,但它不能替代架构治理,不能替代安全边界,不能替代责任承担。尤其对企业、政府、国央企本身或者其项目来说,面对国外大模型,更要保持基本的安全敬畏。你送出去的看似是一些上下文,真正送出去的,可能是多年沉淀下来的核心算法、业务规则、工程方法和组织知识。
所以,真正清醒地使用 AI,不是把判断权交给 AI,而是把 AI 纳入人的判断体系;不是让 AI 决定工程,而是让工程决定 AI 如何被使用。小项目、低敏项目、单人维护项目,AI 完全可以大胆用;但一旦进入多人协作、长期演进、涉及核心资产和生产责任的场景,就必须先有边界、再有规范、再有审计、再谈效率。否则,今天它帮你提速,明天它就可能把整个系统拖进不可控的泥潭。
未来真正有竞争力的团队,不是"最会让 AI 写代码"的团队,而是"最会给 AI 设边界、定规则、做治理"的团队。谁能做到这一点,谁才能真正享受到 AI 的红利,而不是被 AI 反过来绑架。