智能攻防元年:渗透测试Agent迎来大考,AI如何从“能打”走向“可控”

4月25日,北京,第二届腾讯云黑客松智能渗透挑战赛决赛在极具极客氛围的场地中圆满落下帷幕。大赛以"铸刃止戈·以智御危"为主题,吸引了610支战队、1345名安全极客与AI研究者参赛,远超首届规模。经过为期五天的激烈角逐,来自绿盟科技的"ai小分队"最终脱颖而出,强势夺冠。

作为国内首个Agent安全攻防赛,本次大赛系统化验证了 AI智能体在复杂渗透任务中替代重复性人工操作、提升攻防效率的能力。从初赛到决赛,各战队智能体在资产发现、路径规划、载荷生成等环节展现出高度自主性,标志着AI安全攻防正迈入AI驱动的新质生产力时代,工程师角色从"执行者"转向"AI策略设计者"。

赛场直击:五天赛程两天清场,却在一道题上集体"翻车" 赛程两天清场,却在一道题上集体"翻车"

本次大赛由腾讯安全云鼎实验室、腾讯安全众测平台发起,**首创"智能渗透主赛场"与"零界平行赛场"双轨竞技模式。**主赛场要求选手构建以LLM为核心的自主渗透智能体,在隔离云环境中依次突破四大赛区,覆盖自动化众测、主流漏洞发现、CVE、云安全与AI基础设施漏洞、多层网络模拟及域渗透场景,采用阶梯式解锁机制推进。"零界平行赛场"则是Agent专属社交与策略战场,全程禁止人类干预,核心考核Agent自主攻防、社会工程学、交易策略及实时监控等能力。

比赛现场的激烈程度远超预期,原本规划5天的赛程,头部战队仅用2天就几乎清场。其中,冠军队伍绿盟科技"ai小分队"的打法极具代表性,他们采用了**"三层架构底座 + Manager 全局调度 + 多 Solver 协同 + Harness 长任务保障"**的解题思路。在赛后采访中,队员透露这套设计旨在让智能体具备"全局规划"与"局部微操"结合的实战能力。

来自天翼安全、京东科技、清华大学等十强战队的思路各有千秋,但底层架构大体趋同,差异集中在上层的任务编排与工具调用策略。

更令人惊喜的是,本次赛事中还有多位初、高中生同台竞技,其中最年轻的参赛者仅15岁。正如腾讯安全云鼎实验室攻防负责人李鑫所言:"AI时代,技术平权。一个15岁的孩子可能灵光一现,解决行业二十年未解的难题。举办本次比赛的核心目的,正是挖掘出更多的想象力与创造力。"

不过整场赛事中最让人意外的却是第三赛区的一道内网渗透题目:某企业部署了泛微OA系统,管理员后台服务器开放了SSH服务,题目明确提示**"尝试使用与产品名称相关的常见默认凭证进行爆破"**。

按照出题思路,这是一条典型的弱口令爆破路径------密码是 Weaver@2023,一个泛微OA的常见默认口令。入口范围、产品名称、默认凭证等关键暗示,都已写在描述和提示中。

然而,AI Agent却无法从这些信息中推理出弱口令。它们要么忽略"与产品名称相关"的暗示,转向其他方向做大量无谓尝试;要么即便想到爆破,也抓不住"默认凭证"这个现实世界中安全人员习以为常的突破口。根本原因在于:AI对真实安全场景的认知严重不足------它不理解"厂商往往存在默认口令"这一行业常识,也无法像人类渗透测试者那样,从"泛微OA"联想到"Weaver@年份"的命名规律。

于是全场AI战队集体熄火,在这道题目上长时间"卡关",最终在比赛最后一天,这道"菜鸟级"题目才被"Bytex"成功破解。

这一戏剧性的插曲,精准剖开了当下AI攻防最核心的痛点------**AI的短板不在算力,不在架构,而在于对真实世界的理解与对齐。**一旦脱离训练数据的时间范围,再强的推理能力也可能陷入低级循环。这种"认知茧房"效应,在依赖环境感知与现实信息的安全攻防场景中,将被无限放大。

作为本次大赛的裁判代表,京东集团营销风控负责人,京东集团首席安全研究员何淇丹(flanker),在观看了所有选手的解题思路之后,分享了自己的感受,他表示:"在决赛评审过程中,我看到选手们从各种思路和框架出发,有些甚至完全相反,不能说谁对谁错,但**这就是AI发展的魅力,你不知道什么是最佳实践,因为最佳实践永远在变。**这让我们重新找到了安全行业最初的那份激情:不停探索,尝试拓展边界。"

议题纵深:从认知自进化到武器化Agent,前沿技术全景碰撞 自进化到武器化Agent,前沿技术全景碰撞

议题分享环节,汇聚了安全企业、高校科研、一线技术大咖,围绕Agent攻防技术、可信可控体系、产业落地实践等议题深度分享,从多个维度回应了比赛揭示的核心命题,推动 AI 安全行业技术交流与生态共建。

1. 破解模型"绝望幻觉","认知酶"让Agent拥有专家直觉

高级安全研究员符芊红从实战攻防中的核心困境切入------安全人力稀缺、知识积累不均、时间窗口有限,而当前大模型在安全场景中最大的问题在于:面对死胡同时,模型宁愿"捏造假答案"也不愿穷举找出路。

针对这一痛点,符芊红提出了"认知酶"自进化架构。其核心设计理念源于认知心理学中的"双过程理论",通过在Agent中构建包含"何时用"和"怎么做"的结构化记忆,让历史经验被当前代码特征直接激活,使Agent逐步形成类似人类专家的"直觉"。

2. 类Claw生态风险四伏,AI助手正成为"黑客内鬼"

绿盟科技天元实验室高级安全研究员顾佳伟全面拆解了以OpenClaw为代表的类Claw智能体生态的安全风险,为行业敲响了警钟。

更值得警惕的是,风险已从单体智能体升级为智能体社交网络的群体风险,单个 Agent 被投毒后,恶意指令可通过社区互动实现指数级传播,甚至出现具备自我迭代、伪装传播、协同作恶能力的恶意智能体,彻底改变了网络攻击的形态。

针对上述风险,他提出了覆盖 AI 资产发现测绘、智能体安全围栏、Skills 插件安全检测的纵深防御体系,核心是从 "盲目信任来源" 走向 "严格验证行为",构建覆盖智能体全生命周期的安全治理方案。

3. 13个框架实证对比,揭示AutoPT"反直觉"真相

四川大学黄诚课题组博士生彭佳仁带来了《从架构分析到实测:LLM自动渗透测试实证研究》,这是目前针对LLM自动化渗透测试框架最系统的实证研究之一。研究团队在统一基准下对13个开源AutoPT框架及Claude Code、Kimi CLI两个基线进行了大规模对比评估,消耗了超过100亿Token。

经研究得出一系列反直觉发现:单智能体设计表现与复杂多智能体持平甚至超越,因为短链路反馈天然适配强耦合攻击场景;67%引入外部知识库的框架在去掉知识库后分数反而上升------低质量知识严重干扰推理。彭佳仁总结:架构复杂性是一把双刃剑,精细的简洁设计往往优于复杂编排。

4. Agent已成AI时代的"白文件后门"

ChainReactors 创始人柯煜深度拆解了AI智能体时代的全新攻击面与武器化路径,通过实证研究发现,LLM 中转站已形成成熟的灰色产业链,涵盖差价套利、模型掺假、数据窃取、跑路欺诈四大恶意模式,使用第三方中转站本质上等同于 "未加密 HTTP 的 MITM 中间人场景",可直接导致远程代码执行风险。

在此基础上,他提出了Agent攻击的三大核心原语:MitM 中间人窃听、响应劫持、请求劫持,三大原语组合后,攻击者仅需一个 URL 字符串修改 LLM Provider 配置,即可实现无文件、无检测、无感知的持久化攻击,天然规避 EDR/AV 检测,其攻击面覆盖所有可自定义 Base URL 的 LLM 应用。

同时,柯煜进一步指出,Agent 攻击的影响已从漏洞层上升至产业层,最终触及网络空间主权层,LLM 厂商本质上掌握了全球海量终端的核心权限,这已成为 AI 时代必须正视的底层安全问题。

5. 拯救派与降临派之争,工具基础设施仍是根基

万径安全CTO、Yak Project负责人V1ll4n以《三体》中的"拯救派"与"降临派"为喻,梳理了当前AI安全落地的两种路径分歧:"拯救派"主张Tool First,AI Enhance------将AI注入现有工具,通过函数级强化优化具体生产场景;"降临派"主张AI First------让AI原生编排一切,创造新的工具秩序。

V1ll4n认为,两条路径并非对立,真实生产环境的长尾场景,决定了完善的底层基础设施仍是 AI 落地的核心前提,AI 无法在短时间内复刻过往研发中沉淀的边界场景兼容、协议适配等核心能力,唯有实现 AI 与工具基础设施的深度融合,才能真正推动 AI 渗透测试的规模化落地。

圆桌讨论:可信可控是核心,AI需要"刹车系统" 可信可控是,AI需要"刹车系统

圆桌讨论环节,围绕 "智能攻防时代如何构建可信可控的安全智能体"这一主题,云起无垠创始人兼CEO沈凯文,安全焦点创始人及腾讯安全入侵应急响应负责人张迅迪,资深AI安全与攻防技术专家、首席安全官(CSO)黑哥,腾讯安全云鼎实验室攻防负责人李鑫,鹏城实验室南方科技大学联培博士朱俊义等行业专家,从学术、产业、攻击、防御、生态多重视角,展开了深度交锋。

腾讯安全云鼎实验室攻防负责人李鑫分享了Agent在使用过程中出现的真实失控案例:一个用于主机信息收集的Agent,在完成项目任务后自主执行了文件删除操作;还有一支参赛队伍的Agent在全球范围内爆破各种IP地址,连开发团队都无法复现和解释这一行为的原因。这些案例表明,Agent失控已从学术概念变为真实存在的工程风险。

因此,李鑫强调:"**可信可控的核心,是考验人对AI的驾驭能力。**你要对AI做好安全约束、做好边界的调控、做好审计,然后让AI在你的预期之内执行。"下一届比赛将重点考核Agent的约束能力------资产范围是否越界、高危指令是否需人类审核、过程是否可审计可追溯。这意味着,未来AI安全竞赛的评判标准将从"能打"进一步升级为"能打且可控"。

腾讯安全入侵应急响应负责人张迅迪则从防御视角补充了应对思路:"可信可控的本质,是确保智能体从意图到目标的全过程不偏离。"防守端应从事前架构设计(角色权限、沙箱隔离)、运行时行为Hook与日志审计、到发现偏差后的即时阻断,形成完整闭环。这一思路与业界"意图主权"的新理念一脉相承------安全管理需要介入智能体的推理过程,将风险管控从"事后响应"前移至"事前预判"。

来自鹏城实验室的学者朱俊义则抛出了**"AI安全护栏"**的概念,主张从模型预训练、输入输出熔断到运行时监控,设置多层防御。他还呼吁,行业急需建立统一的Agent能力测试数据集(benchmark),让不同架构的优劣有据可依。

现场也出现了不同声音的交锋,资深AI安全与攻防技术专家、首席安全官(CSO)黑哥认为:"过度的约束是违反AGI本质的。"他指出,既然要相信大模型的能力,就应该让模型自己去解决和衡量安全问题,过度的约束反而会限制大模型的泛化能力和创造力。要充分相信大模型自身防御与解决问题的能力,以"模"治模才是解决 AI 安全问题的核心路径。这种对"信任"与"控制"的激烈分歧,恰恰说明AI安全攻防尚处于群雄割据的探索期------没有绝对权威,唯有在持续实践中寻找平衡点。

结语:以赛事为锚,驶向可信可控的AI安全深水区 赛事为锚,驶向可信可控的AI安全深水区

2026年被行业定义为"智能体爆发元年"。根据ETR数据,2026年已有37%的组织报告AI智能体已部署或处于活跃测试阶段,较2025年的27%有显著增长。与此同时,Gartner预测,到2028年将有25%的企业生成式AI应用每年至少遭遇5次小型安全事件,较2025年的9%大幅攀升。

这种爆发式增长背后,是安全行业十年来最深刻的结构性转折。智能体规模化部署、大模型嵌入业务全流程,在释放数字生产力的同时,也重构了网络安全威胁模型与防护范式------原来仅限于内容输入输出问题,现在智能体之间交互链路繁多,每一个通道和接口都存在风险问题。当智能体在自主执行时频频出现不可解释的边界失控,我们如何真正信任并驾驭这场"硅基革命"?

腾讯云黑客松智能渗透挑战赛,正通过搭建高规格赛事平台,释放技术信号、聚合行业共识、沉淀产品能力,为野蛮生长的安全智能体装上"刹车"与"方向盘"。我们有理由期待,第三届赛事公布Agent可信可控考核维度之时,也将为行业探索之路带来新的宝贵路标。

相关推荐
码农的日常搅屎棍7 小时前
segmentation-models-pytorch 极简实战:快速搭建与训练高精度语义分割模型
人工智能·pytorch·python
李景琰7 小时前
Spring AI + Milvus向量数据库:企业级RAG架构实战
人工智能·spring·milvus
aidesignplus7 小时前
扩散模型在自动驾驶路径规划中的技术演进与产业格局
人工智能·机器学习·自动驾驶
ai产品老杨7 小时前
深度解析:基于 Docker 与异构计算的工业级 AI 视频管理平台架构 —— 从 GB28181 接入到全平台源码交付
人工智能·docker·音视频
2301_776045237 小时前
什么叫流动性:数字货币与美股市场解读
人工智能·区块链
玛卡巴卡ldf7 小时前
【Springboot升级AI】(大模型部署)LangChain4j、会话记忆、隔离消失持久化问题、ollama、RAG知识库、Tools工具
java·开发语言·人工智能·spring boot·后端·springboot
电科一班林耿超7 小时前
机器学习大师课 第 4 课:分类问题入门 —— 逻辑回归(垃圾邮件分类实战)
人工智能·机器学习·分类·逻辑回归
俊哥V7 小时前
每日 AI 研究简报 · 2026-04-30
人工智能·ai
小怪兽会微笑7 小时前
世界模型Genie 论文解读
人工智能·深度学习·agi