一、引言
大语言模型(LLM)和 AI 智能体的出现推动进攻性安全变革,其在侦察、扫描、漏洞分析、利用、报告五个阶段展现出数据分析、代码生成、攻击场景规划等能力,能提升安全团队效率与扩展性,但存在 "幻觉" 等局限性,需人类监督与 GRC 框架保障,同时威胁行为者也在利用 AI 增强攻击,未来 AI 将向更高自主性发展,需平衡自动化与人工监控。
二、当前进攻性安全的核心挑战
1、技术环境挑战
攻击面因 AI、云计算等技术扩大,高级威胁如无文件恶意软件难以检测,评估手段多样性要求测试人员掌握多领域技能。
2、操作流程挑战
动态环境需实时调整策略,自动化工具易导致误报漏报,代码审查等任务耗时耗力。
3、资源与合规挑战
网络安全人才短缺,工具开发消耗资源,需遵守严格合规标准。
三、 AI 技术在进攻性安全中的应用
1、LLM 与 AI 智能体基础
- LLM 具备数十亿参数,可处理文本、代码,生成内容并推理,但存在 "幻觉" 问题。
- AI 智能体通过 "规划 - 推理 - 执行 - 分析" 循环自主完成任务,如 AutoGPT 可自主侦察。
2、AI 在五个阶段的具体应用
| 阶段 | AI 增强能力 | 典型工具 / 案例 |
|----|----|----|
| 侦察 | 数据收集自动化、工具编排(如 ShellGPT 生成命令行)、自适应测试规划 | PentestGPT 将测试目标转化为执行步骤 |
| 扫描 | 漏洞扫描器配置优化、输出数据分析、流量模式识别 | LLM 解析 Nikto 扫描结果 |
| 漏洞分析 | 误报过滤、情境感知分析、源代码审计 | AI 扫描代码效率超传统 SAST 工具 |
| 利用 | 攻击路径规划、恶意软件生成、自动漏洞利用 | AI 智能体利用一日漏洞成功率 87%|
| 报告 | 自动生成综合报告、可视化威胁态势、生成补救建议 | AI 生成威胁态势图 |
四、威胁行为者的 AI 应用与未来趋势
1、恶意应用场景
AI 辅助侦察、定制化钓鱼邮件生成、恶意代码开发、绕过双因子认证。
2、未来发展方向
- 自主化:AI 智能体将更自主执行复杂攻击,如 Wintermute 工具自主提权。
- 左移:进攻性安全融入 DevSecOps 早期阶段。
- 民主化:降低安全测试门槛,GPT-4o 可自动生成攻击脚本。
五、挑战与治理框架
1、技术与非技术挑战
- 技术:token 窗口限制(如处理 200 万 token 需 Gemini 1.5 Pro)、幻觉、数据泄露。
- 非技术:数据隐私法规限制、AI 伦理违规、过度依赖风险。
2、GRC框架实施
- 可信赖 AI:微软 Azure ML 确保安全,IBM Watson 提供可解释 AI。
- 第三方管理:评估供应商对 ISO 27001、GDPR 的遵守情况。
- 合规标准:遵循 NIST AI RMF、OWASP LLM 安全检查表。
六、解决的问题
1、AI 在进攻性安全的侦察阶段如何提升效率?
AI 通过自动化数据收集(如 AutoGPT 审查社交媒体)、工具编排(ShellGPT 生成命令行参数)和自适应测试规划(PentestGPT 将目标转化为执行步骤),快速筛选有效信息,减少手动数据处理耗时,例如 LLM 可分析 SMTP、HTTP 响应以绘制网络拓扑。
2、威胁行为者利用 AI 进行攻击的主要方式有哪些?
威胁行为者利用 AI 辅助侦察(自动收集漏洞数据)、生成定制化钓鱼邮件(分析公开信息制作个性化内容)、开发恶意代码(混淆负载规避检测)、研究漏洞(分析安全报告识别弱点),甚至绕过双因子认证等安全机制。
3、实施 AI 驱动的进攻性安全时,如何平衡自动化与风险?
需建立 "人在回路" 监督机制,例如 LLM 驱动的工具需人类验证输出以避免幻觉导致的错误;同时构建 GRC 框架,如遵循 NIST AI RMF 确保 AI 安全合规,采用可解释 AI(XAI)技术增强决策透明度,通过 RAG 技术补充领域知识减少误判。