虽然专门的AI安全治理有助于建立基础控制措施,但它也会阻碍安全有效性和效率的提升。大多数AI网络安全风险并不需要一套新的控制措施。相反,首席信息安全官(CISO)必须扩展现有的网络安全治理,以最大限度地减少AI特有的工作流程和控制措施。
主要发现
-
人工智能能力正在迅速渗透到所有技术领域,并且不能将其作为独立实体与集成人工智能能力的系统隔离或控制。
-
多项法规要求组织制定专门的人工智能政策和风险管理框架(RMF),无论现有的政策和风险管理框架在管理人工智能方面有多有效。
-
独立的AI网络安全策略和控制措施虽然能带来短期效益和清晰的工作范围,但随着AI以惊人的速度呈指数级发展,它们也会带来日益增长且难以管理的复杂性、成本和维护问题。
-
虽然攻击面和具体控制措施可能有所不同,但通过执行现有的网络安全策略和控制措施,可以有效地管理人工智能网络安全的大多数方面。
建议
-
明确哪些人工智能风险属于网络安全风险,以便精确界定首席信息安全官的职责范围。
-
识别拟建和现有人工智能及人工智能基础设施中存在的具体网络安全风险。
-
将人工智能网络安全风险与网络安全政策中已定义的控制措施进行匹配。
-
针对人工智能使用和生命周期管理中特有的、现有网络安全政策未涵盖的威胁,制定人工智能网络安全策略。
-
为应对人工智能的普及,制定一个为期 18 个月的计划,逐步将与人工智能相关的网络安全治理融入到所有网络安全治理体系中。
战略规划假设
到 2030 年,90% 的人工智能网络安全风险缓解措施将被纳入现有的控制结构,从而否定了新的专门针对人工智能的网络安全治理。
介绍
对性能提升和竞争优势的期望促使许多组织迅速将各种形式的人工智能集成到技术组合和工作计划中。许多组织认为,采用人工智能会带来新的网络安全风险,需要新的治理机制和网络安全控制措施。例如,Gartner 2025 年人工智能风险管理和应用网络安全创新调查显示,66% 的组织认为,管理公开可访问的生成式人工智能 (GenAI) 的网络安全风险需要对其网络安全风险管理方法进行重大或全面的变革。
为此,首席信息安全官 (CISO) 经常被委派制定人工智能网络安全治理方案。CISO 在推行人工智能专属网络安全治理方案时会面临两大挑战:
-
人工智能技术类别包含多种功能,这些功能在网络安全风险方面各不相同,因此很难制定统一的政策。
-
许多与人工智能相关的网络安全威胁已经通过现有的治理和控制措施得到解决,这增加了政策冗余的可能性。
因此,首席信息安全官 (CISO) 如何为人工智能定义有效且高效的网络安全治理?
首席信息安全官 (CISO) 必须对组织正在采用的 AI 技术及其应用案例进行深入剖析,以明确具体的网络安全风险和威胁。其中许多风险和威胁已通过现有的网络安全治理机制得到缓解和管理。在将现有的网络安全策略、标准、流程和控制措施应用于 AI 技术及其应用案例之后,任何未处理的网络安全风险都可以通过专门针对 AI 的安全治理机制来解决。
分析
人工智能已无处不在。几乎所有技术都未包含或计划包含某种形式的人工智能功能。这意味着人工智能技术与非人工智能技术之间实际上没有界限。
首席信息安全官(CISO)不能将人工智能(AI)技术与非人工智能技术割裂开来。CISO必须制定网络安全策略,将人工智能风险视为统一技术栈的一部分,而不是孤立的技术。
网络安全风险评估和控制措施必须全面考虑人工智能风险。这意味着不能基于人工智能能力可以脱离其他技术方面而独立管理的错误假设。
1、明确哪些人工智能风险属于网络安全风险
每一项变革性技术都会带来风险并面临威胁。企业必须对这些风险和威胁进行分类,并将治理责任分配给相应的角色。
首席信息安全官 (CISO) 通常负责网络安全治理,但不负责其他形式的风险治理。对于大多数技术而言,这种区别显而易见,但人工智能(尤其是基因人工智能)由于其行为方式与人类相似,因此引入了模糊性。
这种混乱导致首席信息安全官 (CISO)扩大了其人工智能治理范围,以解决伦理、透明度、公平性、输出有效性和其他企业价值观。
虽然这些都是应该加以规范的重要问题,但它们也是人工智能应用领域中不属于网络安全范畴的方面。
Gartner 的试金石测试定义了首席信息安全官 (CISO) 的人工智能治理职责
快速判断某项风险或威胁是否属于网络安全治理范畴的方法是,查找现有网络安全治理文件中针对其他技术所涵盖的类似风险和威胁的政策声明。如果首席信息安全官 (CISO) 尚未负责监控和控制员工使用其他技术(例如文字处理软件或电子表格软件)时出现的伦理或内容有效性问题,那么 CISO 就不应该负责制定人工智能 (AI)使用中这些问题的治理措施。
如果企业采用人工智能引发了这些问题的治理责任重新调整,首席信息安全官必须参与到重新分配的过程中,以确保所有网络安全治理的一致性。
大多数组织都认识到这种责任划分,只有 13% 的首席信息安全官表示他们负责管理人工智能的合乎道德或负责任的使用(见图 1)。
图 1:人工智能治理所有权

首席信息安全官 (CISO) 必须做好准备,应对企业内其他负责非网络安全人工智能风险的部门提出的协作请求。例如,当网络中出现违反行为准则或存在违规行为时,法律顾问、人力资源和合规部门可能会寻求网络安全团队的支持。
许多支持人工智能治理的工具都包含网络安全风险控制措施,而网络安全工具也能有效监控其他类型的人工智能风险。共享工具是完全可行的。然而,对人文价值(例如是非对错、透明度和有效性)的治理定义是首席信息安全官 (CISO) 的职责。
2、识别拟议和现有人工智能中的网络安全风险/威胁
人工智能并非一个整体,也不是一个神秘的黑匣子。人工智能的功能、应用、代理、工具和服务都由所有软件共有的要素构成:基础设施(云端和本地部署)、数据(存储、传输、处理)、代码和接口。
被称为"人工智能"的能力类别包括不同的技术(如机器学习、自然语言处理和基础模型)和方法(包括传统人工智能、GenAI 和智能人工智能),所有这些都带来了各种网络安全挑战,这些挑战是由每种实现方式涉及数据、代码以及与用户和机器进程的交互所驱动的。
有效控制人工智能网络风险的关键在于对每个拟议的人工智能实施方案或用例进行解构,以识别构成该实施方案或用例的数据、处理和接口所面临的威胁。这是规范人工智能治理、实现有效网络安全的重要一步。将无处不在的人工智能概念分解为更务实的要素,有助于揭开人工智能的神秘面纱,并使现有概念模型、框架和控制结构的实施成为可能。
这并非一种全新的威胁和风险评估流程。成熟的风险管理框架 (RMF) 会剖析用例,识别组件,并描述风险及其实现的影响。在识别出人工智能 (AI) 实施或用例的组件后,即可进行风险评估,识别与 AI 各个部分以及 AI 作为整体用例相关的风险级别。在掌握了清晰的威胁形势描述之后,下一步是制定控制组合,将风险降低到可接受的水平。
3、将人工智能网络安全风险与现有治理和控制措施进行匹配
企业常常会忍不住制定专门针对人工智能的政策、标准和控制措施。在某些司法管辖区,企业甚至被要求将这些专门针对人工智能的政策记录在案。首席信息安全官(CISO)必须抵制这种诱惑!
在考虑新的政策、标准或控制措施之前,首席信息安全官 (CISO) 应将现有的网络安全政策、标准和控制措施与风险评估过程中识别出的威胁和风险进行映射。这种映射有助于进行差距分析,从而发现现有治理和控制措施中的不足之处。
将现有控制措施应用于人工智能的实施和用例,可以减少人工智能面临的网络安全挑战,并加强现有治理和控制结构的价值,同时最大限度地减少新的投资。
以这种解构策略为起点,将治理和控制措施与人工智能风险联系起来。
人工智能模型接收数据、处理数据、存储数据并输出数据。数据治理在策略和标准中定义,并通过数据防泄漏 (DLP) 和身份与访问管理 (IAM) 等控制措施来实施。在考虑为人工智能应用制定新的数据治理或控制措施之前,应先确定现有的治理和控制措施是否适用,以及是否能够有效降低人工智能实施和使用中的数据风险。
对于大多数企业而言,只需简单地扩展政策、标准和控制措施的范围,将各种形式的人工智能应用纳入其中,即可有效(即便并非全面)降低数据风险。例如,虽然 27% 的组织购买了专门的人工智能安全工具来监控用户与公共通用人工智能工具之间的输入输出流,但 42% 的组织已成功地依靠数据防泄漏 (DLP) 和网络过滤控制措施来覆盖相同的范围。
如果企业将第三方数据用于人工智能,请暂时忽略人工智能本身的存在。企业与第三方共享数据是基于协议的,协议中明确规定了第三方维护适当数据安全措施的责任。
人工智能创新并不需要新的第三方风险管理合同。现有的合同协议适用于第三方对您数据的使用,无论是否涉及人工智能,而且这些合同可以根据需要进行更新,以符合政策、法律和法规。
与以往一样,首席信息安全官必须与法律顾问、合规部门、采购部门和其他部门密切合作,以确保遵守所有相关的人工智能法律法规。
**示例:影子 AI 并不需要新的网络安全政策。**如上所述,对人工智能进行解构有助于我们理解现有治理和控制措施的有效性。例如,考虑员工使用未经授权的消费级GenAI应用程序的情况。这些应用程序(例如ChatGPT、Gemini和Claude的消费版)属于未经授权的SaaS,应与其他任何形式的SaaS一样,遵守相同的政策、标准和控制措施。
如果政策禁止员工与消费者 SaaS(例如社交媒体或基于云的文件共享)共享机密或受监管的数据,则同样的规则也适用于消费者 GenAI 服务(例如 ChatGPT、Gemini 和 AI 支持的互联网搜索工具)。
人工智能实现中的代码或许是新颖的,但它仍然是软件。软件许可、开发、维护和退役的政策、标准和控制措施应该扩展到人工智能软件领域。
例如,定义代码质量保证和测试实践的软件开发生命周期 (SDLC) 和 DevSecOps 标准也应应用于人工智能软件的开发。可安装在本地硬件上或通过企业设备访问的人工智能应用程序均属于现有应用程序安装和访问策略的管辖范围。
4、制定新的人工智能网络安全政策和控制要求
人工智能将产生网络风险,而现有的治理或控制措施无法充分应对这些风险。这可能是由于治理机制过时,也可能是由于人工智能实施方案的独特特性所致。
首席信息安全官(CISO)在充分利用现有政策和控制措施之前,必须避免制定针对人工智能风险的新政策和控制措施。大多数人工智能风险并非全新类型,可以通过现有的治理、工具和流程来缓解。
在某些情况下,首席信息安全官 (CISO) 需要扩展治理范围,以降低现有实践无法覆盖的人工智能风险。扩展后的治理范围应明确人工智能使用的"行为准则",但不应规定执行扩展策略所需的工具。相反,网络安全领域的专家必须首先通过增强现有工具来寻求和评估新的控制能力,其次,在必要时,通过获取新的解决方案(例如人工智能使用控制技术)来寻求和评估新的控制能力。
利用您现有的风险评估和控制措施定义流程,确定应对人工智能风险的最佳且最具成本效益的控制措施组合。无需开发专门针对人工智能的风险评估框架或流程。
5、将人工智能网络安全治理融入所有网络安全治理体系
在人工智能无处不在的世界中,人工智能网络安全治理不能再是一种独立于其他安全治理形式之外的治理方式;它必须融入到整个技术组合中应用的政策、标准、架构和程序中。
对于企业应用中包含的人工智能功能而言,这一点尤为重要。这些功能往往通过更新引入,或隐藏在后端,因此用户越来越难以察觉。如果用户对工作流程中人工智能功能的存在毫不知情,就无法要求他们负责将人工智能相关的安全规则应用于与这些功能的交互。人工智能网络安全治理必须向技术网络安全治理演进。
尽管目前迫切需要通过人工智能或通用人工智能安全策略或可接受使用指南来明确人工智能的采用和使用准则,但首席信息安全官(CISO)现在就应该开始更新所有网络安全策略,将人工智能纳入其中。同样的原则也适用于网络安全行为和文化管理项目:将人工智能网络安全指南整合到现有的教育和沟通材料及活动中,从而倡导一套统一的行为准则和期望。
针对人工智能的治理和教育属于短期需求,随着人工智能在技术架构和工作流程中的普及,这些需求将会逐渐减少。因此,在关注人工智能普及这一中期目标的同时,也应帮助企业安全地加速采用人工智能。