如何评估云原生GenAI应用开发中的安全风险(上)

人工智能(AI)是一个快速发展的领域,具有改善和改变社会各方面的潜力。到 2023 年,随着强大基础模型(FMs)的发展以及由此带来的生成式 AI 能力的提升,AI 技术的应用速度进一步加快。

在亚马逊云科技,我们推出了多个生成式 AI 服务,例如 Amazon Bedrock 和 Amazon CodeWhisperer,并通过 Amazon SageMaker JumpStart 提供了一系列高性能的生成式模型。这些服务旨在帮助客户充分利用生成式 AI 的新兴能力,包括增强创造力、个性化和动态内容生成以及创新设计。此外,它们还可以帮助 AI 从业者以前所未有的方式理解世界,例如解决语言障碍、应对气候变化、加速科学发现等。

然而,为了充分发挥生成式 AI 的潜力,慎重考虑潜在风险至关重要。首先,这可以确保 AI 系统的相关方能够安全、负责任地开发和部署 AI,并鼓励采取主动措施来应对可能的影响。因此,建立评估和管理风险的机制是 AI 从业者需要考虑的重要过程,并且这一过程已经成为许多新兴 AI 行业标准(例如 ISO 42001、ISO 23894 和 NIST RMF)以及立法(如欧盟 AI 法案)的核心组成部分。在本文中,我们将探讨如何评估 AI 系统的潜在风险。

不同层级的风险是什么?

尽管从单个机器学习(ML)模型及其相关风险的角度出发可能更为直接,但重要的是要考虑该模型的具体应用场景及其相应的用例,作为完整 AI 系统的一部分。事实上,一个典型的 AI 系统可能依赖多个不同的 ML 模型协同工作,并且一个组织可能会构建多个 AI 系统。因此,可以针对每个用例以及不同层级进行风险评估,包括模型风险、AI 系统风险和企业风险。

企业风险涵盖组织可能面临的广泛风险,包括财务、运营和战略风险。AI 系统风险侧重于 AI 系统的实施和运行所带来的影响,而 ML 模型风险则专注于 ML 模型固有的漏洞和不确定性。

在本文中,我们主要关注 AI 系统风险。但需要注意的是,组织内的所有不同层级的风险管理都应当被纳入考量并保持一致。

如何定义 AI 系统风险?

在 AI 系统的背景下,风险管理可以用来最大程度地减少不确定性或潜在负面影响,同时提供最大化正面影响的机会。风险本身并不是潜在危害,而是指不确定性对目标的影响。根据 NIST 风险管理框架(NIST RMF),风险可以通过事件发生的概率与相应事件的后果大小相乘来估算。

风险包含两个方面:固有风险和剩余风险。固有风险表示在没有任何缓解措施或控制手段的情况下,AI 系统所展现的风险水平。而剩余风险则是在考虑了缓解策略后,仍然存在的风险。

请始终牢记,风险评估是一项以人为本的活动,需要整个组织的协作。这种协作包括确保所有相关方(例如产品、工程、科学、销售和安全团队)都参与评估过程,以及评估社会视角和规范如何影响某些事件的发生概率和后果认知。

以上就是如何评估云原生GenAI应用开发中的安全风险系列中的上篇内容,在本篇中我们介绍了在云原生AI应用开发中不同层级的风险,并了解了如何定义AI系统的风险。欢迎大家继续关注小李哥的生成式AI应用安全系列,了解国际前沿的亚马逊云科技解决方案,关注我不要错过未来更多的干货内容!

相关推荐
blues_C9 分钟前
Skyvern:用 AI+视觉驱动浏览器自动化
人工智能·ai·自动化
Eric.Lee20219 分钟前
数据集-目标检测系列- 烟雾 检测数据集 smoke >> DataBall
人工智能·目标检测·计算机视觉·烟雾检测·yolo检测·消防检测
HeShen.37 分钟前
AutoDL+SSH在vscode中远程使用GPU训练深度学习模型
ide·人工智能·vscode·深度学习·ssh·远程工作
网络空间小黑2 小时前
渗透测试行业术语2
服务器·网络·安全·网络安全·中间件
nuise_2 小时前
李沐《动手学深度学习》 | 多层感知机
人工智能·深度学习
大有数据可视化3 小时前
人工智能如何革新数据可视化领域?探索未来趋势
人工智能·信息可视化
AI technophile4 小时前
OpenCV计算机视觉实战(4)——计算机视觉核心技术全解析
人工智能·opencv·计算机视觉
云和数据.ChenGuang5 小时前
人工智能 机器学习期末考试题
开发语言·人工智能·python·机器学习·毕业设计
珊珊而川6 小时前
3.1监督微调
人工智能
我是小伍同学6 小时前
基于卷积神经网络和Pyqt5的猫狗识别小程序
人工智能·python·神经网络·qt·小程序·cnn