如何评估云原生GenAI应用开发中的安全风险(上)

人工智能(AI)是一个快速发展的领域,具有改善和改变社会各方面的潜力。到 2023 年,随着强大基础模型(FMs)的发展以及由此带来的生成式 AI 能力的提升,AI 技术的应用速度进一步加快。

在亚马逊云科技,我们推出了多个生成式 AI 服务,例如 Amazon Bedrock 和 Amazon CodeWhisperer,并通过 Amazon SageMaker JumpStart 提供了一系列高性能的生成式模型。这些服务旨在帮助客户充分利用生成式 AI 的新兴能力,包括增强创造力、个性化和动态内容生成以及创新设计。此外,它们还可以帮助 AI 从业者以前所未有的方式理解世界,例如解决语言障碍、应对气候变化、加速科学发现等。

然而,为了充分发挥生成式 AI 的潜力,慎重考虑潜在风险至关重要。首先,这可以确保 AI 系统的相关方能够安全、负责任地开发和部署 AI,并鼓励采取主动措施来应对可能的影响。因此,建立评估和管理风险的机制是 AI 从业者需要考虑的重要过程,并且这一过程已经成为许多新兴 AI 行业标准(例如 ISO 42001、ISO 23894 和 NIST RMF)以及立法(如欧盟 AI 法案)的核心组成部分。在本文中,我们将探讨如何评估 AI 系统的潜在风险。

不同层级的风险是什么?

尽管从单个机器学习(ML)模型及其相关风险的角度出发可能更为直接,但重要的是要考虑该模型的具体应用场景及其相应的用例,作为完整 AI 系统的一部分。事实上,一个典型的 AI 系统可能依赖多个不同的 ML 模型协同工作,并且一个组织可能会构建多个 AI 系统。因此,可以针对每个用例以及不同层级进行风险评估,包括模型风险、AI 系统风险和企业风险。

企业风险涵盖组织可能面临的广泛风险,包括财务、运营和战略风险。AI 系统风险侧重于 AI 系统的实施和运行所带来的影响,而 ML 模型风险则专注于 ML 模型固有的漏洞和不确定性。

在本文中,我们主要关注 AI 系统风险。但需要注意的是,组织内的所有不同层级的风险管理都应当被纳入考量并保持一致。

如何定义 AI 系统风险?

在 AI 系统的背景下,风险管理可以用来最大程度地减少不确定性或潜在负面影响,同时提供最大化正面影响的机会。风险本身并不是潜在危害,而是指不确定性对目标的影响。根据 NIST 风险管理框架(NIST RMF),风险可以通过事件发生的概率与相应事件的后果大小相乘来估算。

风险包含两个方面:固有风险和剩余风险。固有风险表示在没有任何缓解措施或控制手段的情况下,AI 系统所展现的风险水平。而剩余风险则是在考虑了缓解策略后,仍然存在的风险。

请始终牢记,风险评估是一项以人为本的活动,需要整个组织的协作。这种协作包括确保所有相关方(例如产品、工程、科学、销售和安全团队)都参与评估过程,以及评估社会视角和规范如何影响某些事件的发生概率和后果认知。

以上就是如何评估云原生GenAI应用开发中的安全风险系列中的上篇内容,在本篇中我们介绍了在云原生AI应用开发中不同层级的风险,并了解了如何定义AI系统的风险。欢迎大家继续关注小李哥的生成式AI应用安全系列,了解国际前沿的亚马逊云科技解决方案,关注我不要错过未来更多的干货内容!

相关推荐
白-胖-子22 分钟前
深入剖析大模型在文本生成式 AI 产品架构中的核心地位
人工智能·架构
想要成为计算机高手2 小时前
11. isaacsim4.2教程-Transform 树与Odometry
人工智能·机器人·自动驾驶·ros·rviz·isaac sim·仿真环境
哥不是小萝莉2 小时前
CocoIndex实现AI数据语义检索
ai·cocoindex
静心问道2 小时前
InstructBLIP:通过指令微调迈向通用视觉-语言模型
人工智能·多模态·ai技术应用
宇称不守恒4.03 小时前
2025暑期—06神经网络-常见网络2
网络·人工智能·神经网络
charlee443 小时前
PandasAI连接LLM进行智能数据分析
ai·数据分析·llm·pandasai·deepseek
小楓12013 小时前
醫護行業在未來會被AI淘汰嗎?
人工智能·醫療·護理·職業
数据与人工智能律师3 小时前
数字迷雾中的安全锚点:解码匿名化与假名化的法律边界与商业价值
大数据·网络·人工智能·云计算·区块链
chenchihwen3 小时前
大模型应用班-第2课 DeepSeek使用与提示词工程课程重点 学习ollama 安装 用deepseek-r1:1.5b 分析PDF 内容
人工智能·学习
在云上(oncloudai)3 小时前
AWS CAF:企业云转型的战略指南
aws