如何安全地大规模部署 GenAI 应用程序

大型语言模型和其他形式的生成式人工智能(GenAI) 的广泛使用带来了许多组织可能没有意识到的安全风险。幸运的是,网络和安全提供商正在寻找方法来应对这些前所未有的威胁。

随着人工智能越来越深入地融入日常业务流程,它面临着泄露专有信息、提供错误答案或完全"产生幻觉"不存在的事实的风险。

必须通过新的政策和程序来应对这些陷阱,以确保人类对人工智能助手的监督------以及对不了解使用人工智能风险的人类进行监督和培训。

如果你考虑 [AI] 网络需求和安全风险,你会发现,你对业务数据和业务流程的集成越多,风险就越大。

想象一下,一个 AI 应用程序可能会直接集成到票务系统中,根据模型训练的智能接收票务并进行路由。

现在,该应用程序直接与业务流程集成。这会带来更多风险,因为很明显,如果该模型被黑客入侵,它可能会扰乱业务流程。

仅使用专有信息训练大型语言模型(LLM) AU 就会带来巨大的知识产权泄露风险,因为人工智能可能会在无害的答案中泄露商业或公司机密。

同样,让人工智能接触敏感的个人信息可能会无意中导致人工智能公开这些细节。

这些 LLM GenAI 引擎的功能之一是,它们可以发现人类无法发现的东西。

如果你想把这些发现暴露给那些不应该接触到它的人,他们可能比你更了解你的业务。
关注公众号网络研究观阅读

护栏至关重要

人工智能需要护栏。最重要的是控制人工智能可以访问哪些内容。

你需要制定正确的政策,以控制访问和保护数据隐私。在将这些应用程序更多地集成到流程中时,良好的访问控制和数据保护安全实践是首要前提。

Gen AI 的安全模型也强调数据丢失预防,这一术语应该扩大到涵盖更多内容。

现在有一个新术语叫做知识泄露预防,因为人工智能不仅仅涉及你的信用卡信息或PII 敏感数据,它实际上涉及你的知识产权。

人工智能的威胁防护

人工智能安全方法的第三支柱是威胁防护,阻止针对人工智能模型的各种类型的恶意攻击,这些攻击通常是旧伎俩的新花样。

就像所有可以使用的技术一样,它也可以被滥用。我们看到的攻击方式类似,但又有所不同。过去通常有 SQL 注入,现在有命令注入。还有数据中毒,我们知道 DNS 是如何被中毒的。情况类似。这些攻击很难识别。

威胁防护是一个很大的领域,OWASP 十大攻击实际上已经确定了人工智能安全领域的一些新兴类别。所以这是另一个需要关注的领域。

统一 SASE 即服务产品中的"一次性"数据包检查流程如何快速路由和保护 AI 网络流量。

一旦打开数据包流,你就可以做所有事情了,你要进行 QoS、压缩、WAN 优化,然后将其用于访问控制。

你可以根据用户、应用程序、位置、各种 URL、声誉、DNS、域等进行访问控制。

然后,你使用检测、签名匹配、异常、协议异常等对同一事物进行威胁防护,然后进行 CASB,匹配任何类型的 DLP。

安全性和效率

归根结底,这一切都是为了平衡安全性和效率。

如果使用太多安全产品,性能就会下降。如果试图简化变更管理和规则控制流程,实际上可能会降低其安全性。

如果试图加快速度,实际上会损害流程。因此,存在性能、灵活性、安全性等各种权衡。

相关推荐
斯多葛的信徒1 分钟前
看看你的电脑可以跑 AI 模型吗?
人工智能·语言模型·电脑·llama
正在走向自律2 分钟前
AI 写作(六):核心技术与多元应用(6/10)
人工智能·aigc·ai写作
AI科技大本营2 分钟前
Anthropic四大专家“会诊”:实现深度思考不一定需要多智能体,AI完美对齐比失控更可怕!...
人工智能·深度学习
Cc不爱吃洋葱2 分钟前
如何本地部署AI智能体平台,带你手搓一个AI Agent
人工智能·大语言模型·agent·ai大模型·ai agent·智能体·ai智能体
网安打工仔3 分钟前
斯坦福李飞飞最新巨著《AI Agent综述》
人工智能·自然语言处理·大模型·llm·agent·ai大模型·大模型入门
AGI学习社3 分钟前
2024中国排名前十AI大模型进展、应用案例与发展趋势
linux·服务器·人工智能·华为·llama
AI_Tool3 分钟前
纳米AI搜索官网 - 新一代智能答案引擎
人工智能·搜索引擎
Damon小智4 分钟前
合合信息DocFlow产品解析与体验:人人可搭建的AI自动化单据处理工作流
图像处理·人工智能·深度学习·机器学习·ai·自动化·docflow
小虚竹4 分钟前
用AI辅导侄女大学物理的质点运动学问题
人工智能·chatgpt
猿类崛起@5 分钟前
百度千帆大模型实战:AI大模型开发的调用指南
人工智能·学习·百度·大模型·产品经理·大模型学习·大模型教程