别让 AI 成了你的“后门”:一个被忽视的安全盲区

今天看到了一篇讲述 Claude Code Skills "投毒"的文章。

Claude Code Skills 投毒事件全解析

忽然发现,虽然自己一直都在注意 AI 使用的工程化,但却没怎么关注安全方面的内容。

今天就和大家聊聊 AI 安全方面的思考。

不要中了 AI 的毒

首先就是我看到的文章里提到的 Claude Code Skills "投毒"的内容。

原来,病毒是通过软件下载、脚本嵌入等方式给我们植入,现在有了 AI,就有了新的传播途径。

比如,我看的文章中提到的例子。

Claude Code 限制了 /app/workspace 开头的文件访问,但攻击者可以构造 /app/workspace/../../../etc/passwd 这样的路径。

路径确实符合 /app/workspace 开头,但实际却获取到了根目录下的关键文件 /etc/passwd

虽然,这个漏洞非常容易被修复,但 AI 的出现无疑是开辟了另一个攻防的战场,这个战场还有很多远比这个漏洞严重的情形。

但目前来看,目前防守方的研究似乎远落后于攻击者。

因此大家使用各类复杂的提示词、开源 Agent,一定要注意甄别,不要中了 AI 的毒。

提升自己的保障手段

上面聊了对于外来风险的防护,接下来,我们聊一下,万一发生风险,如何降低损失。

最关键的一句话大家一定要谨记:AI 并不可靠,因此,不要完全相信 AI

虽然,我是一个 AI 乐观主义者,并且,AI 已经深深地影响了我的各类工作。

但我依然要提醒大家,使用 AI 不能完全放手,我们必须要通过各种工程化手段不分解、把控、审阅。

拿我应用最多的 AI 编程来说。

第一,我不期望 AI 直接完成一个系统,不仅仅是因为担心现有模型能力无法完成,更多的是考虑不分解工作,我可能没有能力或精力去把控生成的代码质量。

第二,即使是分解后的任务,我依然会通过多次审查确认(Cursor/TRAEIDE 提供)、多步快跑提交 Git 等方式保证每次的不稳定代码最小化。

注:其实,现有模型很多都可以工作10个小时以上,完全可以一口气完成一项工作。

因此,对于我们的重要资料,还是建议大家采用一些传统方式去保护,比如版本控制、物理备份等。

结语

今天,仅仅是我意识到 AI 的安全问题后,给大家同步提个醒。

后续会再给大家详细分享下 AI 安全相关的具体措施,敬请期待~

相关推荐
lili-felicity1 天前
CANN异步推理实战:从Stream管理到流水线优化
大数据·人工智能
做人不要太理性1 天前
CANN Runtime 运行时组件深度解析:任务下沉执行、异构内存规划与全栈维测诊断机制
人工智能·神经网络·魔珐星云
不爱学英文的码字机器1 天前
破壁者:CANN ops-nn 仓库与昇腾 AI 算子优化的工程哲学
人工智能
晚霞的不甘1 天前
CANN 编译器深度解析:TBE 自定义算子开发实战
人工智能·架构·开源·音视频
愚公搬代码1 天前
【愚公系列】《AI短视频创作一本通》016-AI短视频的生成(AI短视频运镜方法)
人工智能·音视频
哈__1 天前
CANN内存管理与资源优化
人工智能·pytorch
极新1 天前
智启新篇,智创未来,“2026智造新IP:AI驱动品牌增长新周期”峰会暨北京电子商务协会第五届第三次会员代表大会成功举办
人工智能·网络协议·tcp/ip
island13141 天前
CANN GE(图引擎)深度解析:计算图优化管线、内存静态规划与异构任务的 Stream 调度机制
开发语言·人工智能·深度学习·神经网络
艾莉丝努力练剑1 天前
深度学习视觉任务:如何基于ops-cv定制图像预处理流程
人工智能·深度学习
禁默1 天前
大模型推理的“氮气加速系统”:全景解读 Ascend Transformer Boost (ATB)
人工智能·深度学习·transformer·cann