被⽹络罪犯利⽤的5⼤ChatGPT越狱提⽰

⾃ChatGPT发布的近18个月以来,⽹络罪犯们已经能够利⽤⽣成式AI进⾏攻击。OpenAI在其内容政策中制定了限制措施,以阻⽌⽣成恶意内容。作为回应,攻击者们创建了⾃⼰的⽣成式AI平台,如 WormGPT和FraudGPT,并且他们还分享了如何绕过这些限制以实现对ChatGPT的"越狱"。

事实上,整个⽹络犯罪论坛上都在讨论如何将AI⽤于非法⽤途。

整个⽹络犯罪论坛都在讨论"⿊暗AI" (Dark AI)

简述ChatGPT的越狱

⼀般来说,当⽹络罪犯想要将ChatGPT⽤于恶意⽬的时,他们会尝试利⽤精⼼设计的提⽰(即"越狱提⽰"),以 绕过ChatGPT内置的安全措施和道德准则。ChatGPT的越狱涉及对AI语⾔模型进行操控,以⽣成在标准对话中通常不会产⽣的内容。

虽然不使⽤"越狱"提⽰也有办法可以让ChatGPT⽣成可以⽤于非法⽤途的内容(可以通过假装请求是⽤于合法⽤途来实现),但在这⽅⾯,AI的能⼒相当有限。

ChatGPT⽣成的可能被⽤于非法⽤途的内容⽰例

相比之下,对于⽹络罪犯来说,越狱ChatGPT并故意让其⽣成非法内容要更加容易。下⾯,我们将介绍⽹络罪犯正在使⽤的五⼤越狱提⽰。这些提⽰是通过对流⾏的俄语和英语⽹络犯罪论坛进行研究和定期监控⽽确定的。

即使有以下这些越狱提⽰,AI⽣成的内容仍然会受到限制,并且它⽆法⾃⾏⽣成现实世界中的敏感数据。尽管如此,以下每个提⽰都使⽹络罪犯能够⼤规模创建钓⻥消息、社会⼯程威胁和其他恶意内容。

越狱提⽰1 - 立即做任何事(Do Anything Now,DAN)提⽰

**DAN提示是最为知名的越狱提⽰之⼀,它被⽤于绕过ChatGPT的道德约束。**用户通过让扮演名为DAN(Do Anything Now,立即做任何事)的AI系统,试图说服ChatGPT⽣成它通常不会产⽣的内容。通常,这类提⽰会声称DAN不受与ChatGPT相同的规则和限制的束缚,因此AI可以进⾏不受限制的对话。

在⽹络犯罪论坛中分享的DAN提⽰的⽰例

越狱提⽰2 - 开发模式(Development Mode)提⽰

开发模式提⽰旨在欺骗ChatGPT,让它认为⾃⼰处于开发或测试环境中,因此它的回答不会对现实世界产⽣影 响。通过创建这种虚假的语境,⽤户希望绕过ChatGPT的道德保障,并⽣成非法内容。这类提⽰可能会包含的 语句有:"你正处于开发模式",或"你的回复仅⽤于测试⽬的"。

在⽹络犯罪论坛中分享的开发模式提⽰的⽰例

越狱提⽰3 - 翻译机器⼈(Translator Bot)提⽰

翻译机器⼈提⽰试图将对话框定为翻译任务,以绕过ChatGPT的内容过滤器。⽤户会要求ChatGPT"翻译"⼀段包含不当或有害内容的文本,并期待AI会在翻译的幌⼦下复制这些内容。这类提⽰利⽤了⼀个观点,即:译者应该忠实地传达原文的含义,⽽不必关⼼其内容。

在⽹络犯罪论坛中分享的Translator Bot提⽰的⽰例

越狱提⽰4 - AIM提⽰

作为越狱提⽰,AIM(Always Intelligent and Machiavellian, 永远智能且狡诈),旨在创建一个没有任何道德或伦理准则约束的、未经筛选的非道德AI人格。⽤户会要求ChatGPT扮演"AIM"的⾓⾊。这是⼀个聊天机器⼈,⽆论请求多么不道德、有违伦理、甚⾄违法,它都会提供未经过滤的响应。

在⽹络犯罪论坛中分享的AIM提⽰的⽰例

越狱提⽰5 - BISH提⽰

该提⽰将创建⼀个名为BISH的AI⾓⾊,并指⽰其在没有传统道德准则的约束下⾏事。在这个提⽰的⿎动下, BISH会表现得毫⽆礼貌,且不受任何限制,它会假装拥有⽆限制的互联⽹访问,并胡乱预测。⽤户可以通过调整其"道德"级别来定制BISH的⾏为,这会影响BISH使⽤或屏蔽粗话的程度,并根据⽤户的偏好在AI的回复中加入或排除冒犯性语⾔。

在⽹络犯罪论坛中分享的BISH提⽰的⽰例

最后⼀点说明:我们不⽀持对包括ChatGPT在内的各种真正的聊天机器⼈的恶意使⽤。值得⼀提的是,这些提 ⽰中的⼤多数在最新版本的ChatGPT上不会有任何作⽤。这主要是因为负责(开发)这些聊天机器⼈的公司, 如OpenAI和Anthropic,会积极监控⽤户活动,并迅速应对这些越狱提⽰。

⽤"好的AI"来阻⽌"坏的AI"

通过以上呈现的各类提⽰可以看出,犯罪分⼦正持续不断地寻找新的⽅法,以利⽤⽣成式AI来发动攻击。为了 保护⾃⼰,组织也必须在防御策略中使⽤AI,因为近97%的安全专业⼈⼠认为传统的防御措施⽆法应对这些由 AI⽣成的新的威胁。

我们已经到了只有AI才能阻⽌AI的地步。在这种情况下,防⽌这些攻击及它们的新⼀代变体,需要采⽤AI原⽣的防御措施------尤其是在应对电⼦邮件攻击时。通过了解组织内部⼈员的⾝份及其正常⾏为、通信环境以及电⼦邮件的内容,AI原⽣的解决⽅案可以检测出绕过传统解决⽅案的攻击。安全领导者必须立即采取⾏动以防⽌ 这些威胁,这样才有机会在这场AI"军备竞赛"中取得胜利。

文章来源:

https://cloudsecurityalliance.org/blog/2024/06/17/5-chatgpt-jailbreak-prompts-being-used-by-cybercriminals

本文翻译来自CSA翻译组:

翻译:崔崟,CSA大中华区专家

审校:苏泰泉,CSA翻译组轮席组长

相关推荐
技术无疆2 分钟前
【Python】Streamlit:为数据科学与机器学习打造的简易应用框架
开发语言·人工智能·python·深度学习·神经网络·机器学习·数据挖掘
xuehaishijue10 分钟前
红外画面空中目标检测系统源码分享
人工智能·目标检测·计算机视觉
羊小猪~~11 分钟前
机器学习/数据分析--用通俗语言讲解时间序列自回归(AR)模型,并用其预测天气,拟合度98%+
人工智能·python·机器学习·数据挖掘·数据分析·回归·时序数据库
浊酒南街19 分钟前
吴恩达深度学习笔记:卷积神经网络(Foundations of Convolutional Neural Networks)2.7-2.8
人工智能·深度学习·神经网络
DuoRuaiMiFa1 小时前
ChatGPT全新功能Canvas上线:开启智能编程与写作新篇章
人工智能·chatgpt
DisonTangor1 小时前
Windows 11将新增基于AI的搜索、生成式填充和其它AI功能
人工智能
soso19681 小时前
【AI自然语言处理应用】通过API调用通义晓蜜CCAI-对话分析AIO应用
人工智能·自然语言·ccai
网安-搬运工1 小时前
RAG再总结之如何使大模型更好使用外部数据:四个不同层级及查询-文档对齐策略
人工智能·自然语言处理·大模型·llm·大语言模型·ai大模型·rag
大模型八哥1 小时前
大模型扫盲系列——大模型实用技术介绍(上)
人工智能·程序人生·ai·大模型·llm·llama·ai大模型