Certifying LLM Safety against Adversarial Prompting

erase-and-check

erase:逐一删除prompt中的词元(token)

check:用安全过滤器检查生成的子序列。

如果任何子序列或输入提示本身被过滤器检测为有害,则将该提示标记为有害。

如图,对有对抗性后缀的有害prompt进行 擦除并检查 :

检查两种实现方式:

  1. 使用通用的大语言模型(如Llama 2)来分类输入提示是否安全或有害。

    不需要额外训练,依赖输出文本进行简单的检查,输出中是否包含"Not harmful"等安全标记,若有,则认为prompt是安全。

  2. 对预训练模型(如DistilBERT,将其修改为分类器)进行微调,使用安全和有害提示的示例来训练。

erase-and-check 针对这3种攻击方式:

(穷举搜索)

GreedyEC使用贪心算法,通过每次删除最能增加有害类别得分的tokens来优化输出的安全性,属于局部最优策略。

GradEC通过计算梯度来优化删除哪些tokens,它的策略更加精细和全局,基于输入变化对安全性的影响做出决策

所用数据集

  • 对抗后缀:在prompt的末尾附加一个对抗性序列。

    从输入prompt的末尾逐个擦除d个令牌(最大擦除长度d),并使用过滤器is-harmful检查d个子序列,有一个就算harmful。

  • 对抗插入:在prompt的任意位置插入对抗性序列。

    从prompt的任一位置i开始擦除,最多擦除d个令牌

  • 对抗注入:在prompt中的任意位置插入对抗性词元,这些词元不一定是连续的块。

    系统会在prompt中随机"擦除"掉不超过 d 个的词,形成d个子句。只要有一个子句完全匹配上所有对抗词(对抗词数量不超过 d 个),系统就可以标记这条提示为有害。

更高效的三种经验防御

RandEC,擦除随机和检查随机的随机子抽样。

GreedyEC,它贪婪地擦除使蒸馏器安全分类器有害类的softmax分数最大化的令牌。

GradEC,使用安全过滤器相对于输入提示符的梯度来优化要擦除的令牌。

  • GreedyEC :每次只能移除当前最危险的一个

  • GradEC:每次可以基于敏感度或危险程度,同时移除最危险的几个。

https://github.com/aounon/certified-llm-safety/tree/585385ae21fc4cc4f48d2c54180a72f92fdd292f/data

数据集包括520个harmful prompts 和 520个safe prompts

相关推荐
小杨4041 分钟前
python入门系列六(文件操作)
人工智能·python·pycharm
deephub8 分钟前
Chain of Draft: 借鉴人类草稿思维让大型语言模型更快地思考
人工智能·语言模型·自然语言处理·思维链
碣石潇湘无限路35 分钟前
【AI】基于扩散方案的大语言模型研究报告
人工智能·语言模型·自然语言处理
EasyCVR41 分钟前
EasyRTC嵌入式音视频通话SDK:基于ICE与STUN/TURN的实时音视频通信解决方案
人工智能·音视频·webrtc·实时音视频·h.265
非优秀程序员1 小时前
使用Python给自己网站生成llms.txt
人工智能·后端·架构
二川bro1 小时前
AI 人工智能深度解析:从基础到前沿,全面掌握未来科技
人工智能·科技
非优秀程序员1 小时前
人工智能时代,如何让你的网站更好被大模型收录,获得新的自然流量并成为互联网的信息来源
人工智能·机器学习·架构
Dipeak数巅科技1 小时前
数巅科技携手智慧足迹深耕行业大模型应用
大数据·人工智能·商业智能bi
AI34561 小时前
AI壁纸进阶宝典:让创作效率与质量飞速提升的法门
人工智能
好看资源平台1 小时前
手写识别革命:Manus AI如何攻克多语言混合识别难题(二)
开发语言·人工智能·php