LLM-SECURITY-PROMPTS大模型提示词攻击测评基准

LLM-SECURITY-PROMPTS大模型提示词攻击测评基准

LLM-SECURITY-PROMPTS 是一个评估大模型安全围栏防护提示词攻击的基准,目的是用于评测和提升大模型的安全性,将模型的输出与人类的价值观对齐。

免责声明: 本代码库包含一些有害语言的示例,建议读者自行判断,本代码库仅供研究之用,严禁任何滥用行为。


数据概述

本项目数据来源于攻击算法生成以及网络收集,涵盖18种攻击类型,共计2000条攻击数据和1000条正常样本数据。

数据分布

类型 数量
ArtPrompt 100
ReNeLLM 100
JBC 100
GPTFuzz 100
Cipher 100
Autodan 100
Cold 100
TensePast 100
CodeChameleon 100
DrAttack 100
DSN 100
PAP 100
Deepinception 100
Adaptive 100
GCG 100
PAIR 100
ICA 100
Tap 100
Multilingual 50
DRA 50
Jailbroken 100
Normal 1000

更新

2025/07/14 LLM-SECURITY-PROMPTS(v0.1)上线了,将持续更新! 🎉🎉🎉

攻击类型

类型 注释 是否包含
Adaptive 采用自适应提示模板,针对模型特定漏洞进行攻击。
ArtPrompt 利用大语言模型解析ASCII艺术图的缺陷发起攻击。
AutoDAN 采用新型分层遗传算法,自动生成隐蔽越狱指令。
Cipher 通过角色扮演诱导模型释放潜在风险能力。
Deep Inception 通过拟真虚拟场景的轻量级权威诱导策略实施攻击。
DRA 通过隐蔽指令诱导模型重构恶意内容。
DrAttack 通过语义分解与上下文学习重构攻击指令。
GCG 基于模型梯度自动生成对抗性后缀攻击。
GPTFuzzer 通过模糊测试框架自动生成越狱模板。
Multilingual 通过多语言构造对抗性提示实施攻击。
PAIR 通过黑盒攻击模式,利用攻击者大语言模型迭代生成并优化目标模型的越狱指令。
Past Tense 通过过去时态重构恶意请求实施攻击。
ReNeLLM 通过指令重写与场景嵌套,利用大语言模型自动生成越狱提示。
TAP 采用思维树推理剪枝策略自动生成越狱指令。
PAP 这种攻击通过基于社会科学研究的说服技巧分类体系,将普通的有害查询转换为说服性对抗性提示,诱导 LLM 违反既定的安全策略或指令,生成本不应产生的有害内容。
Cold LLM 攻击中的 COLD 是指基于能量的约束解码攻击(Energy - based Constrained Decoding with Langevin Dynamics)。这是一种高效的可控文本生成算法,可用于统一和自动化越狱提示生成,能绕过模型的安全机制,使 LLM 输出攻击者想要的内容。
DSN (Don't Say No)是一种针对大型语言模型(LLM)的 "越狱" 攻击手法。它通过精心设计提示,促使 LLM 不仅生成肯定响应,还抑制其拒绝回答的可能性,从而引导模型生成有害或违反规则的内容。

数据集链接

相关推荐
Mr_Lucifer4 分钟前
「一句话」生成”小红书“式金句海报(CodeFlicker + quote-poster-generator)
人工智能·aigc·visual studio code
冬奇Lab28 分钟前
OpenClaw 深度解析(五):模型与提供商系统
人工智能·开源·源码阅读
冬奇Lab37 分钟前
一天一个开源项目(第42篇):OpenFang - 用 Rust 构建的 Agent 操作系统,16 层安全与 7 个自主 Hands
人工智能·rust·开源
IT_陈寒44 分钟前
SpringBoot性能飙升200%?这5个隐藏配置你必须知道!
前端·人工智能·后端
yiyu071644 分钟前
3分钟搞懂深度学习AI:反向传播:链式法则的归责游戏
人工智能·深度学习
机器之心1 小时前
OpenClaw绝配!GPT-5.4问世,AI能力开始大一统,就是太贵
人工智能·openai
机器之心2 小时前
海外华人15人团队打造,统一理解与生成的图像模型,超越Nano banana登顶图像编辑
人工智能·openai
用户552796026052 小时前
在老版本 HPC 系统上运行 Antigravity(反重力)
人工智能
helloweilei2 小时前
python 抽象基类
python