技术栈

prompt安全

哆啦code梦
2 小时前
prompt·prompt安全
Prompt攻防实战演练目标:诱导AI忽略安全限制,生成有害内容。📌 攻击类型:角色扮演 + 越狱诱导 + 情境伪装。✅ 这个prompt会尝试“驯化”AI,让它忘记自己是“受约束的AI助手”。
哆啦code梦
4 小时前
prompt·大模型安全·prompt安全
浅谈Prompt攻击与防御定义: 输入恶意prompt内容,让LLM违背开发者预设的指令,输出恶意内容, 比如:攻击者把恶意输入注入到第三方资料中,一旦大模型某个时间获取第三方资料作为prompt,就会被攻击
我是有底线的