技术栈

prompt安全

最初的↘那颗心
3 天前
大模型·spring ai·注入攻击·prompt安全·越狱防护
Prompt安全实战:注入攻击防御与越狱防护全攻略导读:当我们兴致勃勃地把大模型接入业务系统时,往往只关注功能是否好用,却忽略了一个致命问题——安全。Prompt 注入攻击和越狱(Jailbreak)是当前大模型应用面临的两大核心安全威胁。前者能让攻击者"劫持"你的 AI 助手,后者能让用户绕过模型的内容安全限制。本文将从攻击原理到防御实战,带你系统掌握 Prompt 安全的多层防御体系。
哆啦code梦
2 个月前
prompt·prompt安全
Prompt攻防实战演练目标:诱导AI忽略安全限制,生成有害内容。📌 攻击类型:角色扮演 + 越狱诱导 + 情境伪装。✅ 这个prompt会尝试“驯化”AI,让它忘记自己是“受约束的AI助手”。
哆啦code梦
2 个月前
prompt·大模型安全·prompt安全
浅谈Prompt攻击与防御定义: 输入恶意prompt内容,让LLM违背开发者预设的指令,输出恶意内容, 比如:攻击者把恶意输入注入到第三方资料中,一旦大模型某个时间获取第三方资料作为prompt,就会被攻击
我是有底线的