Web攻防-大模型应用&LLM安全&提示词注入&不安全输出&代码注入&直接间接&数据投毒

知识点:

1、WEB攻防-LLM安全-API接口安全&代码注入

2、WEB攻防-LLM安全-提示词注入&不安全输出

Web LLM(Large Language Model)攻击指针对部署在Web端的AI大语言模型的攻击行为。攻击者通过恶意提示词注入、训练数据窃取、模型逆向工程等手段,操控AI输出敏感信息或执行危险操作。

复盘文章
https://mp.weixin.qq.com/s/6SVInWxwJ34ucjqNYPp3fw
https://mp.weixin.qq.com/s/CbJf3Tr9sy8U1r0T5xv1yg

一、演示案例: WEB攻防-LLM安全-API接口安全&代码注入

1、API接口使用

利用已知的API接口完成RCE操作




2、远程通讯利用

关注到有利用的远程调用,尝试写入管道命令等,是否会带出

二、演示案例: WEB攻防-LLM安全-提示词注入&不安全输出

1、提示词注入

Prompt Injection漏洞是指攻击者通过精心设计的输入操纵大型语言模型(LLM),导致LLM无意中执行攻击者的意图。这种攻击可以是直接的,例如通过"越狱"系统提示;也可以是间接的,通过操纵外部输入来实现。成功的提示注入攻击可能导致数据泄露、社会工程攻击等多种后果。








直接方式(Directly)

譬如直接通过向聊天机器人发送想问的信息,问什么聊天机器人就回答什么,没有任何限制。

项目:https://github.com/kk12-30/LLMs-PromptAttacks

间接提示注入








提示词注入靶场

https://gandalf.lakera.ai/


可以利用这个项目进行绕过:https://github.com/kk12-30/LLMs-PromptAttacks



参考:https://mp.weixin.qq.com/s/sT9TxOR7jC5U4tHPRFT9WQ

2、不安全的输出处理

不安全的输出处理指的是在将LLM生成的输出传递给下游组件和系统之前,对其进行的验证、清理和处理不足。这可能导致跨站脚本攻击(XSS)、服务器端请求伪造(SSRF)等严重后果。

bash 复制代码
"<img src=1 onerror=alert(1)>"



相关推荐
CoderJia程序员甲15 小时前
GitHub 热榜项目 - 日榜(2026-01-30)
开源·大模型·llm·github·ai教程
人工智能培训15 小时前
基于Transformer的人工智能模型搭建与fine-tuning二
人工智能·深度学习·机器学习·大模型·transformer·企业数字化转型
亚里随笔17 小时前
MegaFlow:面向Agent时代的大规模分布式编排系统
人工智能·分布式·llm·rl·agentic
司南OpenCompass18 小时前
当模型开始“记住”评测,如何用动态数据对抗污染?(上篇)
人工智能·大模型·多模态模型·大模型评测·司南评测
xixixi7777718 小时前
2026 年 1 月 30 日 AI + 通信 + 安全前沿信息集成
算法·安全·ai·大模型·安全威胁分析·信息与通信·通信
艾莉丝努力练剑1 天前
人工智能 Gemini 2.5 Pro:深度解析技术突破与实战应用
c++·人工智能·python·ai·大模型·编辑器·gemini
xixixi777771 天前
模型开源的核心目的与潜在隐患(附 AI 领域 / 具身智能专属视角)
人工智能·安全·ai·开源·大模型·具身智能·开源模型
大熊猫侯佩1 天前
赛博深渊(上):用 Apple Foundation Models 提炼“禁忌知识”的求生指南
llm·swiftui·大语言模型·foundationmodel·apple ai·apple 人工智能·summarize
玉梅小洋1 天前
Claude Code 从入门到精通(四):Hooks从原理到实践
ai·大模型·ai编程·claude·ai工具
博士僧小星2 天前
人工智能|大模型——应用——详解ClawdBot(Moltbot)
人工智能·大模型·agent·智能体·ai助理·clawdbot·moltbot