第16期 | GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

Security Papers

🔹 对软件供应链的信任:支持区块链领域的SBOM和AIBOM

**简介:**这项研究通过引入区块链授权的SBOM共享方法,利用可验证的凭证允许选择性披露,为这些挑战提出了一种新颖的解决方案。此外,本文将SBOM的职权范围扩大到包括人工智能系统,从而创造了人工智能物料清单(AIBOM)一词。

链接:

https://arxiv.org/pdf/2307.02088.pdf

🔹ChatGPT生成代码的安全漏洞

**简介:**本文探讨了人工智能生成代码对网络安全的影响以及ChatGPT兴起的重要冲击。

链接:

https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html

🔹 微软开源Azure ChatGPT!专为企业打造的安全版ChatGPT

**简介:**ChatGPT在全球火爆出圈后,数据安全、用户隐私等难题成为其实现场景化落地、技术发展的绊脚石。多数企业希望将ChatGPT应用在实际业务中,但碍于数据安全一直处于犹豫、观望状态。现在,为了帮助企业安全、可靠地在业务流程中应用ChatGPT,微软开源了Azure ChatGPT。

链接:

https://github.com/imartinez2/azurechatgpt

Security Tools

🔹promptbench

**简介:**该工具是大语言模型针对对抗性提示词的健壮性评估框架。

链接:

https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html

🔹ChatGPT暗黑版------FraudGPT

**简介:**对FraudGPT的研究提醒人们,网络犯罪分子将如何不断改变他们的技术以获得最大的影响。然而,免费提供的工具也带来了网络安全风险。任何使用互联网或致力于保护在线基础设施的人都必须跟上新技术及其风险。关键是负责任地使用ChatGPT等工具,同时保持对潜在危害的认识。

链接:

https://hackernoon.com/what-is-fraudgpt

🔹LangKit

**简介:**ChatGPT等大语言模型一直有生成虚假信息、数据隐私、生成歧视信息等难题,阻碍了业务场景化落地。为了解决这些痛点并增强大语言模型的安全性,AI和数据监控平台WhyLabs推出了LangKit。

链接:

https://github.com/whylabs/langkit

相关推荐
zstar-_6 小时前
nano-GPT:最小可复现的GPT实操
gpt
用户5191495848458 小时前
使用Python ConfigParser解析INI配置文件完全指南
人工智能·aigc
Font Tian8 小时前
GPT-oss + vLLM + LobalChat
人工智能·gpt·llm
小新学习屋9 小时前
大模型-智能体-【篇四: Agent GPT 、AgentTuning、LangChain-Agent】
gpt·langchain·大模型·智能体
小溪彼岸10 小时前
分享一个Claude Code宝藏网站Claude Code Templates
aigc·claude
YFCodeDream10 小时前
MLLM技术报告 核心创新一览
python·gpt·aigc
蛋先生DX12 小时前
RAG 切片利器 LumberChunker 是如何智能地把文档切割成 LLM 爱吃的块
llm·aigc·ai编程
土丁爱吃大米饭12 小时前
AIGC工具助力2D游戏美术全流程
aigc·小游戏·游戏开发·ai助力
安思派Anspire14 小时前
为何你的RAG系统无法处理复杂问题(二)
aigc·openai·agent
Mintopia15 小时前
🧠 可解释性AIGC:Web场景下模型决策透明化的技术路径
前端·javascript·aigc