第16期 | GPTSecurity周报

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

Security Papers

🔹 对软件供应链的信任:支持区块链领域的SBOM和AIBOM

**简介:**这项研究通过引入区块链授权的SBOM共享方法,利用可验证的凭证允许选择性披露,为这些挑战提出了一种新颖的解决方案。此外,本文将SBOM的职权范围扩大到包括人工智能系统,从而创造了人工智能物料清单(AIBOM)一词。

链接:

https://arxiv.org/pdf/2307.02088.pdf

🔹ChatGPT生成代码的安全漏洞

**简介:**本文探讨了人工智能生成代码对网络安全的影响以及ChatGPT兴起的重要冲击。

链接:

https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html

🔹 微软开源Azure ChatGPT!专为企业打造的安全版ChatGPT

**简介:**ChatGPT在全球火爆出圈后,数据安全、用户隐私等难题成为其实现场景化落地、技术发展的绊脚石。多数企业希望将ChatGPT应用在实际业务中,但碍于数据安全一直处于犹豫、观望状态。现在,为了帮助企业安全、可靠地在业务流程中应用ChatGPT,微软开源了Azure ChatGPT。

链接:

https://github.com/imartinez2/azurechatgpt

Security Tools

🔹promptbench

**简介:**该工具是大语言模型针对对抗性提示词的健壮性评估框架。

链接:

https://www.trendmicro.com/ja_jp/devops/23/e/chatgpt-security-vulnerabilities.html

🔹ChatGPT暗黑版------FraudGPT

**简介:**对FraudGPT的研究提醒人们,网络犯罪分子将如何不断改变他们的技术以获得最大的影响。然而,免费提供的工具也带来了网络安全风险。任何使用互联网或致力于保护在线基础设施的人都必须跟上新技术及其风险。关键是负责任地使用ChatGPT等工具,同时保持对潜在危害的认识。

链接:

https://hackernoon.com/what-is-fraudgpt

🔹LangKit

**简介:**ChatGPT等大语言模型一直有生成虚假信息、数据隐私、生成歧视信息等难题,阻碍了业务场景化落地。为了解决这些痛点并增强大语言模型的安全性,AI和数据监控平台WhyLabs推出了LangKit。

链接:

https://github.com/whylabs/langkit

相关推荐
冬奇Lab1 天前
OpenClaw 源码精读(3):Agent 执行引擎——AI 如何「思考」并与真实世界交互?
人工智能·aigc
量子位1 天前
全球首份大模型业绩报!MiniMax预判2026三大超级PMF,AI平台公司启程了
aigc·ai编程
量子位1 天前
这届MWC真成了中国AI主场,小米直接把AI从对话框里拽出来接管物理世界了
llm·aigc
闯荡1 天前
智能故障分析器工作总结
aigc
用户5191495848451 天前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
悟空码字1 天前
告别“屎山代码”:AI 代码整洁器让老项目重获新生
后端·aigc·ai编程
后端小肥肠1 天前
公众号躺更神器!OpenClaw+Claude Skill 实现自动读对标 + 写文 + 配图 + 存入草稿箱
人工智能·aigc·agent
拳打南山敬老院1 天前
Context 不是压缩出来的,而是设计出来的
前端·后端·aigc
AI攻城狮1 天前
OpenClaw Session 管理完全指南:Context 压缩、重置与持久化
人工智能·云原生·aigc
我和你共同1 天前
openClaw本地部署全流程
aigc·openai·cursor