GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好的知悉近一周的贡献内容,现总结如下如下。
Security Papers
1. GPT自身安全
-
ChatGPT Security Risks: A Guide for Cyber Security Professionals
https://www.cybertalk.org/wp-content/uploads/2023/03/ChatGPT_eBook_CP_CT_2023.pdf
-
安全测试中的 ChatGPT AI:机遇与挑战
https://www.cyfirma.com/outofband/chatgpt-ai-in-security-testing-opportunities-and-challenges/
-
OWASP发布了Top 10 for Large Language Model Applications项目,旨在教育开发人员、设计师、架构师、经理和组织了解部署和管理大语言模型LLM时的潜在安全风险,该项目提供了一个常见于LLM应用中的十个最关键漏洞的列表。
https://owasp.org/www-project-top-10-for-large-language-model-applications/
2. 软件供应链安全