第11期 | GPTSecurity周报

第11期 | GPTSecurity周报_第1张图片

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练 Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

                                    Security Papers

Meta’s Q1 2023 Security Reports: Protecting People and Businesses

在季度诚信报告中,我们分享了第一季度对各种威胁的打击情况。我们已经检测到了针对在线用户的恶意软件活动,分享发现之后增强了安全功能。我们针对全球九个参与秘密影响和网络间谍的网络采取了行动,并与行业同行和政府分享了目前感知到的风险。

链接:https://about.fb.com/news/2023/05/metas-q1-2023-security-reports/

Tenable report shows how generative AI is changing security research 

本研究侧重于四种新工具,旨在帮助人类研究人员简化逆向工程、漏洞分析、代码调试和Web应用程序安全,并识别基于云的错误配置。

链接:https://venturebeat.com/security/tenable-report-shows-how-generative-ai-is-changing-security-research/

Trust in Software Supply Chains: Blockchain-Enabled SBOM and the AIBOM Future

本研究通过引入区块链支持的SBOM共享方法,利用可验证的凭证来允许选择性披露,从而为这些挑战提出了一种新颖的解决方案。

链接:https://arxiv.org/pdf/2307.02088.pdf

SecureFalcon: The Next Cyber Reasoning System for Cyber Security

我们构建了一个新的训练集FormAI,它得益于生成人工智能(AI)和形式验证来评估其性能。

链接:https://arxiv.org/pdf/2307.06616.pdf

Detecting software vulnerabilities using Language Models

在本文中,FalconLLM首次针对网络安全应用进行了微调,从而引入了SecureFalcon,这是一种基于FalconLLM构建的创新模型架构。SecureFalcon经过训练,可以区分易受攻击和非易受攻击的C代码样本。我们构建了一个新的训练集FormAI,该训练集得益于生成人工智能(AI)和形式验证来评估其性能。

链接:https://arxiv.org/ftp/arxiv/papers/2302/2302.11773.pdf

                                    Security Tools

openai-cti-summarizer

简介:openai-cti-summarizer是一款基于OpenAI's GPT-3.5和GPT-4 API生成威胁情报总结报告的工具

链接:https://github.com/EC-DIGIT-CSIRC/openai-cti-summarizer

Codamosa

简介:CodaMOSA是CODAMOSA: Escaping Coverage Plateaus in Test Generation with Pre-trained Large Language Models的论文代码,实现了一款结合了OpenAI API的fuzzer,旨在缓解传统fuzz中陷入覆盖率停滞不前的问题

链接:https://github.com/microsoft/codamosa

ChatGPT Security Code Analyzer

简介:Go based low code Honeypot Framework with Enhanced Security, leveraging GPT-3 for System Virtualization

链接:https://github.com/mariocandela/beelzebub

你可能感兴趣的:(GPTSecurity,AIGC,gpt)