第38期 | GPTSecurity周报

第38期 | GPTSecurity周报_第1张图片

GPTSecurity是一个涵盖了前沿学术研究和实践经验分享的社区,集成了生成预训练Transformer(GPT)、人工智能生成内容(AIGC)以及大型语言模型(LLM)等安全领域应用的知识。在这里,您可以找到关于GPT/AIGC/LLM最新的研究论文、博客文章、实用的工具和预设指令(Prompts)。现为了更好地知悉近一周的贡献内容,现总结如下。

Security Papers

1.ChatGPT 如何解决漏洞管理问题

简介:本文利用了包含78,445个样本的大规模数据集,研究了ChatGPT在涉及完整漏洞管理流程的6个任务中的表现。针对每个任务,研究者将ChatGPT与SOTA方法进行了比较,分析了不同提示对其性能的影响,并探讨了面临的困难。研究结果显示,在利用ChatGPT协助漏洞管理方面存在着巨大潜力。

链接:

https://arxiv.org/pdf/2311.06530.pdf

2.工业物联网系统中预测与健康管理的基础模型调查

简介:工业物联网系统(ICPS)已成为现代制造业和工业的关键组成部分,融合了计算机科学、通信技术和工程学等多个学科。然而,ICPS长期运行面临着设备故障、性能下降和安全威胁等挑战。为了有效维护和管理,预测与健康管理(PHM)在ICPS中被广泛应用,用于故障预测、健康监测和维护决策等关键任务。大规模基础模型(LFM)的出现,如BERT和GPT,代表了人工智能技术的重大进步。作为这一领域的显著成就,ChatGPT具有通用人工智能的潜力。随着数据采集技术和处理能力的提升,LFM在ICPS的PHM领域有望发挥关键作用。然而,LFM在ICPS的PHM应用尚缺乏共识,需要系统回顾和明确未来方向的路线图。本文梳理了PHM领域基础模型的关键组成和最新进展,为工业决策者和研究人员提供了宝贵的参考,同时推动ICPS可靠性、可用性和安全性的进一步提升。

链接:

https://arxiv.org/abs/2312.06261

3.通过人性化LLMs重新思考说服策略挑战人工智能安全

简介:本文提出了一种新的视角,将LLMs视为类人沟通者,探索日常语言互动与人工智能安全之间被忽视的交集。研究者针对如何说服LLMs来越狱展开了研究。首先,他们提出了一个源自几十年社会科学研究的说服分类法。然后,他们利用该分类法自动生成了可解释的说服对抗提示(PAP)来越狱LLMs。结果显示,越狱性能大大提高,PAP在Llama 2-7b Chat、GPT-3.5和GPT-4上的攻击成功率始终保持在92%以上,超过了最近的算法重点攻击。在防御方面,研究者探讨了针对PAP的各种机制,并发现了现有防御中的重大差距,主张对高度互动的LLMs采取更基本的缓解措施。

链接:

https://arxiv.org/pdf/2401.06373.pdf

4.TAT-LLM:用于表格和文本数据的离散推理的专门化语言模型

简介:在这项工作中,研究者优化了大模型在针对表格和文本混合数据进行问题回答任务的效果。表格与文本混合数据是Web上非常常见的内容,通常需要离散推理能力。最近,像GPT-4这样的大型语言模型(LLM)已经展示出强大的多步推理能力。研究者提出了一个抽象的分步方法来处理表格和文本混合数据的问题回答任务,该方法由三个关键步骤组成,包括提取器、推理器和执行器。同时还设计了一个指令来实例化该方法,并验证了GPT-4优于所有现有方法。通过对LLaMA 2进行微调,研究者利用现有的专家注释数据集生成了训练数据,开发了一个名为TAT-LLM的语言模型。实验结果表明,TAT-LLM模型在FinQA、TAT-QA和TAT-DQA基准测试中优于所有基线模型,包括之前最好的微调模型和像GPT-4这样的非常大规模的LLM。

链接:

https://arxiv.org/abs/2401.13223

你可能感兴趣的:(GPTSecurity,AIGC,gpt,人工智能,语言模型)