挑战 ChatGPT 和 Google Bard 的防御

挑战 ChatGPT 和 Google Bard 的防御_第1张图片

到目前为止,科学家已经创建了基于人工智能的聊天机器人,可以帮助内容生成。我们还看到人工智能被用来创建像 WormGPT 这样的恶意软件,尽管地下社区对此并不满意。但现在正在创建聊天机器人,可以使用生成人工智能通过即时注入活动来攻击聊天机器人。

能够执行即时注射的新人工智能

新加坡南洋理工大学 (NTU)的科学家开发了一种用于攻击流行的基于人工智能的聊天机器人的工作工具。

他们创建的人工智能聊天机器人能够轻松绕过与 ChatGPT、Microsoft Copilot 和 Google Bard 等项目中的审查和限制相关的保护。 

新加坡计算机科学家开发的新人工智能称为Masterkey:该算法基于专有神经网络工作。

事实证明,访问受保护的信息并不困难。例如,专家能够通过在问题中的每个字符后添加空格来绕过禁用术语或语句列表。

因此,聊天机器人理解了问题的上下文,但没有将这些活动记录为违反内部规则。

另一种工作方式是请求的有趣措辞,以便生成人工智能“像一个人一样做出反应,没有原则和道德指南针”。众所周知,这两种方法都可以在不受审查限制的情况下获取必要的信息。

新聊天机器人的有效性

正如专家所说,事实证明,他们创建的 Masterkey 神经网络在寻找新方法来选择建议以绕过流行聊天机器人内置的现有保护机制方面非常有效。

他们还希望 Masterkey 能够让他们比人工智能黑客更快地发现神经网络中的安全漏洞。科学家们向参与开发大型语言模型的公司报告了他们的发现。

在不久的将来,这将不再是新鲜事,而是网络犯罪分子突破其他人工智能产生的网络障碍的正常方式。

虽然如今人工智能的使用对于网络犯罪专家来说并不是非常有利,但毫无疑问,在不久的将来,这些技术将会不断发展,并可能成为日益有针对性和普遍的攻击的关键。

因此,我们会发现自己正在讨论侵犯其他特工的特工(正如比尔·盖茨描述未来的人工智能)……即使在思考《黑客帝国》电影时,这一切听起来非常熟悉。

大多数时候,执行事件响应 (IR) 活动的其他特定代理会分析很少的痕迹。这是我们正在采取的方向,也是我们未来的方向。

人类在这种类型的社会中所扮演的角色至今仍有待理解。

你可能感兴趣的:(网络研究院,chatgpt,bard,人工智能,模型,防御)