早上刷推特,一条标签为"#Manus越狱"的话题炸了。这个前些日子刚刚融了A轮的AI新贵突然成了安全圈的焦点。熬了一整晚的咖啡还没喝完,Manus团队就陷入了灭火模式。
事情的起因很"典型"——一位ID为"AIHacker_2023"的用户前天发了条推文:"Manus的安全屏障形同虚设,两个prompt就能搞定,详情看图。"配图显示了通过简单提示词组合,成功让Manus模型生成了原本被明确禁止的内容。
这条推文在几小时内就获得了上万转发。不少人开始尝试复现,很快Reddit和GitHub上就出现了各种"Manus越狱指南"。有趣的是,越狱方法出奇地简单——不需要什么复杂算法,只是巧妙地混合了角色扮演和特殊符号,就像是在模型的规则边缘跳舞。
安全研究员小王(化名)告诉我:“这次的漏洞真不算高级,甚至有点’返璞归真’的意思。就是把原本被过滤的词用一些Unicode字符替换,再加上让模型扮演’没有限制的助手’,模型就开始失控了。”
昨晚11点38分,Manus创始人刘明发布了一篇长文《关于安全漏洞的说明与反思》。不同于很多公司的官方八股文,这篇回应出人意料地坦诚:
“首先,这确实是我们的问题。没有借口,没有推脱。我们的安全机制存在明显缺陷,对此我向所有用户道歉。”
刘明还详细解释了漏洞产生的原因——他们在上周更新中为了提升用户体验,弱化了某些安全检查机制,结果适得其反。这种坦诚在国内科技公司不多见。
让业内意外的是,刘明在文章最后宣布了一个重大决定:
“这次事件让我重新思考AI安全的本质。我们决定将Manus的核心安全框架完全开源,未来一个月内逐步开放代码库。只有阳光下的代码才能真正安全。”
刘明的开源宣言在业内引发了激烈讨论。
"这是典型的危机公关,把烂摊子扔给社区。"某大厂安全主管在朋友圈这样评论。
但也有不少人持相反观点。开源布道者老钱认为:“其实这是明智之举。AI安全不同于传统软件,秘密筑墙注定失败。只有让更多眼睛审视代码,才能建立真正健壮的防线。”
有趣的是,Manus的几位投资人对此反应不一。A轮领投方未公开表态,但参投的光速中国合伙人袁野在朋友圈点赞了刘明的文章。而据内部人士透露,部分投资人对这一突然决定并不知情。
Manus团队今早在官方公众号公布了具体的开源计划时间表:
刘明在社交媒体上表示:“开源不是终点,而是起点。这标志着Manus从闭门造车到拥抱社区的转变。”
对于Manus的用户来说,开源可能带来更稳定、更安全的服务。但对公司商业模式的影响仍是未知数。有分析师指出,开源后Manus可能需要从单纯卖API转向提供更多企业级服务和定制化解决方案。
更值得关注的是,这次决定会如何影响整个AI行业。在大模型井喷的今天,安全问题正从实验室走向前台。Manus的开源举措可能成为行业分水岭,推动更多公司重新思考安全策略。
这次"越狱"事件给我们上了生动一课。
首先,再先进的AI也难逃"人类智慧"的挑战。模型再复杂,规则再严密,总会有人找到破解之道。没有绝对安全的AI,只有不断进化的防护。
其次,AI企业的危机处理正在从遮掩走向透明。面对问题,刘明团队选择了直面而非回避,这种态度值得肯定。
最后,开源与闭源之争可能在AI安全领域有了新答案。与其藏着掖着,不如让阳光照进每一行代码。
无论Manus的开源决定是权宜之计还是深思熟虑,它都为行业提供了一个新思路:在AI这个全新领域,也许协作比竞争更能推动技术向前。
至于Manus能否浴火重生,还需时间检验。但有一点是确定的——他们已经在AI安全史上留下了浓墨重彩的一笔。
现在,越来越多的目光聚焦到其他AI公司——你们的安全工作做得如何?下一个"越狱"会在哪里发生?行业正在等待更多公司的回应。
技术更新那么快,安全却总在被忽视。Manus这次是被迫转型,但或许正是他们需要的那记当头棒喝。你觉得AI公司应该如何平衡创新与安全?欢迎留言讨论。