不要再脑补了,AI连漫画都看不懂,怎么毁灭世界?

“这是你的最后机会。这以后,你就没有回头路了。如果选择蓝色药丸,故事就此结束。你在自己的床上醒来,继续相信你愿意相信的一切。如果你吃下红色药丸,你将留在奇境,我会让你看看兔子洞究竟有多深。”


不知道有多少人曾看过《黑客帝国》,尽管时隔20年,每每看《黑客帝国》,我还是忍不住为之倾倒!



影片讲述了未来的22世纪人类与机器人爆发战争,最终机器人统治世界。为了获取能源,统治机器人的人工智能程序系统(母体)控制了大部分人类的意识,制造了一个21世纪的虚拟世界。男主“尼奥”为了解放人类,摆脱虚拟世界的母体程序,和其他一些具有自我意识的人类在现实世界和虚拟世界展开了激烈的斗争。


《黑客帝国》反映了一个至今为止依旧受到广大群众关注的问题:当人工智能有意识后,它们会不会和人类对抗?



除了电影,其实,人工智能威胁论在现实生活中也屡见不鲜。


《时间简史》的作者霍金曾公开告诫大众:“完全人工智能的研发意味着人类的末日”。


特斯拉与Space X的创始人埃隆·马斯克说:我们必须非常小心人工智能。如果必须预测我们面临的最大现实威胁,恐怕就是人工智能。”




人工智能威胁到底从何而来?


计算机深蓝(Deep Blue)打败了国际象棋世界冠军加里·卡斯帕罗夫(Gary Kasparov)。

1997年 2015年10月 AlphaGo以5比0的战绩完胜欧洲围棋冠军、职业围棋二段樊麾。 AlphaGo围棋以总比分4比1战胜李世石。 2016年3月 2017年5月 AlphaGo围棋以总比分3比0战胜世界排名第一的柯洁。

答案显而易见,人工智能在越来越多的领域超越了人类。


并且AI不需要由人类专家向它传授自己掌握的知识,它可以独立学习,在极短暂的时间内快速达到人类需要几个世纪才能累积的高度。



随着人工智能的快速发展,研究人员、哲学家还有技术预言家纷纷开始辩论,设想未来可能出现的种种矛盾。


AI如此厉害,还有什么它不能做的?


看漫画。


是的,AI看不懂漫画。



马里兰大学的一名教授做了这样一个实验,他搭建了一个由120万张漫画画格组成的数据集,并提取出了每个画格中的文本,利用LSTM模型,希望AI能对漫画进行一个连贯的了解。


LSTM模型的特点就是加入了记忆的概念,可以处理和预测时间序列较长元素,在长文本、机器翻译等等方面均表现不错)


在经过大量训练后,研究人员给了AI一组以前没见过的漫画,要求AI理解并预测下一个画面中的文字信息或画面内容,结果AI的成绩一塌糊涂。而人类的预测正确程度,通常能达到80%的正确率。


严格来说,漫画这种东西属于“视觉叙事”——把信息隐藏于图像之中。



同样是视觉叙事,AI理解电影就比理解漫画容易的多,电影的主角是人,而人脸长的都是一个样子,想要训练AI读出人脸表情、识别情绪是件很简单的事,更何况电影还会有详细的剧本,但漫画最大的特点,就是视觉上不具有连贯性。


像文中的漫画一样,第三张图小狗还在画面中,第四张图就不在了。人类可以很快的理解到,小狗扔下一句话就淡定的离开了,但对于AI来说,读出这种在画面和文字之外的信息实在是太!难!了!



其次,不同漫画的绘画、叙事风格迥异,对AI来说也是个难点。简单的四格漫画中,每一格的场景都是相同的,可在其他漫画中,可能这一格是打斗的场景,下一格就是一张愤怒的人脸。能看懂四格漫画AI,再去看那种有镜头切换感的漫画,也是一头雾水。


至于画风方面,不同漫画家对于人脸描绘方式都有很大差异,换成AI来理解,难度又会加大了。



围棋界的大手,到了甄嬛传里也活不过半分钟


其实结合AI在围棋领域的胜利和在漫画上的失败,我们可以看出,AI在完全信息信息领域中的表现和不完全信息领域中的表现存在天差地别。


完全信息本来是经济学中的一个属于,意思是参与者可以理解整个市场的所有信息。在这里,我们可以看做一项工作的数据集。而围棋所有的信息,如:游戏的规则、每一步的打法,都可以归纳为数据集。



可在漫画中,我们最多能把画面中做上详细的标注,把文本信息都提取出来。可隐藏在图片文字之外的逻辑关系、常识等等只可意会不可言传的东西,我们是难以将全部信息提供给AI的。


以此类推,AI在戏剧、歇后语、谈恋爱等等一切充满了不完全信息、解读意象、常识和逻辑的领域表现都不会太好。
但是,假如AI这么笨,为什么人工威胁论“遍地都是”?


怎么理解人工智能威胁论?


我们可以将人工智能划分为两种不同的层级:弱人工智能(Weak AI)和强人工智能(Strong AI)。


(一)弱人工智能


弱人工智能(Weak AI)也称限制领域人工智能(Narrow AI)或应用型人工智能(Applied AI),指的是专注于且只能解决特定领域问题的人工智能。这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。



毫无疑问,今天我们看到的所有人工智能算法和应用都属于弱人工智能的范畴。


上文提及的AlphaGo就是弱人工智能最好的实例。虽然他在围棋领域超越了人类最顶尖的选手,但是他的成就也仅限于围棋(甚至不能下象棋)。如果你让他去区分猫和狗,他只能一头雾水的看着你卖萌!


一般来说,弱人工智能具有功能上的局限性,对于我们来说,弱人工智能仅仅是技术工具,不存在威胁。换而言之,弱人工智能和其他已大规模使用的技术没有本质的区别,只要严格控制,严密监管,我们完全可以放一百个心的使用它。



(二)强人工智能


强人工智能(Strong AI)又被称为通用人工智能(Artificial General Intelligence),指的是可以像人一样胜任任何智力性任务的智能机器。


那如何测试人工智能是否属于强人工智能呢?


图灵测试。



图灵测试(The Turing test)指测试者与被测试者(一个人和一台机器)隔开的情况下,通过一些装置(如键盘)向被测试者随意提问。进行多次测试后,如果有超过30%的测试者不能确定出被测试者是人还是机器,那么这台机器就通过了测试。


其中30%是图灵对2000年时的机器思考能力的一个预测。(目前我们远远落后于这个预测)。



但即便是图灵测试本身,也只是关注于计算机的行为和人类行为之间,从观察者角度而言的不可区分性,并没有提及计算机到底需要具备哪些具体的特质或能力,才能实现这种不可区分性,而人工智能研究人员认为,一个可以称得上强人工智能的程序需要具备以下几点:


1、思考能力,运用策略去解决问题,并且可以在不确定情况下做出判断; 2、展现出一定的知识量; 3、计划能力; 4、学习能力; 5、交流能力; 6、利用自身所有能力达成目的的能力。


简单来说,弱人工智能和强人工智能的最大的区别在于计算机是否具有自己的思维。而公众心目中所担心的那个人工智能就是这里所说的“强人工智能”。


有人可能就会问了,如果“强人工智能”出现了,那人工智能威胁论不就成为现实了?



对于这个问题,Facebook创始人扎克伯格就给过一个中肯的回答:“我们现在担忧人工智能的安全性,就如同两百年前担心要是以后有飞机了飞机坠毁怎么办一样。如果我们总是过度担心安全性,我们就不可能造出飞机。不管怎么样,我们要先造出飞机,再担心飞机的安全性。”


事实上,强人工智能的研发仍处于非常,非常,非常,非常初期的阶段,并且已有停滞不前的征兆



至于它到底会不会出现呢?谁也说不准。但假如会出现,微软亚洲研究院院长洪小文表示,至少还得再等500年!


所以,在座各位有生之年是难以看到人工智能颠覆人类的戏码。



其实,仔细想想,要想研发出真正的强人工智能,就必须灌输人类的常识、通用意向和逻辑思维等等内容。那初代的强人工智能是否会成为现实版的“Sheldon”(《生活大爆炸》中的主角)?


这样一想似乎也挺有意思的,不过当强人工智能真正出现时,主流问题就应该变成“如何避免恶意交互”,不过这些都是后话了。


声明:文中所有图片均来自于网络,侵权请联系删除。


RECOMMEND 推荐阅读
  • 这样做真是太自由了!


  • 互联网创业大佬Jason Goldberg亲述:我每周都做这13件事!



点个“在看”给小编加鸡腿

你可能感兴趣的:(不要再脑补了,AI连漫画都看不懂,怎么毁灭世界?)