生命3.0时代,面对人工智能时代的到来,我们可以做些什么

生命的定义

生命的定义有很多,最为人所熟知的是在生物学上的定义,即生命是蛋白质存在的一种形式。但是,这种定义可能不太适用于未来的智能机器和外星文明,我们不能将我们对未来生命的思考局限在过去遇到过的物种,所以需要将生命定义得更广阔一些:生命是一个能保持自身复杂性并能进行复制的过程。复制的对象并不是由原子组成的物质,而是能阐明原子是如何排列的信息,这种信息由比特组成。换句话说:我们可以将生命看作一种自我复制的信息处理系统,它的信息软件既决定了它的行为,又决定了其硬件的蓝图。

根据其复杂程度我们可以将生命分为三个层次,分别为生命1.0、生命2.0和生命3.0。其中生命1.0是说:生命的硬件和软件都是靠进化得来的,而不是靠设计;不过,我们目前都属于“生命2.0”:生命的硬件是进化来的,但软件在很大程度上却是靠设计的,在这里,“软件”指的是你用来处理感官信息和决定行动时使用的所有算法和知识,从识别某人是不是你朋友的能力,到你行走、阅读、写作、计算、唱歌以及讲笑话的能力,这一切都属于软件;

而到了生命3.0,我们需要经历一次最终的“升级”,升级成不仅能设计自身软件,还能设计自身硬件。换句话说,生命3.0是自己命运的主人,最终能完全脱离进化的束缚。

生命3.0会出现吗?

许多人工智能研究者认为,随着人工智能技术的发展,生命3.0可能会在一个世纪内降临甚至可能会在我们的有生之年。但这个问题极富争议,目前世界上对于人工智能的发展存在三个截然不同的学派,包括数字乌托邦主义者、技术怀疑主义者和人工智能有益运动支持者。

其中,数字乌托邦主义者这个派别认为数字生命是宇宙进化的天赐之选,数字生命是宇宙进化自然而然、令人期待的下一步,如果我们让数字智能自由地发展,而不是试着阻止或奴役它们,那么,几乎可以肯定地说,结果一定是好的。

技术怀疑主义者则认为我们根本没有必要杞人忧天,因为实现人工智能技术上困难重重,短期内根本无法看到。

而人工智能有益运动者的观点是:保证生命在未来继续存在下去,并尽可能地兴旺发达。具体而言,技术赋予了生命一种力量,这种力量要么让生命实现空前的兴盛,要么让生命走向自我毁灭,而我们更青睐前者,也就是说,人工智能的研究必须以安全为前提。

智能的含义

今天的人工智能还是比较“狭义”的,也就是说,它们只能完成非常特定的目标,比如IBM公司的深蓝计算机可以战胜国际象棋冠军,但它能完成的任务范围非常“狭窄”,它甚至不能在井字游戏中战胜一个四岁的儿童。所以,“广义”的智能不能仅用单一的“IQ”指标来衡量,而应该用一个覆盖所有目标的能力谱来衡量,即智能就是完成复杂目标的能力。

在感觉上,智能之所以没有物质形态,是因为它独立于物质层面而存在,它似乎拥有自己的生命,而且,这个生命并不依赖于、也不会反映出物质层面的细节。换句话说,硬件就是物质,软件就是形态。“物质层面的独立性”暗示着我们,人工智能是可能实现的:智能的出现并不一定需要血肉或碳原子。


技术发展对普通人看得到的影响

人工智能的短期进步可能会在许多方面极大地改善我们的生活,比如,让我们的个人生活、电力网络和金融市场更加有效,还能用无人驾驶汽车、手术机器人和人工智能诊断系统来拯救生命。

同时,数字技术也从三个不同的方面加剧了不平等的程度:

技术用需要更多技能的新职业取代旧职业,这有益于受过良好教育的人;

越来越大的份额进入了那些拥有公司而不是为公司辛勤工作的人的口袋;

数字经济通常让超级明星而不是普通人受益。

而在就业领域,我们应该鼓励孩子去做那些机器不擅长,并且在不远的未来也似乎很难被自动化的工作:

这份工作是否需要与人交互,并使用社交商?

这份工作是否涉及创造性,并能使你想出聪明的解决办法?

这份工作是否需要你在不可预料的环境中工作?

目前相对安全的职业有:教师、护士、医生、科学家、企业家、工程师、律师、社会工作者、艺术家、美发师等等。

智能爆炸的风险

我们模拟从今天的现实情况到通用人工智能统治的世界之间,在逻辑上,需要执行三个步骤:

第一步:建造人类水平的通用人工智能;

第二步:用这个通用人工智能来建造超级智能;

第三步:使用或者放任这个超级智能来统治世界。

我们现在之所以能统治地球,是因为我们比其他生命更聪明。那么,如果出现一个比我们更聪明的超级智能,那它也同样可能会推翻我们的统治。从人工智能的视角来看,它之所以会给人类带来麻烦,并一定是因为它是邪恶的或者拥有了意识,而是因为它很强大,并且,它与人类的目标并不完全一致。而不管它的最终目标是什么,要实现这些最终目标,就必须先实现“夺取资源”和“越狱”的子目标。

目标的定义

目标的起源是物理学;大自然在可选择的所有方式中倾向于选择最优的方式,这种方式通常归结为将某些量最小化或最大化,如果一个人试图将某些东西最优化,比如他们的比分、财富和快乐,我们自然地认为,他们的行为是以目标为导向的。

有一个著名的量,大自然总是力争将它最大化,这个量就是熵。简单地说,熵就是事物混乱程度的度量。热力学第二定律说,熵总是趋于增加,直到达到最大的可能值。如果暂时忽略万有引力的影响,这种最大的混乱状态被称为热寂,指万事万物都会扩散成一种无聊而又完美的均质状态,没有复杂性,没有生命,也没有任何变化。

而目标的进化是生物学;生命起源早期目标的物理学特性使粒子无一例外都在想尽办法增加平均的混乱程度,但新生命的自我复制模式却似乎拥有不同的目标:不是耗散,而是复制;达尔文:复制的效率越高,你就越能战胜其他生物。

智能就是完成目标的能力,那么,在完成目标这点上,超级智能理所当然强于人类,因此它最终一定会胜利,如果它的目标与我们的目标不一致,那我们就有麻烦了。想让机器的目标与我们的目标相一致,有三个问题需要解决:让机器学习、接受和保持我们的目标。

最终的答案:意识?

为了让人工智能帮助我们创造一个美好的未来,我们必须理解有史以来最棘手的哲学问题之一:意识。意识就是一种主观体验,换句话说,如果你感觉“这就是现在的我”,那么你就拥有意识。人工智能是否感觉自己就是AlphaGo或一辆无人驾驶的特斯拉汽车?

意大利神经科学家朱利奥·托诺尼提出一个这样的值——所谓的“信息整合度”,可以用数值来量化意识,这个理论被称为“信息整合理论”。这里,意识是信息以某些复杂的方式进行处理时产生的感觉,因此,它一定也是独立于物质层面的。

而人工智能的传感器和信息内部表征的种类可能多得多,所以,与人类相比,人工智能的体验空间可能是巨大的。然而,人工智能的尺寸越大,它产生全局思维的速度就越慢,因为信息在各部分之间流动的时间更长。根据预测,一个地球大小的人工智能每秒钟大约只能产生10个意识体验,和人类差不多;而一个星系大小的人工智能每10万年才能产生一个全局思维。所以,就算我们的宇宙拥有了意识,到目前为止,它所产生的体验也不会超过100个。同时,根据“信息整合理论”的预测,如果未来一个巨大的人工智能拥有了意识,那么,它的几乎所有信息处理过程都是无意识的。

人类的主观体验的某些方面显然可以追溯到人类的进化,例如与自我保护和繁殖有关的情绪欲望,比如吃东西、喝水、避免被杀等。这意味着创造一个无法体会饥饿、口渴和恐惧这些感质的人工智能应该是可能的。

如果一个高度智能的人工智能被设计出来并拥有一个野心勃勃的目标,不管这个目标是什么,那它就可能产生自我保护的行为,以便能够实现它的目标。但是,如果它们是人工智能社会的一部分,那它们在面对死亡时可能会缺乏人类那样强烈的恐惧,因为它们只需将自己备份一下。那么,即使它被消灭,失去的东西也并不多,最多是最近一次备份点到现在为止累积的记忆而已。此外,人工智能之间可以随意复制信息和软件,这可能会削弱个性,而个性正是人类意识的特色,如果我与你事无巨细地共享着记忆和能力, 那你和我之间还有什么差别呢?所以,一群相距不远的人工智能可能会感觉它们是同一个生物,拥有同一个蜂巢智能。

所以,虽然我们一直将注意力放在智能的未来上,但实际上,意识的未来更为重要,因为意识才是意义之所在。哲学家喜欢用拉丁语来区分智慧(“sapience”,用智能的方式思考问题的能力)与意识(“sentience”,主观上体验到感质的能力)。我们人类身为智人( Hom sapiens),乃是周遭最聪明的存在。当我们做好准备,谦卑地迎接更加智慧的机器时,我们可以给自己起个新名字——意人 (Homo sentiens ) !

你可能感兴趣的:(生命3.0时代,面对人工智能时代的到来,我们可以做些什么)