我们已经看到,只要我们能为某些最古老、最棘手的哲学问题在需要时找到答案,那么,人工智能就可以帮助我们创造一个美好的未来。用尼克·波斯特洛姆的话来说,我们面临着哲学的最后期限。在这一章中,让我们来探讨一下有史以来最棘手的哲学问题之一:意识。

    谁关心这个问题

    意识是一个富有争议的话题。如果你向人工智能研究者、神经科学家或心理学家提到这个以C打头的单词(consciousness),他们可能会翻白眼。如果他们碰巧是你的导师,那他们可能会对你表示同情,并劝你别把时间浪费在这个被他们认为毫无希望的非科学问题上。事实上,我的朋友,也是艾伦脑科学研究所学科带头人的著名神经科学家克里斯托弗·科赫(Christof Koch)告诉我,在他获得终身教职之前,曾有人警告他不要从事与意识有关的工作,这个人正是诺贝尔奖得主弗朗西斯·克里克(Francis Crick)。如果你在1989年版的《麦克米伦心理学辞典》(Macmillan Dictioncry of Psychology)中查找“意识”一词,就会被告知“没有什么值得写的东西”[1]这一答案。我要在本章中向你解释,为什么我比他们更加乐观!

    虽然思想家们已经在神秘的意识问题上思考了数千年,但人工智能的兴起却突然增加了这个问题的紧迫性,特别是因为人们想要预测哪些智能体可能拥有主观体验。正如第3章所说,智能机器是否应该获得某种形式的权利,关键取决于它们是否拥有意识,是否会感到痛苦或快乐。又如第7章所说,如果我们不知道哪些智能体能够拥有意识,就无法建立一个以“最大化积极体验”为基础的功利主义伦理框架。正如第5章所说,有些人可能希望他们的机器人是没有意识的,以避免因奴役他人而产生内疚感。然而,如果这些人能摆脱生物的限制,上传自己的智能,那他们又可能产生完全相反的想法。毕竟,如果把自己的智能上传到一个言行举止与你相似却没有意识的“僵尸”机器人中(我的意思是,你上传后将失去任何感觉),又有什么意义呢?从你的主观角度出发,这和自杀有什么区别呢?即使你的朋友们可能意识不到你的主观体验已经死去了。

    对于生活在遥远未来的宇宙生命来说(见第6章),很关键的一点就是,要理解什么是意识以及什么不是意识。如果技术能让智慧生命在我们的宇宙中蓬勃发展数十亿年,我们如何能确定这些生命是有意识的,并且有能力来欣赏这万事万物呢?如若不然,那么,是不是就像著名物理学家埃尔温·薛定谔所说,这是“一场没有观众、不为任何人存在的戏剧,因此确切来说是不存在的”[2]?换句话说,如果我们误以为这些高科技后代有意识而实际上它们并没有的话,这会不会成为终极的“僵尸末日”,白白浪费我们宏伟的宇宙资源?

    什么是意识

    关于意识的争论如火如荼,因为交战双方总是自说自话,完全没有意识到他们对意识的定义竟然不一样。正如“生命”和“智能”一样,“意识”一词也没有无可辩驳的标准定义。相反,存在许多不同的定义,比如知觉(sentience)、觉醒(wakefulness)、自我意识(self-awareness)、获得感知输入(access to sensory input)以及将信息融入叙述的能力。[3]在探索智能的未来时,我们想要采取一个最广泛和最包容的观点,而不想局限于目前已知的生物意义上的意识。这就是为什么我在第1章中对意识给出的定义十分广泛,这也是我在本书中坚持的想法。

    意识=主观体验(subjective experience)

    换句话说,如果你感觉“这就是现在的我”,那么你就拥有意识。这种意识的定义,正是前一节提到的人工智能问题的关键之所在,也就是说:它是否感觉自己就是普罗米修斯、AlphaGo或一辆无人驾驶的特斯拉汽车?

    我对意识的定义非常广泛,为了强调这一点,请注意,我没有提到行为、感知、自我意识、情绪或注意力这些东西。所以根据这个定义,当你做梦时,即使你不处在觉醒状态,也感觉不到感官输入的信息,并且没有在梦游或做事(希望如此),那么,你也是有意识的。同样地,从这个意义上说,任何体验到痛苦的系统都是有意识的,即使它不能移动。在我们的这个定义下,未来的某些人工智能系统可能也是有意识的,即使它们只是以软件的形式存在,并未连接到任何传感器或机器人身体上。

    有了这个定义,我们很难忽略有关意识的问题。正如尤瓦尔·赫拉利(Yuval Harari)在他的《未来简史》一书中所说:“如果有任何科学家想要争辩说主观体验是无关紧要的,那留给他们的挑战就是,如何在不提主观体验的情况下解释酷刑和强奸是错误的。”[4]如果不提主观体验,人只是一堆根据物理定律移动的基本粒子而已,那犯罪能有什么错呢?

    问题出在哪里

    那么,意识究竟有什么是我们不了解的呢?在这个问题上思索得最深入的人莫过于著名的澳大利亚哲学家大卫·查尔默斯了。他的脸上常挂着俏皮的微笑,身上穿一件黑色的皮夹克,我妻子非常喜欢这件皮夹克,以至于她在圣诞节送了我一件一模一样的。尽管他曾在国际数学奥林匹克竞赛中杀入决赛,但他追随自己内心,选择了哲学。不过好笑的是,他上大学时几乎所有课程都是A,唯一得B的却是一门哲学入门课程。他似乎完全不被打压或争议所左右。有些人严厉地批评他,完全是因为他们对他的研究缺乏了解或者受到了误导,但他总是礼貌地倾听这些人的批评,甚至一点也不觉得他应该做出什么回应。我对他的这种能力感到十分惊讶。

    查尔默斯强调,心智有两个奥秘。第一个奥秘是大脑对信息的处理,这就是所谓的“简单问题”。例如,大脑如何注意、解释和回应感官输入的信息?它如何用语言来报告其内部状态?虽然这些问题确实非常困难,但从我们的定义出发,它们并不是意识的奥秘,而是智能的奥秘,因为它们问的是大脑如何记忆、计算和学习。此外,我们在本书的第一部分已经看到,人工智能研究者已经开始用机器来解决许多“简单问题”,并取得了重大进展——从下围棋,到驾驶汽车,再到图像分析和自然语言处理等。

    另一个奥秘就是,人类为什么会拥有主观体验。这就是查尔默斯所说的“困难问题”。当你开车的时候,你会体验到色彩、声音、情绪和自我感。但是,你为什么会经历这些体验呢?一辆无人驾驶汽车有体验吗?如果你正与一辆无人驾驶汽车比赛,你们都是从传感器或感觉器官获得输入信息,然后处理信息并输出运动命令。但从逻辑上来说,驾驶的主观感觉却是另一回事,这种体验是可有可无的吗?如果是的话,是什么原因造成的?

    我从物理学的角度来思考这个意识的“困难问题”。从物理学的角度来看,有意识的人只不过是经过了重新排列的食物粒子而已。那为什么同样的粒子,有些排列就有意识,而有些排列却没有意识呢?此外,物理学教导我们,食物只不过是大量的夸克和电子以一定的方式排列而成。那么,哪些排列是有意识的,哪些没有(70)

    我喜欢这个物理学观点,因为它将困扰人类几千年的难题转化为更易用科学方法解决的、更具有针对性的问题。与其从“为什么粒子的某些排列能感受到意识”这个困难问题出发,不如先让我们承认一个“困难事实”,那就是:粒子的某些排列确实感受到了意识,而其他排列却没有。譬如说,你知道自己脑中的粒子当下正处于有意识的排列状态中,但当你处于无梦的睡眠状态时却不处于有意识的状态。

    这个物理学观点导致了三个彼此独立的意识难题,如图8-1所示。第一个难题是,到底是什么性质让不同的粒子排列产生不同的结果?具体来说,是哪些物理特性将有意识系统和无意识系统区分开的?如果我们能够回答这个问题,那么我们就可以搞清楚哪些人工智能系统是有意识的。在不久的将来,它还可以帮助急诊室医生确定哪些无反应的患者是有意识的。

    第二个难题是,物理性质如何决定体验是什么样的?具体来说,是什么决定了感质?感质是意识的基本构成要素,比如,玫瑰的绯红、铜钹的声响、牛排的香味、橘子的口感或针刺的微痛(71)

    第三个难题是,为什么会出现有意识的东西?换句话说,为什么一团物质会产生意识,对这个问题有没有什么尚未发现的深层次的解释?或者说,世界就是这样运行的,这是一种无法解释的蛮横事实?

    和查尔默斯一样,我的一位前麻省理工学院同事、计算机科学家斯科特·阿伦森(Scott Aaronson)幽默地把第一个问题称为“相当难的问题”(Pretty Hard Problem,简称PHP)。本着同样的精神,且让我们把剩下的两个问题分别称为“更难的问题”(Even Harder Problem,简称EHP)和“真难的问题”(Really Hard Problem,简称RHP),如图8-1所示。(72)

    空标题文档 - 图1

    图8-1 三个彼此独立的意识难题

    注:对心智的理解涉及几个层次的问题。大卫·查尔默斯所谓的“简单问题”可以不提到主观体验。一些但不是全部物理系统是有意识的,这个事实提出了三个不同的问题。如果有一个理论可以回答“相当难的问题”,那它就可以用实验来检验。如果检验成功的话,我们就可以以它为基础来解决上层那些更棘手的问题。

    意识超出科学范畴了吗

    一些人之所以告诫我,研究意识就是浪费时间,主要是因为他们认为它不科学,而且永远都不科学。果真如此吗?著名奥裔英籍哲学家卡尔·波普尔(Karl Popper)说过一句广为流传的格言:“如果一个理论不可证伪,那它就不科学。”换言之,科学就是要用观察来检验理论。如果一个理论连在原则上都无法被检验,那它在逻辑上就不可能被证伪,那么,根据波普尔的定义,它就是不科学的。

    那么,可不可能存在一个能回答图8-1中的某个意识问题的科学理论呢?我会响亮地回答:“存在。”至少对那个“相当难的问题”来说是存在的,这个问题就是:“什么物理性质区分了有意识系统和无意识系统?”假设有一个理论可以用“是”“不是”或“不确定”来回答任意一个物理系统是否具有意识的问题。让我们把你的大脑接到一个用来测量大脑不同部分的信息处理的机器上。然后,把这些信息输入到一个计算机程序中,该程序用上面所说的意识理论来预测信息的哪些部分是有意识的,并在屏幕上做出实时预测(如图8-2所示)。

    首先,你脑中出现一个苹果。屏幕会告诉你,你的大脑中有关于苹果的信息,还告诉你,你意识到了这个信息,但你的脑干中还存在一些你不知道的关于脉搏的信息。你会惊讶吗?虽然这个理论的前两个预测是正确的,但你决定做一些更严格的测试。你想到你的母亲,此时,电脑告诉你,你的大脑里有关于你母亲的信息,但它告诉你,你并没有意识到这个信息。显然,这个预测是错误的,这意味着这个理论被排除了,就像亚里士多德的力学、发光以太、地心说等无数失败理论一样,可以扔进科学史的垃圾堆中了。关键的一点是,虽然这个理论是错误的,但它竟是科学的!因为如果它不科学,你根本没有办法对其进行检验,也没有机会将它排除。

    空标题文档 - 图2

    图8-2 用计算机预测大脑中的信息

    注:假设一台计算机可以检测你的大脑中进行的信息处理过程,然后根据一个“意识理论”来预测你知道和不知道哪些信息。你可以检查它的预测是否正确,是否符合你的主观体验,从而对这个理论进行科学检验。

    有人可能会批评这个结论,说没有证据证明你拥有这些意识,甚至不能证明你到底有没有意识。诚然,你可以告诉人们你是有意识的,但一个无意识的僵尸同样也能讲出这样令人信服的话。然而,这并不意味着这个“意识理论”是不科学的,因为批评者也可以自己坐到你的位置上,亲自测试一下这个理论能否正确预测出他们自己的意识体验。

    然而,如果这个理论每次都回答“不确定”,而不做出任何预测,那它就不可检验,因此就是不科学的。这种情况是有可能发生的,因为这个理论可能有自己的适用范围,只在某些情况下管用,而在其他情况下不适用,比如,可能因为它所需的计算过程在实践中很难实现,或者因为大脑传感器的质量乏善可陈。今天最流行的科学理论往往不能解决所有问题,但也不是一个问题都不能解决,而是处在中间的某个地方,为某一些问题而不是所有问题给出可检验的答案。比如,当今物理学的核心理论就无法回答关于极小又极重的系统的问题,因为我们还不知道在这种情况下应该使用哪些数学方程(极小时需要量子力学,极重时需要广义相对论)。同时,这个核心理论还无法预测所有原子的确切质量,我们认为我们已经有了必要的方程,但还不能准确地计算出它们的解。一个理论越敢于做出可检验的预测,它就越有用;它逃过的检验“追杀”越多,我们对它的态度就会越认真。是的,我们只能测试“意识理论”所做出的一些预测,而不能检验它的所有预测,但所有物理学理论都是这样。所以,我们不要浪费时间唠叨那些我们无法检验的东西,而是去检验那些我们能够检验的东西吧!

    总而言之,只要一个理论能预测你大脑中的哪些过程是有意识的,那它就是一个预测物理系统是否有意识(这是“相当难的问题”)的科学理论。但是,对图8-1中层级较高的问题来说,“可否检验”这个问题更加模棱两可。说一个理论能预测你对红色的主观体验,这究竟是什么意思呢?如何用实验来检验一个解释意识起源的理论呢?这些问题很难,但这并不意味着我们应该逃避它们,下面我们会再次回到这些问题上。在面对几个彼此相关的未决问题时,我认为先解决最简单的那个才是明智的方法。出于这个原因,我在麻省理工学院进行的意识研究主要聚焦在图8-1中的金字塔最底层的问题上。最近,我和普林斯顿大学的物理学家皮耶·霍特(Piet Hut)说起这个策略,他开玩笑说,如果有人想要从上往下建造金字塔,这就好像在发现薛定谔方程之前就开始担心如何诠释量子力学一样,因为薛定谔方程是我们预测实验结果的数学基础。

    在讨论“什么东西超出了科学的范畴”时,请记住一件很重要的事:答案通常取决于讨论的时间。400年前,伽利略被物理学的数学基础深深震撼了,于是他把大自然描述成“一本用数学语言写就的书”。诚然,如果他扔下一颗葡萄和一颗榛子,就能准确地预测二者轨迹的形状以及它们何时会落到地面,但他不知道为什么葡萄是绿色的,而榛子是棕色的,以及为什么葡萄是柔软的,而榛子是坚硬的。这些知识超越了当时的科学水平,但这只是暂时的。1861年,詹姆斯·麦克斯韦(James Maxwell)发现了后来以他命名的麦克斯韦方程,从那以后,光和颜色显然也可以从数学上来理解。1925年,前文提到过的薛定谔方程诞生了。我们知道它可以用来预测物质的所有性质,包括软度或硬度。理论上的进步让科学可以做出更多预测;与此同时,技术进步让更多检验实验成为可能。我们今天用望远镜、显微镜和粒子对撞机所研究的几乎一切东西都超越了过去的科学范畴。换句话说,自伽利略时代以来,科学的疆域已经大幅扩大,从一小撮现象到大部分现象,甚至涵盖了亚原子粒子、黑洞和138亿年前的宇宙起源。这就产生了一个问题:还剩下些什么呢?

    对于我来说,意识就像是房间里的大象,不容忽视。你知道自己拥有意识,而且,这是你唯一百分之百肯定的事情,其他一切都是推论,就像笛卡尔在伽利略时代所指出的那样。理论和技术的进步最终会不会将意识也坚定地带入科学的疆域?我们不知道答案,就像伽利略不知道人类是否能理解光线和物质一样(73)。只有一件事情是肯定的,那就是:如果我们不去尝试,那就一定不会成功!这就是我和世界各地许多科学家努力构建和检验意识理论的原因。

    意识的实验线索

    我们的大脑中正运行着大量的信息处理过程。其中哪些有意识,哪些没有?在探索意识理论及其预测之前,让我们先来看看目前的实验结果告诉了我们一些什么信息。我们讨论的范围很广,既包括传统的低技术水平实验和非技术性的观察,也包括最先进的大脑测量实验。

    哪些行为是有意识的

    如果你在脑海中计算17和32的乘积,你能意识到自己的大脑内进行着一些计算步骤。假设我给你看一张爱因斯坦的肖像,然后请你说出画中人物是谁,正如我们在第2章中看到的那样,这其实也是一个计算任务,你的大脑正在计算一个函数,这个函数的输入数据是由你的眼睛传输而来的大量像素色彩信息,其输出是控制你嘴部和声带肌肉的信息。计算机科学家把这两个任务称为“图像分类”(image classification)和“语音合成”(speech synthesis)。虽然这个计算比心算乘法的任务要复杂得多,但你却可以做得更快,似乎不费吹灰之力,也意识不到你完成这个任务的种种细节。你主观上体验到的只是:你看着画面,体验到一种“认出来”的感觉,然后听见自己说出“爱因斯坦”这4个字。

    心理学家早就知道人类可以无意识地执行各种各样的任务和行为,从眨眼反射到呼吸、伸手、抓住物体和保持平衡。通常情况下,你能意识到你做了什么,但不知道你是如何做到的。然而,涉及陌生环境、自我控制、复杂逻辑规则、抽象推理或语言操纵的行为则往往是有意识的。它们被称为“意识的行为关联”(behavioral correlates of consciousness),与心理学家所谓的“系统2”(74)密切相关。[5]人们还知道,你可以通过大量的练习,将许多例行公事转化为无意识的行为,[6]例如步行、游泳、骑自行车、开车、打字、刮胡子、绑鞋带、玩电脑游戏和弹钢琴。事实上,众所周知,当某个领域的专家处于“心流”状态时,他们就能更好地完成自己擅长的事情。此时,他们只会意识到高层级的事情,而对低层级的细节毫无意识。比如,在你读这句话时,可以试着有意识地去注意每个字,就像你儿时学认字的时候一样。你是否感觉到,这样读书的速度与你只意识到词语层面和思想层面的读法相比,简直慢得像蜗牛一样!

    事实上,无意识的信息处理不仅是可能的,而且是一种常规现象。有证据表明,每秒从人的感觉器官进入大脑的信息大约为107比特,其中只有很小的一部分可以被我们意识到,估计只有10~50比特。[7]这表明,有意识的信息处理过程只是大脑的冰山一角。

    总之,这些线索使一些研究人员[8]认为,有意识的信息处理应该被看作是大脑中的CEO,只负责处理需要复杂数据分析的最重要的决策。这就可以解释为什么它通常并不想事无巨细地知道下属在做什么,以免分心,就像公司的CEO一样,但如果它想知道的话,也是可以的。要体会这种“选择性注意力”,请看看“desired”这个单词:先注视着字母“i”,不要移动目光,然后将注意力从上面那个点转移到整个字母,然后转移到整个单词。尽管你的视网膜传来的信息并没有改变,但你的意识体验却改变了。CEO的比喻也解释了为什么专家沉浸在事情中时会对一些事情失去意识。经过潜心研究如何阅读和打字,CEO决定将这些日常工作委派给无意识的下属,以便能够专注于层次更高的新挑战。

    意识发生在何处

    巧妙的实验和分析表明,意识不仅仅局限于某些行为,而且也局限在大脑中的某些部位。哪个部位是“罪魁祸首”呢?关于这个问题,许多脑损伤患者为我们提供了第一手线索。他们因事故、中风、肿瘤或感染而引起了局部脑损伤,但是,对他们的研究往往无法得出确定性的结论。譬如说,大脑后部的病变会导致失明,这是意味着大脑后部就是视觉意识之所在,还是仅仅意味着这是视觉信息的必经之路(就像它首先得经过眼睛一样),视觉意识产生于这个部位之后的某个地方?

    虽然病变和医疗干预还没能确定意识体验产生的准确位置,但它们已经帮我们缩小了范围。比如,我的手部经常疼痛,尽管我知道疼痛确实是发生在手部,但我也知道疼痛的体验一定发生在别的地方。因为有一次外科医生只是给我打了一针麻药(而没有对我的手做任何事情),麻痹了我肩膀上的神经,就“关闭”了我的手痛。此外,一些截肢者会体验到幻肢疼痛,就好像这些不存在的肢体真的很疼一样。又比如,我曾注意到,当我闭上左眼,只用右眼看世界时,有一部分视野消失不见了,医生诊断说我的视网膜有些松动,并帮我把它重新粘牢。相反,患有某些脑疾的患者会体验到“半侧忽略”(hemineglect),也就是说,他们有一半的视野信息缺失了,但他们却完全没有意识到,例如,没发现自己只吃盘子左半边的食物,就好像他们对一半世界的意识消失了。但是,那些受损的脑区是用来产生空间体验,还是仅仅用来将空间信息传输给产生意识的位置,就像我的视网膜一样?

    20世纪30年代,美裔加籍神经外科医生怀尔德·彭菲尔德(Wilder Penfield)发现,他的神经外科病人报告说,当用电流刺激今天被称为“躯体感觉皮层”(Somatosensory Cortex)的特定脑区时,他们身体的不同部位有被触摸的感觉(如图8-3所示)。他还发现,当他刺激今天被称为“运动皮层”(motor cortex)的脑区时,病人无意识地移动了身体的一些部位。但这是否意味着这些脑区的信息处理过程对应着相应的触觉意识和运动意识呢?

    幸运的是,现代科技正为我们揭开更多奥秘。人脑中大约有几千亿个神经元。尽管我们还无法测量每个神经元的每次放电,但大脑读取技术正在迅速发展,比如功能性磁共振成像(fMRI)、脑电图(EEG)、磁脑图(MEG)、脑皮层电图(ECoG)、电生理学(ePhys)和荧光电压检测等。能测量氢核的磁性,并能每秒对大脑建立一个分辨率达到毫米级别的3D模型。脑电图和磁脑图测量的是你头部外部的电场和磁场,它们每秒钟能扫描大脑数千次,但分辨率比较差,小于几厘米的特征就无法识别了。如果你有洁癖,那你会很喜欢这三种技术,因为它们都是非侵入式的。但如果你不介意打开自己的脑袋,那你就会有更多选择。脑皮层电图需要在你的大脑表面放置100根电线,而电生理学则需要在脑中较深的地方埋入比人的头发丝还要细的微丝,在多达1 000个位置同时记录大脑的电压。许多癫痫患者会在医院里待上好几天,因为医生要用脑皮层电图来确定到底是大脑的哪个部分触发了癫痫发作,应该切除。同时,这些患者好心地让神经科医生在他们身上进行意识实验。最后,荧光电压检测则是用基因改造技术让神经元在放电时发出闪光,好让科学家可以用显微镜来观测它们的行为。在所有的这些技术中,采用荧光电压检测能让科学家迅速监测最大数量的神经元,至少在具有透明大脑的动物身上,例如拥有302个神经元的秀丽线虫和拥有约10万个神经元的斑马鱼幼体。

    虽然弗朗西斯·克里克警告克里斯托弗·科赫不要研究意识,但科特拒绝放弃,并最终赢得了胜利。1990年,他俩合写了一篇关于“意识相关神经区”(Neural Correlates of Consciousness,简称NCC)的开创性论文,研究了哪些特定的大脑过程对应着意识体验。数千年以来,思想家们只能通过他们的主观体验和行为来获知自己大脑中的信息处理过程。而克里克和科赫指出,大脑读取技术为我们提供了许多访问这些信息的途径,使得科学家能够研究哪些信息处理过程对应着哪些意识体验。如今,技术驱动的测量方法已经让NCC的研究跻身于神经科学的主流。你能在最有声望的期刊中找到成千上万的NCC文献[9]

    空标题文档 - 图3

    图8-3 身体感觉皮层对应的特定脑区

    注:视觉皮层、听觉皮层、躯体感觉皮层和运动皮层分别与视觉、听觉、触觉和运动激活有关,但这并不能证明它们分别是视觉意识、听觉意识、触觉意识和运动意识的发生地。事实上,最近的研究表明,初级视觉皮层与小脑和脑干一样,是完全无意识的。图片来源:www.lachina.com。

    目前为止,研究的结论是什么呢?为了一窥NCC的究竟,让我们先来问一个问题:你的视网膜有意识吗?还是说,它只是一个“僵尸”系统,只是用来记录和处理视觉信息,并将其发送到大脑中,好让大脑产生主观视觉体验?在图8-4的左图中,你觉得A方块和B方块哪个的颜色更暗?A更暗,对吗?不对,它们的颜色实际上是完全相同的。你可以透过手指窝成的小孔来验证。这说明你的视觉体验并不完全存在于你的视网膜中,因为如果是这样的话,A和B的颜色在你眼中应该是相同的。

    空标题文档 - 图4

    图8-4 你看到的是什么

    注:哪个方块更暗?是A方块,还是B方块?你能在右图中看到什么?是一个花瓶,还是两个女性的侧脸,还是都能看到?这类错觉表明,你的视觉意识不可能存在于你的眼睛等视觉系统的前端部位,因为视觉意识并不只取决于图片中画了什么。

    现在请看一下图8-4的右图。你看到的是两个女人还是一个花瓶?如果你盯着它端详足够长的时间,可能两个都能看出来,也就是说,你能在主观上体验到两种不同的情况,即使到达你视网膜的信息保持不变。通过测量这两种情况下大脑中发生的事情,人们可以梳理出造成这种差异的原因,无论是什么原因,肯定不在视网膜,因为在这两种情况下,视网膜的表现是完全相同的。

    对“视网膜有意识”这一假说的致命打击来自科赫、斯坦尼斯拉斯·迪昂(Stanislas Dehaene)及其合作者所开创的“连续闪烁抑制”(Continuous Flash Suppression)技术。人们发现,向一只眼睛播放一系列复杂且快速变化的图像会干扰视觉系统,以至于你完全意识不到另一只眼睛面前呈现的静止图像[10]。总而言之,视网膜上可以产生你主观上体验不到的视觉图像,而你还可以在没有视网膜参与的情况下体验到图像,比如做梦时。这证明你的两只视网膜就像视频摄像机一样,并没有承载你的视觉意识,尽管它们执行着相当复杂的计算,涉及超过1亿个神经元。

    NCC研究者还用连续闪烁抑制、不稳定视觉/听觉错觉等方法来确定你的每个意识体验是由你的哪个脑区来负责的。他们的基本策略是比较两个几乎完全一样(感官输入也一样)但主观体验不一样的情况的神经元行为。通过测量发现,大脑中行为不一样的部位,就是NCC的部位。

    这类NCC研究证明,你的意识不在你的胆囊,尽管那是你的肠道神经系统最发达的位置,有多达5亿个神经元日夜不停地计算着如何才能最好地消化食物;饥饿和恶心这类感觉都产生于你的大脑中。同样地,你的意识似乎也不是产生于大脑底部的脑干部位,这个地方连接到脊髓并控制呼吸、心率和血压。更令人震惊的是,你的意识似乎并没有延伸到小脑(如图8-3所示),虽然你大约2/3的神经元都位于这里。小脑受损的病人只是会表现得有点像醉酒的状态,发音有些含糊,动作有些迟缓,但仍保持着完整的意识。

    大脑中到底哪个部位负责产生意识?这依然是个悬而未决、充满争议的问题。最近的一些NCC研究表明,你的意识可能主要存在于一个“热区”内,这个区域涉及丘脑(接近脑中部)和皮层的后部。皮层是大脑的外层,包含充满褶皱的6层组织,褶皱展开的面积有大餐巾那么大[11]。这些研究还表明,皮层后部的初级视觉皮层是一个例外,它就像你的眼球和视网膜一样毫无意识,不过这一点尚有争议。

    意识何时发生

    到目前为止,我们已经探讨了哪些类型的信息处理是有意识的以及意识产生于哪里的实验线索。但是,意识发生在什么时候呢?我小时候曾以为,在事情发生的瞬间,我们就意识到了它们,没有一点延迟。虽然我现在的主观感觉依然是这样的,但这显然是不正确的,因为我的大脑需要时间来处理感觉器官传来的信息。NCC研究者仔细测算了这个过程需要多长时间。科赫总结到,复杂物体的光线从进入你的眼睛到你意识到它是什么东西,大约需要1/4秒的时间[12]。这意味着,如果你以每小时80多千米的速度在高速公路上行驶,突然看见一只松鼠出现在几米之外,此时已为时已晚,因为你已经碾过去了!

    总而言之,你的意识是活在过去的。科赫估计它大约滞后了1/4秒。有趣的是,有时候你对事物的反应往往比你的意识要快,这证明负责最快反应的信息处理过程一定是无意识的。例如,如果一个异物接近你的眼睛,眨眼反射可以在1/10秒内让你闭上眼睛。这就好似你的大脑中有一个系统从视觉系统接收到了不祥的预兆,计算出你的眼睛有被击中的危险,然后通过电子邮件发送指令给你的眼肌,命令它眨眼,同时给大脑中有意识的部分发邮件说:“嘿,我们要眨眼啦!”当这封邮件被大脑阅读并纳入你的意识体验中时,眨眼这个动作已经发生了。

    事实上,阅读这封电子邮件的系统会不断接收到来自全身各处的信息轰炸,其中一些比另一些更滞后一些。由于距离的原因,手指的神经信号到达大脑所需的时间比脸部的信号所需的时间更长,并且,分析图像所需的时间比分析声音更久,因为它更复杂。这就是为什么奥运会跑步项目的起跑命令是用发令枪,而不是用视觉提示。然而,如果你用手触碰鼻子,就会同时有意识地感受到鼻子和指尖的触觉;如果拍手,就会同时看到、听到和感觉到拍手。这意味着,只有在最慢的那封“电子邮件”进入系统并分析完毕之后,你才能创建起关于一个事件的完整意识体验。[13]

    生理学家本杰明·李贝特(Benjamin Libet)开创了一种著名的NCC实验。这种实验表明,你无意识进行的行为不仅限于快速反应,例如眨眼和打乒乓球,还包括某些看似自由意志的决定,比如,利用大脑测量技术,有时可以在你意识到你的决定之前就预测出你的决定。[14]

    意识理论

    我们刚刚已经看到,虽然我们依然不理解意识,但我们已经拥有了许多方方面面的实验数据。但是,这些数据都来自对大脑进行的实验,那它如何能告诉我们关于机器意识的事情呢?这个跨越所需的推测程度远超出当前实验的范畴。换句话说,它需要一个理论。

    为什么需要一个理论

    为了理解为什么需要一个理论,让我们先来比较一下意识理论和引力理论。当年,科学家们之所以开始认真对待牛顿的万有引力理论,是因为他们从中得到的信息多于他们的付出:一张餐巾纸就能写得下的简单方程竟可以准确预测历史上所有引力实验的结果。因此,他们也开始认真对待它的预测,包括一些不能用实验来验证的预测,而这些大胆的推测甚至适用于数百万光年规模上的星系运动。然而,这个理论在预测水星围绕太阳的运动时,出现了一点细微的偏差。于是,科学家们开始认真对待爱因斯坦改良过的万有引力理论——广义相对论,因为它似乎更加优雅,也更经济,还能在牛顿引力理论出错时做出准确的预测。因此,科学家也开始认真对待相对论的预测,包括一些不能用实验来验证的预测,比如黑洞、荡漾在时空结构中的引力波以及宇宙起源(即宇宙是从一个灼热的点膨胀而来),所有的这些预测后来都得到了实验的验证。

    同样地,如果一张餐巾纸就能写得下的意识数学理论可以准确地预测大脑实验的结果,那么,我们就会认真对待这个理论本身以及它对意识所做出的预测,甚至包括那些与大脑无关的预测,比如,对机器意识的预测。

    从物理学角度来看意识

    在关于意识的理论中,虽然有一些理论可以追溯到古代,但大多数现代理论都是以神经心理学和神经科学为基础,试图用大脑中发生的神经事件来解释和预测意识现象[15]。虽然这些理论已经可以准确地预测意识相关神经区的一些现象,但它们还不能预测机器意识的现象,也没有展现出任何预测机器意识的前景。为了实现从大脑到机器的跨越,我们需要从NCC推广到PCC。PCC就是“意识相关物理性”(physical correlates of consciousness),其定义是“拥有意识的运动粒子的模式”。这是因为,假设一个理论仅从物体的基本物理构成,比如基本粒子和力场,就能预测出它有没有意识,那么,这个理论就不仅具备了预测大脑意识的能力,还能预测任何物质组合(包括未来的人工智能系统)的意识。所以,让我们站在物理学的角度看看什么样的粒子组合拥有意识。

    但这又带来了另一个问题:意识这么复杂的东西,怎么会是由粒子这样简单的东西组成的呢?我认为这是因为意识拥有一些高于和超越粒子性质的性质。在物理学里,我们称这种现象为“涌现”(emergent)[16]。为了理解这一点,让我们先来看一个简单的涌现现象——湿润(wetness)。

    一滴水是湿润的,但一粒冰晶和一片水蒸气却不是,尽管三者都是由完全相同的水分子构成。这是为什么呢?因为“湿润”这种性质只取决于分子的排列方式。说“单个水分子是湿润的”显然毫无意义,因为“湿润”这种现象只有在分子数量十分庞大且分子组成液体形态时才会涌现出来。因此,固体、液体和气体均是涌现的现象:它们的整体远大于各部分之和,因为它们都拥有一些高于和超越其组成粒子性质的性质。当粒子组合在一起之后,它们就拥有了一些单个分子所不具备的性质。

    我认为,意识就像固体、液体和气体一样,是一种涌现的现象,它拥有一些高于和超越其组成粒子的性质的性质。譬如说,进入深度睡眠会熄灭意识之光,因为粒子发生了重新排列。同样地,假如我被冻死,那我的意识也会消失,因为冷冻的过程会将我的粒子重新排列成一个不幸的方式。

    当你把大量的粒子揉在一起制造出某些东西(比如水和大脑)时,就会涌现出一些拥有可观测性质的新现象。我们物理学家很喜欢研究这些涌现的性质,这些性质通常可以通过一小组可测量的数值来确定,例如物质的黏度、可压缩性等。比如,如果一种物质的黏度非常高,高到坚硬的程度,那我们就称之为固体,否则,我们称之为流体。如果流体不可压缩,我们就称之为液体,否则我们就根据其导电性而将其称为气体或者等离子体。

    意识即信息

    那么,意识可不可以用类似的数值来量化呢?意大利神经科学家朱利奥·托诺尼就提出了一个这样的值——所谓的“信息整合度”(Integrated Information),用希腊字母Φ(Phi)来表示。它度量的是系统不同部分之间彼此“了解”的程度(如图8-5所示)。

    空标题文档 - 图5

    图8-5 系统不同部分之间彼此“了解”的程度

    注:如果一个物理过程随着时间的推移能将一个系统的初始状态转变为一个新状态,那么,它的“信息整合度”Φ度量的是它不能将该过程分解为多个独立部分的程度。如果每个部分的未来状态只取决于它自己的过去状态,而不取决于其他部分的行为,那么Φ=0。因此,图中显示的这个系统实际上是由两个互相无任何交流的独立系统组成的。

    我第一次遇到托诺尼是2014年在波多黎各举行的一次物理学会议上。我邀请了他和科赫来参加会议。他给我的印象就像是伽利略和达芬奇这种来自文艺复兴时期的人。他安静的风度无法掩饰他在艺术、文学和哲学方面惊人的造诣,而我对他的烹饪技艺更是早有耳闻。一位游历各国的电视新闻记者告诉我,托诺尼在短短几分钟内就拌出了他这辈子尝过的最美味的沙拉。我很快就意识到,在他那轻柔的言行举止背后是一个无所畏惧的智者。他总是循着证据的脚步,从不顾任何偏见与禁忌。正如伽利略面对地心说的强权施压时仍然坚持自己的运动数学理论一样,托诺尼也发明了迄今为止最为精确的意识数学理论——“信息整合理论”(Integrated Information Theory,简称IIT)。

    数十年来我一直认为,意识是信息以某些复杂的方式进行处理时产生的感觉[17]。信息整合理论证明了这一观点,并将模棱两可的短语——“某些复杂的方式”替换为一个更精确的定义:信息处理过程需要整合,即,Φ要足够大。托诺尼对此的论证既简洁又有力,他说:一个系统要产生意识,就必须整合成一个统一的整体,因为假如它由两个独立的部分组成,那感觉起来就会是两个单独的意识,而不是一个统一的意识。换句话说,不管是在大脑还是计算机中,如果一个有意识的部分不能与其他部分进行交流,那么其他部分就不能成为它主观体验的一部分。

    托诺尼和他的同事们用脑电图测量了大脑对磁刺激的反应,从而测量出了一个简化的Φ值。他们的“意识探测器”卓有成效:当病人醒着或做梦时,它能检测出他们是有意识的;当他们被麻醉或处于深度睡眠时,它能检测出他们处于无意识的状态。意识探测器甚至在两名不能移动也不能用正常手段进行交流的“闭锁综合征”患者脑中发现了意识的痕迹[18]。所以,这个技术对医生来说很有应用前景,因为他们可以用它来检测患者是否拥有意识。

    夯实意识的物理学基础

    信息整合理论只适用于那些状态数量有限的离散系统,例如计算机内存中以比特形式存在的信息,或者只有开和关两种状态的简化神经元。不幸的是,这意味着信息整合理论对大多数传统物理系统都不适用,因为这些系统的变化是连续的,比如,粒子的位置或磁场的强度,它们可能的值有无限多[19]。如果你想把信息整合理论的方程应用在这样的系统中,你通常会得到一个无用的结果——Φ无穷大。量子力学系统可以是离散的,但原始的信息整合理论并不适用于量子力学系统。那么,我们如何才能将信息整合理论和其他基于信息的意识理论固定在一个坚实的物理基础之上呢?

    让我们以第2章的知识为基础。在第2章中,我们了解了物质如何涌现出与信息相关的性质。我们也看到了,一个物体要具备存储信息的能力,就必须拥有多个能长时间保持的状态。我们还看到,物体要成为计算质,还需要一些复杂的动态过程,需要由物理定律来提高它的复杂度,从而具备执行任意信息处理过程的能力。最后,我们还看到了神经网络为何拥有强大的学习能力,它只要遵循物理学定律就可以对自己进行重新排列,日益提高执行预期计算的能力。现在,我们还要问一个问题:是什么让物质具备了主观体验?换句话说,在什么情况下,物质能做到以下4件事?

    ◦ 记忆;
    ◦ 计算;
    ◦ 学习;
    ◦ 体验。

    我们在第2章探讨了前三件事,现在让我们来探讨一下第四件事。马格勒斯和托福利生造了“计算质”这个词,即用来描述能执行任意计算过程的物质。我也想生造一个词叫作“意识质”(sentronium),用来描述拥有主观体验,也就是拥有意识的最一般的物质(75)

    然而,既然意识是一种物理现象,为何它感觉起来如此“非物质”呢?为什么它感觉起来像是独立于物质层面而存在的呢?我认为原因是,它确实是相当独立于物质层面而存在的,因为它只是物质中的一种模式!在第2章中,我们已经看到了许多独立于物质层面存在的漂亮例子,比如波、记忆和计算。我们也看到了它们并不只是各个部分的简单加总,而是出现了独立于其组成构件的涌现现象,仿佛拥有自己的生命一样。譬如说,未来的模拟智能或电脑游戏角色可能不知道自己是运行在Windows、Mac OS、安卓手机,还是别的什么操作系统上,因为它是独立于这些物质层面的。它也无法得知自己所栖身的计算机的逻辑门是由晶体管、光学电路,还是别的什么硬件实现的。甚至于,它们所依赖的基本物理定律是什么也无关紧要,只要这些定律允许通用计算机的存在即可。

    总而言之,我认为意识是一种感觉起来十分“非物质”的物理现象,因为它就像波和计算一样,它的性质是独立于它的物质层面而存在的。这在逻辑上也符合“意识即信息”的思想。这就将我们引向了一个我十分青睐的激进思想:假如意识就是信息进行某些处理时的感觉,那它一定是独立于物质层面的;物质自身的结构并不重要,重要的是信息处理过程的结构。换句话说,意识具备双重“物质层面的独立性”。

    正如我们所看到的那样,物理学描述了粒子在时空中移动的模式。如果粒子的排列遵循一定的原则,就会产生独立于粒子层面的涌现现象,并产生完全不同的感觉。计算质中的信息处理过程就是一个很好的例子。但我们现在已经把这个想法上升到了另一个层面:如果信息处理本身也服从某些原则,就会产生一个更高层次的涌现现象,也就是我们称之为“意识”的现象。这使得你的意识体验不是更上一层楼,而是更上了两层楼。难怪你的智能感觉起来一点都不像实实在在的物质。

    这带来了一个问题:信息处理过程要产生意识,需要遵循哪些原则呢?我不想假装自己知道保证产生意识的充分条件,但我打赌,一定有下面这4个必要条件,我对此也进行过研究,如表8-1。

    表8-1 产生意识的4个必要条件

    空标题文档 - 图6

    正如我所说,我认为意识是信息以某种方式进行处理时的感觉。这意味着,一个系统想要拥有意识,就必须具备存储信息和处理信息的能力,这就是前两个原则。请注意,记忆并不需要持续很长时间。我推荐你观看介绍英国指挥家克莱夫·韦尔林(Clive Wearing)的一个感人视频:虽然他的记忆短于一分钟,但他看起来依然是完全有意识的[20]。我还认为,一个系统想要产生意识,还必须与世界的其他部分之间具备相当大的独立性,否则它在主观上不会觉得自己是一个独立的存在。最后,正如朱利奥·托诺尼所说,我认为一个系统要产生意识,还必须整合成一个统一的整体,因为,假如它由两个独立的部分组成,感觉起来就会像两个单独的意识实体,而不是一个。前三项原则意味着自主性,也就是说,这个系统能够在不受外界干扰的情况下保持信息和处理信息,决定自己的未来。如果一个系统具备全部4个原则,就意味着这个系统是独立自主的,但组成它的各部分却不是。

    如果这4个原则是正确的,那我们接下来的工作就很清楚了:我们需要寻找一个能够体现和验证这4个原则,并且在数学上足够严谨的理论。我们还需要确定是否还需要其他原则。无论信息整合理论是否正确,研究者都应该尝试寻找有没有可与之相争的其他理论,并设计更好的实验来检验它们。

    意识之争

    我们已经讨论了一个持续良久的争议问题:意识研究是不是毫不科学、浪费时间的废话?此外,最近在意识研究的最前沿还出现了一些争议,我认为其中有一些非常有启发性。让我们一起来探讨一下。

    朱利奥·托诺尼的信息整合理论毁誉参半,既有人赞扬,也有人批评,其中一些批评相当尖锐。斯科特·阿伦森最近在他的博客上这样说道:

    在我看来,信息整合理论是错误的,绝对是错的,错就错在它的核心。但这已足以让它在所有有关意识的数学理论中占据前2%的地位了。其他几乎所有意识理论在我看来都是模糊空虚和模棱两可的,只能走向谬误的结局。[21]

    不过,我必须承认,阿伦森和托诺尼两个人都十分谦逊。最近在纽约大学举行的一场研讨会上,他们相遇了。他们礼貌地倾听对方的论点,丝毫没有恶语相向。阿伦森说,某些简单的逻辑门网络具有极高的信息整合度(Φ),而它们显然没有意识,因此信息整合理论是错误的。[22]托诺尼则反驳说,如果它们真的被建造出来,就会产生意识。托诺尼认为,阿伦森的假设是一种以人类为中心的偏见,就好像一个屠夫声称动物不可能有意识,因为它们不会说话并且与人类截然不同一样。我的分析是(他们二人都同意我的分析),他们的分歧在于信息整合到底是意识的必要条件还是充分条件。阿伦森同意前者,托诺尼赞同后者。而后者显然是一个更强、更易引起争议的主张,我希望它能很快得到实验的检验。

    信息整合理论还有一个颇有争议的论断:今天的计算机架构不可能产生意识,因为它们的逻辑门连接方式的信息整合度非常低[23]。换句话说,如果在未来,你将你自己上传到一个能模拟你的所有神经元和突触的高性能机器人中,那么,即便这个数字克隆体与你非常相似,甚至其言行举止也和你完全一样,但在托诺尼看来,它只会是一个没有主观体验的无意识“僵尸”。如果你上传自己的目的是为了追求在主观上永生的话,那这个消息无疑会令你大失所望(76)。这个说法遭到了大卫·查尔默斯和人工智能教授默里·沙纳汉(Murray Shanahan)的挑战[24]。他们说,如果你用一种能够完美模拟大脑回路的假想电子硬件来逐步替换掉你大脑中的神经回路,将会发生什么事情?虽然你的行为不会受到这个替换过程的影响(因为我们假设这种硬件可以完美地模拟大脑),但根据托诺尼的说法,你的体验将会从初始的有意识状态变为无意识状态。但是,在替换的起点和终点之间会有什么感觉呢?当负责你上半部分视觉的意识体验的脑区被替换掉之后,你是否会像“盲视”[25]患者那样,感觉一部分视野突然消失了,但仍然诡秘莫测地知道那里有什么东西?这个说法令人不安,因为如果你能意识到发生了变化,那你也能在被别人问到的时候讲述个中不同。但根据该假设,你的行为是不会改变的。那么,符合该假设又合乎逻辑的唯一可能性就是,在某些东西从你的意识中消失的瞬间,你的思想也被神秘地改变了,导致的结果就是,要么它让你谎称你的体验并未改变,要么它令你忘记事情发生了变化。

    然而沙纳汉也承认,如果一个理论声称你可以无意识地展现出有意识的行为,那它就可以解决上一段所说的那个“逐步替换”的批评。因此,你可能会总结说“拥有意识”和“展现出有意识的行为”是同一回事,所以,只有外部可观察到的行为才是重要的。然而,这种想法可能会让你落入一个陷阱,可能会做出“人做梦时没有意识”的预测,但你知道这不是真的。

    信息整合理论的第三个争议是,一个有意识的实体是否可以由各自拥有独立意识的部分组成。譬如说,社会能否在人们不失去自己意识的情况下获得意识?一个有意识的大脑是否可以包含一些拥有独立意识的组成部分?对这些问题,信息整合理论的回答是坚定的“不”,但不是所有人都对此心服口服。比如,一些因病变而导致左右半脑交流程度极度降低的病人会产生“异手症”(alien hand syndrome)。例如,他们的右脑会让左手做一些事情,但病人声称这不是自己做的,或者自己不理解这是怎么做到的。有时候,这种症状会严重到他们会用另一只手来约束他们的“异手”。我们如何确定他们的大脑中没有两个不同的意识,一个在左半脑,一个在右半脑,左半脑的意识不能说话,而右半脑的意识正在说话并声称自己代表两个半脑?想象一下,假如未来有一种技术可以将两个人的大脑直接连接起来,并逐步增强二者之间的交流,使脑间交流的效率提升到脑内交流那样高效。会不会有一个时刻,两个人的独立意识突然消失,取而代之的是信息整合理论预测的单一而统一的意识?又或者,这个过渡会不会是渐进的,使得两个独立的意识在一段时间里以某种形式共同存在,甚至出现共享体验的现象?

    还有一个迷人的问题是,实验是否低估了我们能意识到的东西?我们在前面已经看到,虽然我们觉得我们在视觉上能意识到大量的信息,包括色彩、形状、物体以及我们面前的万事万物,但实验表明,我们能记住和讲出来的比例小之又小[26]。一些研究者试图解释这个矛盾。他们认为有时候我们可能会对某些东西“产生意识但是无法读取”,也就是说,虽然我们对某些东西拥有主观体验,但它们太过复杂,以至于无法容纳入我们的工作记忆以备后来使用。[27]比如,当你经历“无意视盲”(inattentional blindness)现象时,会由于分心而注意不到摆在你眼前的东西,但这并不意味着你对该物体缺乏有意识的视觉体验,只是说它没有被存储入你的工作记忆中。这是否应该算作“遗忘”而不是“视盲”呢?有些人认为,我们不应该相信人们嘴上说出来的体验,但还有一些研究人员拒绝接受这种观点,并警告其可能带来的引申含义。比如,默里·沙纳汉认为,我们可以假想在一个临床试验中,病人报告说一种神奇新药完全缓解了他们的疼痛,但政府却拒绝接受并声称:“病人只是觉得他们不疼了而已。多亏了神经科学,我们才不会上当。”然而,还有一种相反的假想情况是,当一些病人在手术过程中意外醒来,医生只好让他们服药,好让他们忘记这段痛苦的经历。如果这些病人在事后声称自己没有在手术中经历痛苦,我们是否应该相信他们?[28]

    人工智能的意识是什么感觉

    如果在未来,某个人工智能系统产生了意识,那它在主观上会体验到什么呢?这是“更难的问题”的核心,迫使我们来到了图8-1中描绘的第二层。目前,我们不仅缺乏回答这个问题的理论,而且我们不确定它有没有合乎逻辑的答案。毕竟,我们甚至不知道令人满意的答案应该是什么样。你要如何向一个天生的盲人解释红色是什么样子的呢?

    幸运的是,尽管我们目前无法给出完整的答案,但我们可以给出答案的一部分。一个研究人类感官系统的智能外星人可能会推断出:色彩就是一种与二维表面(我们的视野)上每个点的感觉相关联的感质;声音感觉起来不局限在空间的某个局部区域;疼痛是一种与身体不同部位的感觉相关联的感质。如果它们发现我们的视网膜有三种光敏视锥细胞,就可以推断我们能体验到三原色,并且,其他所有颜色的感质都是它们三者组合而成。通过测量神经元在大脑中传递信息所需的时间,它们可以总结说,人类每秒只会经历大约10次有意识的想法或知觉,并且,当人类在电视上观看每秒24帧的电影时,人类意识不到这只是一系列静止的图像,而是将其感知为连续的动作。通过测量肾上腺素释放到血液中的速度以及分解所需的时间,它们能够预测我们会在几秒钟后感受到愤怒的爆发,以及这个愤怒会持续几分钟。

    运用类似物理学的论点,我们可以对“人工智能意识有何感觉”这一问题的某些方面进行一些有理有据的猜测。首先,与我们人类的体验相比,人工智能的体验空间可能是巨大的。我们的每一种感觉器官对应着一种感质,但人工智能的传感器和信息内部表征的种类可能多得多,所以,我们必须避免假设“做人工智能的感觉和做人的感觉差不多”。

    其次,一个人脑大小的人工智能的意识主体每秒拥有的体验可能比我们人类多几百万倍,因为电磁信号以光速传播,比神经元信号快数百万倍。然而,正如我们在第4章看到的那样,人工智能的尺寸越大,它产生全局思维的速度就越慢,因为信息在各部分之间流动的时间更长。因此我们预计,一个地球大小的“盖亚”人工智能每秒钟大约只能产生10个意识体验,和人类差不多;而一个星系大小的人工智能每10万年才能产生一个全局思维。所以,就算我们的宇宙拥有了意识,到目前为止,它所产生的体验也不会超过100个!这会促使大型人工智能将计算过程委派给尽可能小的子系统,以加快速度,就像我们的意识智能系统将眨眼反射委派给一个小而快的无意识子系统一样。虽然我们前面已经看到人脑中有意识的信息处理过程似乎只是一个巨大的无意识的冰山的一角,但我们有理由相信,对未来的人工智能来说,情况可能会更加极端:如果它拥有一个单一的意识,那其中发生的绝大部分信息处理过程可能都是无意识的。此外,虽然它的意识体验可能非常复杂,但与其内部较小部分的快速活动相比,它们就像蜗牛一样慢。

    这使得前面提到的一个争议变得更加尖锐了,这个争议就是:意识实体的组成部分是否也可以拥有独立的意识?信息整合理论的预测是“不可以”。这意味着,如果未来一个巨大的人工智能拥有了意识,那么,它的几乎所有信息处理过程都是无意识的。这也意味着,如果一个由较小人工智能组成的文明突然提升了其交流能力,从而涌现出了一个有意识的蜂群智能(hive mind),那么,那些速度更快的个体意识就会突然消失。然而,如果信息整合理论的预测是错误的,那么,蜂群心智就可以与那些较小的意识心智共存。的确,你甚至可以想象,意识可能组成了一个嵌套式的层级结构,从微观尺度一直嵌套到宏观的宇宙尺度。

    正如我们前面所看到的那样,我们人脑中的无意识信息处理过程似乎与心理学家所谓的“系统1”有关,也就是不费力气、快速自动的思维方式。[29]比如,你的系统1可能会告诉你的意识,经过它对视觉输入数据进行高度复杂的分析后,确定你的好朋友已经来到了你的面前,但它不会告诉你这个计算是如何进行的。如果事实证明系统与意识之间的这种联系是有效的,那我们会忍不住将这个术语推广到人工智能,给人工智能也定义一个系统1,也就是所有委派给无意识子单元的快速程式化任务。而那些需要花费力气、缓慢且受控的全局思考过程(如果有意识的话),就可以称为人工智能的系统2。我们人类还拥有一种意识体验,我称为“系统0”,那就是原始而被动的感知,也就是当我们坐着不动或什么也不想,只是静静观察周遭世界时体验到的感觉。系统0、系统1和系统2的复杂程度似乎一个比一个高,但令人惊讶的是,系统0和系统2似乎都有意识,而只有中间的系统1是无意识的。对此,信息整合理论解释说,系统0中的原始感官信息存储在信息整合度非常高的网格状大脑结构中;系统2的整合度也很高,因为它拥有反馈回路,在其中,你某一时刻意识到的所有信息都能影响你未来的大脑状态。然而,正是这种“意识网格”的预测引发了前面提到的斯科特·阿伦森对信息整合理论的批评。总而言之,如果一个理论能解决“相当难的问题”,而它又能通过严格的实验验证,从而使我们开始认真对待它的预测,那么,它也将大大缩小“未来有意识的人工智能可能体验到什么”这一“更难的问题”的选项范围。

    我们主观体验的某些方面显然可以追溯到人类的进化,例如与自我保护和繁殖有关的情绪欲望,比如吃东西、喝水、避免被杀等。这意味着创造一个无法体会饥饿、口渴、恐惧和性欲这些感质的人工智能应该是可能的。正如我们在第7章看到的那样,如果一个高度智能的人工智能被设计出来并拥有一个野心勃勃的目标,不管这个目标是什么,那它就可能产生自我保护的行为,以便能够实现它的目标。但是,如果它们是人工智能社会的一部分,那它们在面对死亡时可能会缺乏人类那样强烈的恐惧,因为它们只需将自己备份一下。那么,即使它被消灭,失去的东西也并不多,最多是最近一次备份点到现在为止累积的记忆而已。此外,人工智能之间可以随意复制信息和软件,这可能会削弱个性,而个性正是人类意识的特色,如果我与你事无巨细地共享着记忆和能力,那你和我之间还有什么差别呢?所以,一群相距不远的人工智能可能会感觉它们是同一个生物,拥有同一个蜂群智能。

    人造的意识会觉得自己拥有自由意志吗?哲学家花了几千年的时间来讨论人类是否拥有自由意志,却没有达成丝毫共识。[30]但值得注意的是,我在这里提出的却是一个更容易解决的不同问题。请让我试着说服你。这个问题的答案很简单,那就是:“是的,任何有意识的决策者,无论是生物还是人造物,都会在主观上感觉自己是拥有自由意志的。”所谓的决策落在下面两个极端之间:

    ◦ 你完全知晓自己为什么做出了某个决策;
    ◦ 你完全不知道自己为什么做出了某个决策,就感觉好像是你心血来潮做出的随机决定一样。

    自由意志的讨论通常围绕着如何把目标导向的决策行为与物理定律统一起来。也就是说,“我约她出来是因为我真的很喜欢她”和“我的粒子服从物理定律运动”这两个解释哪一个才是正确的?但根据我们在第7章的讨论,两者都是正确的:目标导向行为可以从无目标的确定性物理定律中涌现出来。更具体地说,当一个系统(大脑或人工智能)做出上述第一种类型的决定时,它是用某种确定性的算法来计算出决定;而它之所以感觉是自己做出了决定,是因为在计算要做什么时,它确实做出了决定。此外,正如赛斯·劳埃德所强调的那样[31],在计算机科学中有一个这样著名的定理:要确定某个计算过程的结果,最快的方法就是实际执行一下这个计算,除此之外没有更快的方法了。这意味着,你想在短于1秒的时间内想出你1秒后会做出什么决定,通常是不可能的事情。这个事实有助于强化你认为自己拥有自由意志的感觉。相反,当一个系统(大脑或人工智能)做出上述第二种类型的决定时,它只是根据某种类似随机数发生器的子系统来做出决定。大脑和计算机都很容易通过放大噪声的方法来产生随机数。因此,无论所做的决策落在第一种和第二种之间的何处,无论是生物意识还是人造意识都会感觉自己是拥有自由意志的,因为它们都感觉是自己做出了决定,并且,在它们彻底思考完成之前,没有谁能百分之分预测到,它们要做出什么决定。

    有些人告诉我,他们觉得因果关系贬低了人的地位,使人类的思维过程毫无意义,感觉自己“只是机器而已”。我觉得这种消极的看法是荒谬和不必要的。首先,我认为人类大脑是我们已知的宇宙中最令人叹为观止、最精巧复杂的物理实体,所以,说人脑“只是机器而已”是不恰当的。其次,他们还想要什么选择呢?难道他们不想让自己的思维过程(由大脑进行的计算)来做出他们自己的决定吗?他们对自由意志的主观体验就是他们的计算过程从内部所体会到的感觉:在计算完成之前,没人知道计算的结果。这就是“计算即决策”的含义。

    意义

    在结束之际,让我们回到这本书的起点:我们希望生命有一个怎样的未来?我们在前一章看到,全球各地的不同文化都希望未来是充满积极体验的,但是,到底什么体验算是积极的?如何在不同的生命形式之间进行权衡?这些问题引发了各抒己见的争议。但是,我们不要被争议蒙蔽了双眼,忽视了房间里的大象:如果连体验都没有(也就是说没有意识),那积极的体验也就不复存在。换句话说,如果没有意识,就不存在快乐、善良、美丽、意义和目标,是巨大的浪费。这意味着当人们追问生命的意义,仿佛宇宙的职责就是为我们的存在赋予意义时,其实他们本末倒置了:并不是我们的宇宙将意义赋予了有意识的实体,而是有意识的实体将意义赋予了我们的宇宙。因此,我们对未来的首要希望应该是在我们的宇宙中保存并尽量扩大生物意识或人造意识,而不是将它赶尽杀绝。

    如果我们在这件事上成功了,那么,与更聪明的机器共存会让我们人类产生什么样的感觉呢?人工智能势不可挡的崛起会不会让你感到困扰?如果会,为什么?在第3章,我们看到只要政策允许,人工智能驱动的技术应该很容易满足我们的基本需求,例如安全和基本收入。但是,你依然可能会担心,锦衣玉食、安居乐业、歌舞升平的日子是美中不足的。如果我们相信,人工智能一定能照顾好我们的基本需求和欲望,我们会不会多多少少觉得这样的生活就像动物园里的动物一样,缺乏意义和目标?

    很长时间以来,人类通常把自我价值建立在“人类例外主义”(human exceptionalism)之上。人类例外主义就是说,人类是地球上最聪明的存在,因此是独特和优越的。人工智能的崛起将迫使我们放弃这种想法,变得更加谦虚。但是,即使没有人工智能,我们或许也会走上这条路,毕竟,固守傲慢的自命不凡,认为自己比其他存在(比如其他人、其他族群、其他物种)更优越,这种想法在过去曾招致了可怕的问题,理应退出历史舞台。确实,人类例外主义在过去酿成了悲剧,对人类未来的繁荣似乎也是不必要的。如果我们发现了一个和平的外星文明,它在科学和艺术等我们关心的一切事物上都比我们要先进得多,这可能并不会妨碍人们继续体验生活中的意义和目标。我们可以保留家人、朋友和广泛的社区,以及一切为我们带来意义和目标的活动。我希望到那时,弃我们而去的只有我们的傲慢。

    在规划未来时,我们不仅要考虑自己生命的意义,还要考虑宇宙本身的意义。在这一点上,我最喜欢的两位物理学家史蒂文·温伯格(Steven Weinberg)和弗里曼·戴森表达了截然相反的观点。温伯格因在粒子物理学标准模型上的奠基性工作而获得诺贝尔物理学奖。他有一句著名的话[32]:“我们对宇宙理解得越多,它就越显得毫无意义。”然而,正如我们在第6章中看到的那样,戴森的观点要乐观得多,虽然他也认同我们的宇宙是毫无意义的,但他相信生命正在让宇宙充满越来越多的意义;如果生命的种子成功地散播到整个宇宙,那未来一定是光明的。在1979年那篇重要论文的结尾,他说[33]:“到底是温伯格的还是我的宇宙观更接近真相?过不了多久,我们就会知道答案了。”如果我们让地球生命走向灭绝,或让无意识的僵尸人工智能控制了宇宙,从而让宇宙回到永无止境的无意识状态,那毫无疑问,温伯格就大获全胜。

    从这个角度来看,虽然我们在这本书中将注意力放在智能的未来上,但实际上,意识的未来更为重要,因为意识才是意义之所在。哲学家喜欢用拉丁语来区分智慧(“sapience”,用智能的方式思考问题的能力)与意识(“sentience”,主观上体验到感质的能力)。我们人类身为智人(Homo Sapiens),乃是周遭最聪明的存在。当我们做好准备,谦卑地迎接更加智慧的机器时,我建议咱们给自己起个新名字——意人(Homo sentiens)!

    本章要点
    ◦ 关于“意识”,目前还没有无可争辩的定义。我使用的定义十分宽泛,并且不以人类为中心。我认为:意识=主观体验。
    ◦ 人工智能是否拥有意识?这个问题归根结底是一些因人工智能崛起而引发的最棘手的伦理和哲学问题:人工智能能否感觉到痛苦?它们是否应该拥有权利?上传思想算不算主观上的自杀?如果未来的宇宙充满了人工智能,算不算终极的僵尸末日?
    ◦ 要理解智能,就必须回答三个关于意识的问题:“相当难的问题”“更难的问题”和“真难的问题”。第一个问题是预测哪些物理系统拥有意识;第二个问题是预测感质;第三个问题是物质为什么会产生意识。
    ◦ “相当难的问题”是科学的,因为它可以预测哪些大脑过程拥有意识,而这样的理论是可以用实验来证实和证伪的。但我们目前尚不清楚科学要如何解决那两个更难一些的问题。
    ◦ 神经科学实验告诉我们,许多行为和脑区都是无意识的,大部分意识体验都是对大量无意识信息做出的“事后总结”。
    ◦ 将意识的预测从大脑推广到机器,需要一个理论。意识似乎不需要某种粒子或场,但需要某种具备自主性和整合性的信息处理过程,这样,整个系统才能拥有足够高的独立性,而它的组成部分却没有独立性。
    ◦ 意识感觉起来是“非物质”的,因为它具有双重的物质层面的独立性:如果意识是信息以某种复杂的方式处理的感觉,那么,只有信息处理的结构才是重要的,而处理信息的物质自身的结构则无足轻重。
    ◦ 如果人造意识是可能的,那么,与人类的体验比起来,人工智能的体验空间可能非常庞大,在感质和时间尺度上跨越极大的范围,但都能体会到自由意志的感觉。
    ◦ 由于没有意识就没有意义,因此,并不是我们的宇宙将意义赋予了有意识的实体,而是有意识的实体将意义赋予了我们的宇宙。
    ◦ 这意味着,当我们做好准备,谦卑地迎接更加智慧的机器时,我们可以从“意人”这个新名字(而不再是“智人”)中获得些许慰藉。