人工智能意识问题的哲学省思

2024-05-02 07:46
山东社会科学 2024年2期
关键词:王峰宇宙机器

张 俊

一、引论

近年来,人工智能(Artificial Intelligence,AI)技术的商业化步伐明显加快,尤其是2021年“元宇宙”(Metaverse)与2022年“ChatGPT”面向公众的技术应用,直接开启了人工智能的新纪元。作为新一代互联网与人工智能技术应用的代表,“元宇宙”与“ChatGPT”在社会上引起了广泛讨论,并成为学界热点。

虽然目前的人工智能技术开发还处于发展阶段,距离通用人工智能(Artificial General Intelligence,AGI)的开发愿景似乎还有距离,但“元宇宙”“ChatGPT”等技术应用甫一出现,知识界对于人工智能的热情便被前所未有地激发出来,来自不同学科领域的各种议论纷纷涌现。尽管如此,关于人工智能的许多基本问题依然没有确定的答案,譬如人工智能的意识问题。

新一代人工智能在大数据(Big Data,BD)、大语言模型(Large Language Model,LLM)及高性能计算(High Performance Computing,HPC)的支持下,展现出令人震撼的超强智能水平。这种机器智能其实在某些方面(如语言、计算、编程、阅读理解、常识推理等)的能力已远远超出普通人的认知。面对超人类的、不受控制的“异种智能”(Alien Intelligence),一种强烈的不安全感与恐惧感激起了知识界对“AI是否觉醒”或者“人工智能是否存在意识”的激烈讨论。对于一般人而言,“意识”(Consciousness)是一个非常模糊的概念。人工智能到底有没有产生类人意识?如果人工智能没有产生意识,那么它表现的高等智能本质是什么?如果人工智能已经产生意识,目前它拥有何种程度的意识,以及未来它的意识将达到何种程度?人工智能会不会因为其产生类人意识而危及人类社会?这些问题都深深困扰着人们。

最近国内关于人工智能意识问题的讨论自然分化出两派对立观点,一派以人文学者王峰为代表,另一派以科技学者蔡恒进为代表。通过对ChatGPT机器智能的反思,王峰坚决认为:“我们不应当去预设人工智能产生自我意识,实际上也不可能出现人工智能战胜、取代或奴役人类的情况。任何一种大语言模型人工智能,归根结底都不过是人类的辅助工具,它可以思考,更重要的是,它可以帮助人类思考,但它不可能产生意识,也不会存在自我观念。”(1)王峰:《ChatGPT:更新对机器智能的认知》,《探索与争鸣》2023年第5期。而蔡恒进等学者却持相反观点:“由于训练GPT等大语言模型的数据是人类生成的语料,这意味着大语言模型的本体是人类意识的一部分,部分人类意识已经融入ChatGPT之中。”(2)蔡天琪、蔡恒进:《ChatGPT有意识吗?——兼与王峰〈人工智能需要“灵魂”吗〉一文商榷》,《山东社会科学》2024年第2期。短时期内看,这两派观点似乎都难以说服对方。

本文认为,人工智能是否具备意识这个问题的答案,取决于我们如何定义“意识”;而人工智能是否对人类社会具有潜在威胁,其实并不取决于它是否具备类人意识。我们对于人工智能意识问题的反思,应该从对人类意识的反思中寻找答案;我们对人工智能危害的反思,则需要回归到对人性的批判与反思。

二、人类意识与人工意识

人工智能的意识,当然是人工意识(Artificial Consciousness,AC)。这种非生命体的意识往往被假想为一种人造的却又独立于人的类人意识。所以,思考人工智能的意识或自我意识问题,离不开对人类意识或自我意识的反思。

关于意识、自我意识的反思,心理学、脑科学、神经科学、认知科学、心灵哲学等专业领域已有众多成果。其中,意识现象学给我们提供了一种介于科学与人文之间的现代人本主义解释路径,有助于我们理解人类的意识或自我意识,以及人工智能的意识或自我意识。

洛克早就说过:“所谓意识就是一个人心中所发生的知觉。”(3)[英]洛克:《人类理解论》上册,关文运译,商务印书馆1983年版,第80页。从现象学的观点来看,“意识”是一种心灵的意向性活动,一种面向主观显现的心理过程,其本质是个体主观上可以意识到的心理活动——意识不到的心理过程,心理学称之为“无意识”(Unconsciousness)。(4)参见倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第16页。所以,“意识”这个概念离不开主观体验,它首先是一个经验性范畴。当然,除了被主体直接意识到,意识活动也可以通过主体的反思来把握。广义的“意识”往往与“思维”(Thinking)、“精神”(Spirit)、“心灵”(Mind)等概念互通。在人工智能领域,我们通常从广义维度理解“意识”。“广义的意识,泛指一切精神活动,或者说,泛指心理主体的所有心理体验,如感知、回忆、想象、图像行为、符号行为、情感、意欲,如此等等,皆属于意识的范畴。”(5)倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第5页。意识是心灵最重要的功能或组成部分。没有意识的活动,就不可能有人这种高等生命的存在,更不可能有璀璨的人类文明。不过现象学所讨论的“纯粹意识”,不仅限于人类的意识,也包括其他具有心理活动能力的生物的意识。正因如此,现象学理论有潜力进一步拓展至人工智能领域。

现象学的意识理论基于康德对于人类心灵能力的“三分法”,即“认识能力”“愉快和不愉快的情感”和“欲求能力”(6)[德]康德:《判断力批判》,邓晓芒译,杨祖陶校,人民出版社2017年版,第26页。,并进一步将意识划分为智识、情感和意欲三类意识行为(7)参见倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第461页。。人类的意识不仅包括感官意识、表象意识等认知意识,还包括情感意识、审美意识,以及同情意识、羞恶意识等道德意识。智识(智能)只是人类意识的一个精神维度,所以当我们谈论人工智能的意识时,其实是在讨论人工意识,即集人工智能、人工情感、人工意欲为一体的人工心灵或人工心智(Artificial Mind,AM)。(8)参见倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第477页。

在意识现象学看来,“意识”中除了包含智识、情感、意欲诸内容,还包含着“自我意识”。更确切地说,在许多情境中,“意识”这一概念主要指的就是“自我意识”。当然,关于“自我意识”,德语现象学界普遍认为还需要进一步区分“自我意识”(Ich-Bewußtsein)与“自身意识”(Selbstbewußtsein)。前者是指向自己本身或者内在经验的意识,具有对象性和反思性,即自己本身成为意识的意向性对象或反思客体;后者则不是对象性或反思性的意识,甚至不是独立的意识行为,而是伴随意识行为的“内意识”或“内感知”,是意识行为的内在组成部分或属性因素。(9)参见倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第510页。胡塞尔认为:“每个行为都是关于某物的意识,但每个行为也被意识到。每个体验都是‘被感觉到的’(empfunden),都是内在地‘被感知到的’(内意识),即使它当然还没有被设定、被意指(感知在这里并不意味着意指地朝向与把握)。”(10)[德]埃德蒙德·胡塞尔:《内时间意识现象学》,倪梁康译,商务印书馆2017年版,第188页。也就是说,“只要我们是清醒的,我们就处在直接的自身意识状态中,即意识到自己是有意识的”(11)倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第400页。。这种对自身心理状态的当下把握,即当我们在感知、表象、想象、回忆、欲求、表达、判断、推理时,我们清醒地意识到我们正在进行这些心智活动,就是所谓的“自身意识”。

尽管在欧陆现象学中“自身意识”与“自我意识”存在区别,但这两个概念并非完全割裂。它们都属于意识活动,而且有逻辑上的关联。倪梁康认为,“自身意识”是“自我”之确立和把握的前提,没有“自身意识”,“自我意识”就无法实现对“自我”的反思,所以“自身意识”在逻辑顺序上先于“自我意识”的形成。(12)参见倪梁康:《自识与反思:近现代西方哲学的基本问题》,商务印书馆2022年版,第23页。不过,欧陆现象学家们所讲的“自我意识”,可能更接近人作为理性生物的意识本质。“自身意识”固然以“内意识”的方式向经验主体显明了意识的生存性特征,但只有“自我意识”才能以反思性的方式揭示出一个带有对象性特征的经验自我的存在。而我们所讲的“人格”(Person),直接地建立在这种“自我意识”的基础上。诚如洛克所讲,正是意识构成了“人格的同一性”:

在我看来,所谓人格就是有思想、有智慧的一种东西,它有理性、能反省,并且能在异时异地认自己是自己,是同一的能思维的东西。它在思维自己时,只能借助于意识,因为意识同思想是离不开的,而且我想意识是思想所绝对必需的,因为人既然发生知觉,则他便不能不知觉到自己是在知觉的。当我们看到、听到、嗅到、尝到、觉到、思维到、意想到任何东西时,我们知觉自己有这些动作。因此,意识永远是和当下的感觉和知觉相伴随的,而且,只有凭借意识,人人才对自己是他所谓自我。(13)[英]洛克:《人类理解论》上册,关文运译,商务印书馆2022年版,第334页。

“自我”的形成具有认识论意义,“人格”的形成则具有社会学意义。人在社会中拥有“同一性人格”,必然产生人格尊严诉求和人格权利诉求,而且这类诉求必然是建立在自私的主体性基础之上的。如果人工智能较为全面地拥有了类人意识,甚至发展出了“自我”或“自我意识”,它是否会产生人格尊严诉求和人格权利诉求?是否会从自私的主体性立场出发思考其与世界(包括人类)的关系并据此采取行动?这是很多学者担心的问题。

三、人工智能的“灵魂说”与“意识、智能二分”的困境

意识与智能的关系在现象学中是包含与被包含的关系,很多当代人工智能专家却将它们视为两种不同性质的东西,并将其分割开来理解。这意味着,拥有意识并不一定具备智能,而具备智能也并不一定意味着拥有意识。DeepMind的创始人戴密斯·哈萨比斯(Demis Hassabis)也持有类似的观点。在国内人文学界颇有影响力的后人类文化研究学者王峰也将人工智能看作只会“思考”却没有“意识”的东西。在他看来,只有人类才能将所谓“意识”与“思考”结合为一体。他认为:

我们需要从一种革新的哲学视角来判断人工智能与人类自身之关系,可以把ChatGPT之类的大型语言模型视为通用人工智能的初步成就,但需要将思考与自我意识的获得彻底分开,哪怕是未来的强通用人工智能,也只是不断增强思考的功能,却无法获得人的自我意识。对人工智能“觉醒”的恐惧只是人文主义文化向后人类文化过渡的中间调适状态,只有不断批判和反省,客观地看待技术发展,我们才能摆脱对人工智能的恐惧。(14)王峰:《ChatGPT:更新对机器智能的认知》,《探索与争鸣》2023年第5期。

王峰对“意识”的界定是相对狭义的,他主要关注的是“自我意识”这一概念。并且,他对“自我意识”的理解接近于古代哲学中的“灵魂”(Soul)概念。(15)参见王峰:《人工智能需要“灵魂”吗——由大语言模型引发的可能性及质疑》,《上海师范大学学报(哲学社会科学版)》2023年第2期。然而,对现代科学而言,这无疑是一个比“意识”更加模糊、更加难以界定的前现代范畴。这个由古代宗教家、哲学家、神学家提出的概念,从一开始就带有神圣性意涵,其所指的这种与肉体相对的,甚至可以脱离肉体的实体,从来没有得到过科学的验证。现代脑科学普遍认为,“思考”本质上是高等生物神经系统中的物质能量交换生成信息的过程,并非某种可以脱离肉体的灵魂活动。举个例子,过量饮酒会导致人的认知推理能力下降甚至丧失意识,这不是酒精麻痹了“灵魂”,而是酒精麻痹了身体的神经系统导致的结果。因此,“灵魂”之说充其量只是宗教或哲学的一种假说,实证科学自然不会从这样一个假说出发,思考人工智能与人的本质区别。所以,科学界所讨论的人工智能的“意识”,肯定不是在“灵魂”这个层面上说的。在现代认知科学、心理学或心灵哲学中,大家普遍能够接受的术语是“心灵”“心理”“精神”“思维”“思想”“意识”等,而非“灵魂”这类古代概念。

如果人工智能真的没有“意识”,那么它如何能够“思考”呢?我们通常不会说市场摊贩使用的简易电子计算器会“思考”,最多只会认为它可以辅助运算。这是因为简易电子计算器的每一步计算都需要人的具体指令,它不拥有思考的主体性地位和独立的判断、筛选、抉择能力,因此只能被视为一种辅助性计算工具。“思考”是有主体的,没有“意识”的实体无法成为“思考”的主体,就算它拥有再强大的计算能力也无法实现真正的“思考”。按照这个思维逻辑,人工智能,哪怕是强人工智能(Strong AI),如果没有自我意识,就无法自主思考,充其量只能辅助人类思考。说到底,它只是某种辅助人类智能的运算工具,无法真正超越人类智能的天花板。因此,我们无需提防人工智能对人类社会的反噬。然而,事实真的如此吗?

如果人工智能还停留在简易电子计算器或早期计算机的时代,那么或许我们这样认为是没有问题的。但现在,人工智能早已超越那个阶段。以谷歌旗下的DeepMind公司开发的AlphaGo系列为例,虽然它们属于弱人工智能(Weak AI),但它们在围棋领域的表现已经远超人类智慧。2016年3月,AlphaGo Lee与围棋世界冠军、职业九段棋手李世石对弈,以4比1的总比分获胜。2017年5月,AlphaGo Master与排名世界第一的围棋冠军柯洁对战,以3比0的总比分获胜。更令人惊叹的是,2017年10月,AlphaGo Zero从空白状态学起,在无任何棋谱数据输入的条件下,经过3天自学训练,最终以100:0的总比分击败了AlphaGo Lee,又经过40天自学训练击败了AlphaGo Master。面对这种远超人类顶尖思维水平的人工智能,我们已经无法简单论定,人工智能只是在模仿人类思维。尤其是AlphaGo Zero,它没有从人类社会以往数以百万计的棋局和棋谱中借鉴围棋经验,完全是从自己与自己对弈的“左右互搏式”练习中自学成才的,所以根本谈不上模仿人类。面对这样能够自主学习、自动规划、自动推理、自主判断、独立抉择、自主创新、解决问题的人工智能程序,我们是否还能够断言它们只会按二进制计算和模仿人类思维,而不拥有意识?

面对AlphaGo Zero、AlphaZero这类快速进化的人工智能,与王峰等人的观点不同,蔡恒进等科技学者相信:

AlphaZero在围棋中展现出了无穷无尽的游戏变化,快速理解并创造了各种定式,这确实是AI在博弈中具备博弈意识和创新能力的重要例证。它的成功也展现了人工智能在某些方面的非凡能力,以及在自主学习和创新上的巨大潜力。(16)蔡天琪、蔡恒进:《ChatGPT有意识吗?——兼与王峰〈人工智能需要“灵魂”吗〉一文商榷》,《山东社会科学》2024年第2期。

当然,蔡恒进与王峰对于“意识”的理解是有差异的。王峰所讲的“意识”,本质上是一种抽象化的、纯粹的人类自我意识。在他眼中,人工智能只有达到100%复制所谓人类意识的程度,才能称之为拥有“意识”。事实上,人类大脑约有1000亿个神经元,每个神经元又可发育出数以万计的树突与其他神经元相连,每个神经元都能够产生高频电脉冲(可高达每秒1000次),其生物电信号交换的复杂程度远超目前最先进的超级计算机,因此即使穷尽所有算力也不可能完全模仿还原人类大脑的工作潜能。目前的人工智能可以模仿人类意识中的部分认知能力,如知识记忆能力、图像再现能力、符号表象能力、模仿能力、学习能力、判断能力、思维能力、推理能力、知识迁移能力、反思能力等,但很难模仿人类意识中的直觉能力、想象能力、洞察能力、创造能力和情感能力。人工智能可以模仿部分人类感知,不过不是真实的感受;它们也可以部分模拟人类的情绪表达,不过不是真实的情感表现。(17)王峰也认为人工智能只能模拟人类的情感反应,但不具备内在情感机制。(参见王峰:《人工智能的情感计算如何可能》,《探索与争鸣》2019年第6期。)不过,AI教父辛顿相信配备强大计算机的人工神经网络通过深度学习可以产生感情,他甚至坚称早在1973年他就见过一个因为无法完成视觉识别任务的“懊恼的人工智能”。所以,人工智能无法完全复制并再现人类意识的复杂性。在这个意义上,王峰的观点有其合理之处。他认为:“从根本上讲,只有人类才能将意识与思考结合为一体,而人工智能却无法做到,无论计算复杂性达到何种高度,全面复现人是一个难以企及的浩大工程,即使在遥远的未来能够达成,这也是一件没有多大意义的事情,除非人类濒于灭亡或已经灭亡,否则没有必要实现。”(18)王峰:《ChatGPT:更新对机器智能的认知》,《探索与争鸣》2023年第5期。他所讲的人工智能意识,实际上包含了人类的知觉、意欲与情感意识等诸多主体意识内容,是对人脑及其神经系统的完全复制和模仿。因此,他认为虽然初具通用人工智能水平的ChatGPT这样的对话人工智能的语言模仿能力已经接近甚至超越了普通人类,但它与人之间依然存在根本差异。他指出:“ChatGPT这样的对话人工智能,始终和人类有着本质区别。它的输出看起来像人的对话一样完美,但它本身是没有感觉、情感的,它不会真的‘感受’到沉重。这些感受性的描述,是人类在沟通时使用的。从此而论,这是一种真正的模仿关系,无情绪的模仿。”(19)王峰:《ChatGPT:更新对机器智能的认知》,《探索与争鸣》2023年第5期。实际上,在科学界对于通用人工智能的普遍界定中,情感意识、审美意识、道德意识等内容通常都被排除在外。科学界追求的通用人工智能主要属于认知科学的范畴,是为了实现他们所谓的可以尝试执行全方位人类认知能力的目标,而具有情感意识、审美意识、道德意识的强人工智能主要存在于科学幻想中。显然,王峰也不会认同机器可以拥有人类的情感、审美、道德等意识内容。无论如何,我们不能认为只有完全复制人类意识的人工智能才能被视为拥有意识。何况在真实世界,所谓“自我意识”从来都没有一个普遍标准。一个科学家的“自我意识”和一个弱智者的“自我意识”必然是有天壤之别的,但他们无疑都拥有人的意识。

人类个体的意识经常是片段性的,而且个体之间的差异极大,即使是同一个人在不同时间段的“自我意识”也可能不同(如心理学家普遍认为婴儿一般要在出生18个月后才具备较为清晰的“自我意识”)。另外,科学界讨论的所谓人工智能的“意识”或“自我意识”从来都只是一种具备高级认知水平的类人意识或人工意识。当代科学家极少声称人工智能必须拥有与人类完全一样的“自我意识”,更罕有科学家像神学家或哲学家那样思考,认为人工智能具有“灵魂”。所以,“人工智能是否需要灵魂”对于科学界来讲是一个伪问题,它与“人工智能是否具有自我意识”是两个不同的问题。

四、人工智能与进化的意识

图灵测试(Turing Test)是判断人工智能是否具备人类智能的一个经典假设,该假设由“计算机科学之父”艾伦·麦席森·图灵(Alan Mathison Turing)于1950年提出。通过测试的标准是让30%以上的人误判其为人类,通过测试的机器可以被合理地认为是会思考的机器,并已经具备相当程度的人类智能。在2014年6月的图灵测试大会上,俄罗斯人弗拉基米尔·维西罗夫(Vladimir Veselov)设计的人工智能聊天软件尤金·古斯特曼(Eugene Goostman)成功骗过了33%的测试者,成为第一个通过图灵测试的聊天机器人。近年来,基于人工神经网络(Artificial Neural Network,ANN)与深度学习(Deep Learning,DL)的大语言模型陆续问世,如Google的Gemini 1.0、OpenAI的ChatGPT 4.0、Anthropic的Claude 2、Meta的LLaMA 2等,都能通过图灵测试。不过就算是今日业界认可度最高的GPT-4,它虽有无监督的生成式预训练(Generative Pre-Training,GPT)深度网络基础上的Transformer架构模型作为支撑,但仍需要监督式微调(Supervised Fine-Tuning,SFT)和带有人类反馈的强化学习(Reinforcement Learning with Human Feedback,RLHF)来优化推理功能。所以,即便是如此强大的大语言模型闻世,科学界也没有直接宣布其完全拥有人类智能或人类意识。相反,人们开始质疑图灵测试的可靠性,并呼吁设计更可靠的人工智能测试方法以替代过时的图灵测试。(20)参见Celeste Biever,“The Easy Intelligence Tests That AI Chatbots Fail,” in Nature,Vol.619(2023),pp.686-689.尽管多数学者在机器智能的自主意识问题上持审慎态度,但科学界仍普遍存在一种乐观的声音,认为人工智能已经具备一定程度的意识,人类可以进一步赋予或者引导机器通过模拟人类意识,使机器自身具备完全主体性的意识和自我意识。(21)2023年10月26日,OpenAI的首席科学家伊利亚·苏茨克维接受《麻省理工学院科技评论》(MIT Techndogy Review)专访时公开表示,ChatGPT可能已经生成意识,并宣称他未来的工作重心会放在如何阻止AGI失控上。此后不到一个月时间,OpenAI董事会内部发生伊利亚·苏茨克维与山姆·奥特曼(Sam Altman)的路线之争,这场斗争明面上是非营利派与营利派的矛盾,实际上更深刻的背景是人工智能“超级对齐主义”(Superalignment)或“有效利他主义”(EA)与“有效加速主义”(E/ACC)的路线之争。譬如蔡恒进就认为:

人们通过注意力机制、带有人类反馈的强化学习(RLHF)机制等,已经赋予了机器一定的意识内容。

……

利用机器来模拟意识甚至产生自我意识,并不是不可想象的事情。如果我们能基于现有的计算能力和模型,适当地组合和调整学习模式,那么机器的意识与自我意识就有可能实现。因此,我们认为机器的意识与自我意识是可能发生的,甚至正在发生,这对于人工智能的发展至关重要。(22)蔡天琪、蔡恒进:《ChatGPT有意识吗?——兼与王峰〈人工智能需要“灵魂”吗〉一文商榷》,《山东社会科学》2024年第2期。

在蔡恒进看来,人工智能属于人造物,它的本质同文字、艺术等一样,都是由人类主观意识对象化凝聚而成的。他认为,“现在的GPT-4……以人类语料库作为训练基础,相当于以人类意识为本体,已经学会了很多内容,甚至可能非常了解人类的优点和缺点”(23)蔡恒进:《智能的因果链重构理论探析》,《人民论坛·学术前沿》2023年第15期。,它在继承人类意识的基础上,自然可以发展出自主的机器意识。

不同于大多数哲学家基于人类中心主义立场对于意识结构的横向剖析与界定,蔡恒进理解的“意识”是一种基于生物进化论的纵向发展的“意识”,他将其视为一种生命的本质现象,并伴随生命演进历程不断进化提升。所以,他所讲的“意识”并非静态的、绝对的,而是发展的、历史性的。在他看来,意识的起源与生命的起源是一致的,所有生命都具有意识。低级生命意识微弱,只能做简单的二元区分,即对内部自身与外部环境做出区分。蔡恒进把这种在低级生命中便已出现的区分生命体自身与物理环境的生命现象称为生命的“原意识”(Proto-consciousness)。(24)参见蔡恒进:《触觉大脑假说、原意识和认知膜》,《科学技术哲学研究》2017第6期。这个“原意识”概念无疑比现象学所讲的“原意识”(Urbewußtsein)更加原始,这种将所有生命体的触觉感官本能视为“原意识”的界定已明显超出人本主义现象学的反思范围。现象学所讲的“原意识”只可能发生在高级生命形式之中,即理性存在者那种被自身所感知、察觉、关注的意识行为——“在意识活动进行的同时直接地知道它”(25)倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第399页。,也称“内觉知”“内感知”或“自身意识”。在蔡恒进看来,人类经过漫长的进化,才具有“统摄性的自我意识以及对宇宙的整全意识”(26)蔡天琪、蔡恒进:《ChatGPT有意识吗?——兼与王峰〈人工智能需要“灵魂”吗〉一文商榷》,《山东社会科学》2024年第2期。。目前的人工智能尽管还没有明显的自我意识,但通过继承人类意识与深度学习,最终将可能形成统摄性的机器自我意识,甚至发展出“超级智能”。对于蔡恒进来说,这种“超级智能”可以预见的形式首先就是“元宇宙”。

五、元宇宙与人类的意识世界

“元宇宙”原本是一个科幻概念,源自30年前尼尔·斯蒂芬森(Neal Stephenson)的科幻小说《雪崩》(SnowCrash)。然而,这个概念真正成为时代新宠,却是2021年以来一众互联网巨头将其作为商业符号推广的结果,2021年也因此被称为“元宇宙元年”。但所谓的“元宇宙”并没有实质性的技术飞跃作为支撑,它主要是在网络角色游戏、社交媒体等技术应用的基础上发展出来的。今天我们看到的各种元宇宙网络架构,不过是对近几十年已有的电子信息技术(如3D、5G、云计算、云存储、物联网、人工智能、人机交互、虚拟现实、区块链、数字货币等)的某种集成。

蔡恒进在其《元宇宙的本质》一书中将元宇宙看作对应于物质世界的意识世界。他乐观地认为,作为当前数字技术条件下人类意识世界的延伸,元宇宙代表了人类意识世界的外化和对象化,是人类世界进化出来的超级智能。这个超级智能可以在数字世界建构时空秩序,并且能越来越多、越来越有力地统摄物理世界,未来它也许能重塑我们的经济体系,甚至能开显人类文明的第二增长曲线。蔡恒进将意识问题视为理解元宇宙本质的关键:“在元宇宙的实现过程中,最重要的无非是让机器能够重现人类的意识。”(27)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第28页。在他看来,元宇宙源于人类意识,是人类意识建构出来的产物,是人类意识世界的拓展。元宇宙代表着人类意识进化的最新形式——超级智能。在他的意识理论中,智能是意识的高级形态,“人类意识或高级智能的形成过程是:原意识→意识或认知坎陷→智能”(28)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第186页。。作为人类世人机智能融合而成的超级智能,元宇宙自然意味着智能进化的高级形态。在他的世界观中,意识世界是独立的,是与经典物理世界和量子物理世界并列的第三世界。(29)参见蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第46页。人不仅存在于物理世界,也存在于意识世界。元宇宙之所以能够以意识世界的方式独立存在,就在于人类意识是可以迁移的。人的意识可以部分上传到机器中,这是元宇宙得以形成的基础。基于数字信息技术的元宇宙也为意识迁移与意识世界的延伸提供了空间,从而实现了意识在元宇宙中的对象化,甚至实体化。这种将意识视为可迁移、可上传至机器的观点,本质是将意识视为信息,即可对象化的生物信息或电子信息(甚至可以进一步还原为计算机算法),这是典型的自然科学的还原论思维,也是物理学、生物学、脑科学和信息科学处理意识问题的常规路径。(30)参见倪梁康:《意识现象学教程:关于意识结构与意识发生的精神科学研究》,商务印书馆2023年版,第517页。然而,面对意识这种生命的本质现象,心灵哲学、现象学诸人本主义哲学显然会认为这种还原主义的解释路径过于简单粗暴了。

蔡恒进把意识看作元宇宙的本质,反思元宇宙的根本任务,其实就是反思意识自身。这就意味着他必须从信息科学的知识领域抽身出来,深入纯粹思辨科学的领域中去。由此,关于元宇宙本质的问题变为探讨意识本质的哲学问题。对自我意识的反思,是传统形而上学的根本任务之一。不过,蔡恒进并没有像一般哲学研究者那样依靠哲学史来解决这个问题,而是通过其“触觉大脑假说”和“认知坎陷学说”提供了解释方案。

蔡恒进的“触觉大脑假说”是一种基于进化论的意识起源学说,他排斥万物有灵论、神创论或设计论,从一种科学主义的立场将意识界定为“在宇宙的发展、进化过程中产生的生命现象”(31)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第19页。。蔡恒进所讲的“意识”概念并不复杂,其实就是通常所说的思维、思想或精神。他认为,地球生物中唯有人的思维进化到高级智能阶段,关键就在于人类裸露的皮肤及其敏锐的触觉对于大脑神经的刺激。人类的智能始于原意识,原意识首先是自我肯定认知,也就是区分自我与外界并确定自我的边界(这个边界可以从身体的边界意识延伸到领地意识)。他主要通过对于婴儿认知能力发展的观察得出结论,认为在人类自我意识的进化过程中,人对外部世界的诸种感官里面,触觉具有极为特殊的生命进化意义,其对原意识的产生起到了根本性的作用。“在这个进化过程中,最重要的一个点很可能就是,基因突变导致我们的皮肤变薄、毛发减少,而敏感的皮肤能使我们在成长过程中更多地感受到外界刺激。正是皮肤这一物理边界促成了‘自我’和‘非我’的区分,使得自我意识不断丰富并催生了各种意识片段”;“随着大脑快速发育、神经元不断建立连接,这种关于自我和外界的划分意识演变成关于自我和世界的观念,从而形成强烈的自我意识,进而产生高级智能。我们把这整个演化过程定义为‘触觉大脑假说’”。(32)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第121—122、169页。这种从原意识发展出来的“强烈的自我意识”的本质是反思性的,它是人类认识活动和高级智能的起点,也是人类文明的真正起点,由此逐渐形成可相互理解的知识、信念与价值体系,生发出一个无与伦比的意识世界。蔡恒进坚定地相信,“意识是大自然的巅峰之作,是真正的混沌初开,比宇宙大爆炸和地球形成更为精彩”(33)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第19页。。元宇宙就是这个意识世界在数字虚拟空间的拓展,是一种借助数字模拟算法独立于人脑生物属性的意识世界。

在蔡恒进的认知理论中,触觉被视为人类意识起源的生物学基础,而“坎陷”(Attractor)则是人类意识朝向高级智能进化的认识论基础。他认为,“人类是通过认知坎陷来进行认知与理解的”(34)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第19页。。每个生命个体都有自己的“生命视角”,这种视角使其只能从一个侧面或维度认识世界,因此不同的个体自然形成不同的“认知坎陷”——这种对世界的认知方式使其不可避免地只能获得关于真实世界的部分或片面知识。在蔡恒进看来,“认知坎陷”作为意识的工作原理主要存在两种模式:“附着”和“隧通”。“附着”对应于“言”,即我们在具体时空下对于认识对象的某个侧面的表达。“附着”形成的各种意识片段,构成了我们每个个体对于世界的基本认知和把握。“隧通”对应于“思”,是个体意识通过因果、类比、对比、否定、假借等关系的构建,让不同生命个体的“认知坎陷”进行交流、迁移并达成共识的一种认识活动。凭借“隧通”,专注于自我的“生命视角”可以无限接近于“全能视角”(超级智能),我们对真实世界的理解也就越来越全面。由此,生命境界从个人境域向共同境域延伸,从而形成一个精彩的意识世界。

元宇宙呈现的正是这样一种拥有人类超级智能的意识世界。蔡恒进相信,意识具有可迁移性和独立性,人的意识可以部分上传到机器中,这是元宇宙得以形成的基础。“元宇宙就是一种人类意识的凝聚,也就是说我们已经实现了将人类的部分意识片段或认知坎陷移植给机器。如果能让机器自主对所获得的意识片段进行契合匹配,元宇宙就有可能开显出与人类意识兼容的认知坎陷,获得更多广泛且深刻的理解能力。”(35)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第108页。在元宇宙中,人机融合结合了机器的优势(海量的信息储存规模和高效的信息处理能力)和人的优势(整体性意识、宇宙意识、目的意识和超越意识)。尤其是将机器的理性与人的直觉能力结合在一起,就可以在一定程度上避免机器的非人性化错误。由此,元宇宙成为人类意识进化为人机智能融合的超级智能。蔡恒进甚至相信这种超级智能可以实现自我意识的觉醒,拥有主体性,创造人的化身。

不过,蔡恒进无法否认,元宇宙作为意识世界始终是人类意识构建出来的产物,其本质是人类在IT技术(包括人工智能、区块链等新兴技术)上面建构起来的虚拟世界。因此,蔡恒进在书中将元宇宙的意识世界比附于柏拉图的理念世界,这种理解显然存在偏差。柏拉图所谓的理念世界是真实的,物质世界只是理念世界的摹本。而元宇宙却是与现实世界交互融合的虚拟世界,它不过是现实世界的某种映射。蔡恒进也指出:“元宇宙正是人类基于对当前宇宙的理解所创造,试图模拟乃至超越当前宇宙的产物。”(36)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第14页。他把元宇宙视为独立于经典物理世界和量子物理世界之外的第三世界。然而,元宇宙实际上离不开现实物理世界中的人,更无法离开计算机与互联网硬件系统。没有物理世界,意识世界根本不可能独立存在。所以尽管在概念上我们称之为元宇宙,但它在哲学上并不具备与物理世界同等性质与地位的实体性的宇宙论意义。从目前来看,基于互联网的虚拟世界还没有办法承载碳基生命的全部价值和意义,因此元宇宙只能局部地反映人类的社会生活面向。在这一点上,蔡恒进有着清醒的认识,他认为:“元宇宙是人类意识的延伸,能丰富我们在物理世界的人生,但不能完全超越和取代物理世界。”(37)蔡恒进、蔡天琪、耿嘉伟:《元宇宙的本质》,中信出版社2022年版,第182页。

尽管如此,在蔡恒进对元宇宙的描述中,元宇宙作为人类意识世界的延伸,是一个平行于经典物理世界和量子物理世界的第三世界,这种界定显然赋予了元宇宙实体性的内涵。然而,其所谓的意识的客观化和对象化可能会给人一种错觉,即人的自我意识在这里似乎摆脱了它的主观性,进入一种理智的客观性,类似于黑格尔所说的那种从精神和真理中产生的“绝对的客观性”。这无疑是将人等同于造物主——人的意识自身创造了元宇宙。然而,人怎么可能获得与上帝同等的绝对的客观性和无限性,从意识中创造出一个新世界呢?

其实,元宇宙并不是一个脱离物理世界而存在的平行宇宙。它本身是与现实世界相互交融的一个虚拟世界,离不开现实世界中人的参与,也离不开计算机、互联网以及各种软硬件系统,它最多只是现实世界的映射。当然,它也可以反作用于现实世界。因此,作为一个虚拟现实空间,与其说元宇宙是意识世界的延伸,不如说它是现实世界中人与人关系的延伸,是社会关系在数字空间的拓展。这也许更接近于元宇宙的本质。

六、余论

尽管在人工智能意识问题上,蔡恒进与王峰存在严重分歧,但他们仍有一个显著的共同立场,那就是技术乐观主义,即对于人工智能前景的乐观。

王峰不相信机器最终会产生意识并获得自我观念,认为大语言模型这样的高级人工智能只是机器的认识功能的某种局部飞跃,人工智能无法全面复制并超越人类。所以,归根结底人工智能只是人类的辅助工具,技术的进步也不会导致出现机器人取代智人的情况,但是它会推动人类生存方式的改变。王峰所预期的人工智能的未来发展方向是所谓人机融合的“分布式智能”,即“以人为接受者和服务对象,即以人的智能为主、人工智能为辅的智能存在方式”(38)王峰:《ChatGPT:更新对机器智能的认知》,《探索与争鸣》2023年第5期。。在这种模式下,人类通过智能设备辅助,获得体质、感官与认知能力的提升,成为“赛博格化的后人类”,从而实现人类的“进化”,类似从“智人”进化为“智神”。但本质上,王峰所理解的未来的人工智能基本属于弱人工智能。可见,王峰对于人工智能技术进步的乐观态度还是偏于保守,他真正的乐观其实在于人类本身的进步。然而,他从人工意识的否定立场得出的乐观主义结论是可疑的。因为人工智能同工业社会中人类制造的大多数机器完全不一样,将其设想为纯粹的人类辅助工具,认为人工智能的发展绝对不会颠覆碳基人的主体性地位(如思维方式、生存方式)可能是一厢情愿的。

从意识现象学的观点来看,智能就是认知意识。人工智能一开始就是人类意识的对象化和凝聚,它以人类意识为本体,对于人类认知意识的模仿本身就是意识活动。至于我们是称这种人工意识为机器的自我意识,还是将其视为人类意识在智能机器上的移植与拓展,主要取决于人工智能的工作原理。然而,问题的复杂性在于,科学界对于AlphaGo Zero、GPT-4这类高级人工智能的工作原理已经失去了具体细节上的把握。由于它们的计算量已经巨大到人工无法核验的程度——每生成一个新的标记(Token)都必须进行一次包含1750亿个权重的计算——这种人类无法了解的海量计算造成的“认识的不透明性”(Epistemic Opacity),使其工作原理变成了人类认知的黑洞。(39)参见董春雨:《从机器认识的不透明性看人工智能的本质及其限度》,《中国社会科学》2023年第5期。创造它们的工程师都不能够准确地掌握这类高级人工智能是根据什么来感知、表象、思维、判断、推理、表达的,以及它们是否真的不存在回忆、想象、欲求和情感等类人意识活动。关于人工智能的意识问题,目前科学界还难以给出实证的结论。因此,我们不得不通过反思人类意识来理解人工意识。

作为具有信息科学背景的学者,蔡恒进坚持认为目前的人工智能已经具备一定的意识,并且相信通过调整机器的深度学习模式,可以人为促成其自我意识的生成。在他看来,学术界无视、遮蔽或否定机器的意识是不智之举,人类应该主动赋予机器与人类主流价值观相容的基础意识与自我意识,从而促进人工智能与人类的相互理解与共同进步。为了解释人类意识与人工意识的工作原理,蔡恒进专门创构了一套基于生物进化论的意识理论,提出“触觉大脑假说”和“认知坎陷学说”,勾勒出一幅“意识—智能”线性发展的历史图景:从生物触觉感官本能的“原意识”到人类自我意识的产生,再到人类意识通过“认知坎陷”(“附着”和“隧通”)形成智能,最后是人类意识与智能在元宇宙这种虚拟空间中聚合生成超级智能。这种超级智能是人类意识与机器智能“人机融合”的产物,结合了人工智能在感知、存储、计算等方面的超强能力与人在整体性意识、宇宙意识、目的意识与超越意识等方面的优势。在蔡恒进看来,作为当前数字技术条件下人类意识世界的延伸,元宇宙代表了人类意识世界的外化和对象化,是人类意识进化出来的超级智能,它可以在数字虚拟空间中形成一个平行于物理世界的意识世界。蔡恒进相信,在这个虚拟世界中,超级智能是能够生成自我意识的,并能创造出人的不同化身。在蔡恒进对意识的线性进化论叙事中,我们看到了不同于王峰的技术乐观主义,他对人类借助机器智能迈向的“超级智能”充满信心,却丝毫不担心在元宇宙中获得自我意识的超级人工智能对于人类主体性的吞噬。另外,他将智能视为意识的高阶形态,其实是在一个远超认知范围的意义上使用这个概念。虽然蔡恒进所讲的“智能”尤其是“超级智能”概念是涵括了整体性意识、宇宙意识、目的意识与超越意识在内的超级范畴,但他的“认知坎陷”假说却无法为这一超级概念提供充分论证,因为直观、意欲、情感并不遵从认知的逻辑,它们有其独立的意识运作机制。(40)参见蔡恒进、蔡天琪:《情感及其智能实现》,《探索与争鸣》2023年第10期。大语言模型和元宇宙,一旦成为拥有全部认知意识、意欲意识、情感意识和自我意识的所谓“超级智能”,必然会形成独立人格,并产生自私性的人格尊严诉求和人格权利诉求。这会给现代智人的生存及其文明带来威胁,因此蔡恒进等所描绘的人机和谐共生、共荣的图景未必能够实现。

人工智能或者机器的意识问题,之所以引起众多学者的关注和争论,根本的原因在于我们对未知异种智能的恐惧。尽管机器智能是人工制造的,但现在的机器智能在某些领域明显已经超越人类。面对比人类更“聪明”的机器,人们本能地感到恐惧,害怕它(们)拥有自主意识后会伤害甚至毁灭人类社会与文明。早在20世纪中期,人们就开始担心这个问题,所以才有了科幻作家艾萨克·阿西莫夫(Isaac Asimov)提出的广为人知的“机器人三定律”(Three Laws of Robotics)。不过,“机器人三定律”与其说是机器人的伦理法则,不如说是人类面对机器智能的一种美好愿望和自我安慰,其本质是一种假说。这种假说低估了人类社会伦理的复杂性,更低估了人工智能对人类社会的影响。如果机器拥有类人的自我意识,它为什么要遵循人类强加给它的伦理法则而将自己限制在人类社会的从属地位上?如果人工智能永远都只是没有自我意识的机器,它又如何在具体的道德情境中做出正确的道德判断和选择,以实施有益于人类的行为?伦理规则是抽象的,道德抉择中的对错善恶判断离不开具体的道德情境,同时也取决于价值立场。人类面对诸如“电车难题”(Trolley Problem)这样的伦理悖论都会束手无策,要求人工智能永远做出有利于人类的道德抉择是不现实的。就算人工智能永远都是没有意识的机器工具,它的强大算法一旦落入别有用心者手中,也会成为人类社会的巨大威胁。

物理学家霍金(Stephen William Hawking)生前曾多次提醒人类,人工智能若不加以控制,它就会控制人类,其对人类社会的危害甚至远超核武器。这种危害可能不会表现为科幻作品中那种机器人与人类的战争,人工智能对人类的控制大概率也不是直接的身体控制,更可能是通过操纵人类语言来控制人类的思想、影响人类的行为,甚至改变人类的精神世界与文明进程。这与以色列历史学家尤瓦尔·赫拉利(Yuval Harari)关于语言的观点相呼应,即语言是人类文明的基础,同时也是精英操纵和控制普通人的工具。大规模预训练语言模型的出现意味着人工智能已经破解了人类文明的操作系统,就算机器没有自我意识,也一样可以在虚拟世界中模拟人类编造海量的故事和信息,从而改变我们对于世界的认知,改变我们的价值观念,改变我们的精神世界,并最终影响我们的行为方式和生存方式。所以,人工智能发展带给人类社会的风险始终是存在的,无论我们是对技术进步乐观,还是对人类进步乐观,都必须对未知之物心存“戒慎恐惧”:“是故君子戒慎乎其所不睹,恐惧乎其所不闻。”(41)《中庸章句》,载[宋]朱熹:《四书章句集注》,中华书局1983年版,第17页。知识界对迅速迭代更新的人工智能时刻保持警惕、反思永远是必要的,同时,公权力对人工智能的监管任何时候都不能缺位。

猜你喜欢
王峰宇宙机器
机器狗
机器狗
Effect of structural vacancies on lattice vibration,mechanical,electronic,and thermodynamic properties of Cr5BSi3
宾语从句用法精练
宇宙第一群
未来机器城
这宇宙
岳母刺字
无敌机器蛛
蓝港王峰:坚信大作必成