机器意识有无可能

2022-03-18 06:44
哈尔滨学院学报 2022年6期
关键词:解释性机器深度

汪 娅

(重庆大学,重庆 400044)

机器是否具有意识的问题,不仅涉及到对人类意识本质的理解,同时也是人工智能取得突破的关键。围棋高手“AlphaGo”以及用于社交并拥有公民身份的“索菲亚”机器人等智能机器的出现,尤其是伴随智能机器发展的过程中所产生的一些伦理问题以及社会影响,引起了学术界对机器是否能够拥有意识的讨论,首先是是否可以用人工代替生物的问题。

然而,即使抛开人类的偏见,肯定工程上对意识功能实现的积极意义,就人工智能的发展现状而言不具有实现机器意识的可能。本文并非意在探讨机器意识的实现方式,而是以一种调和的方式,综合工程上与哲学上对意识的理解,依据人工智能的发展现状分析机器意识的有无问题。

一、机器意识

机器意识通常也被称为“人工意识”,对机器意识的定义代表学术界对机器意识的不同理解,目前缺乏统一的定论,主要分为以下三种类型:一种是从功能性的考虑出发,主张“机器意识是指那些设计和分析信息机器的人试图将他们的方法应用于理解意识的各种方式,并检查意识在信息机器中的可能作用”。[1]另外一种则从哲学层面出发,将机器意识理解为“试图模拟和实现人类认知的某些方面,这些方面被认为是难以捉摸和有争议的意识现象”。[2]而第三种则从单词的属性出发认为,“意识机器的概念在术语上是矛盾的,因为‘意识’一词代表自然的东西,‘机器’一词代表人工的东西。说机器是有意识的是荒谬的。因此,机器意识的概念是一个衍生的概念,在最坏的情况下是一个自相矛盾的概念。”[3]

然而,对意识缺乏统一的定义也是机器意识问题受到热议的重要原因。目前连蜜蜂也被证明具有情绪、注意力、远见、自我意识等能力。[4]而按照Porcher的观点,“没有科学分支了解意识的本质和来源就不存在否定任何生命形式的依据”,[5]同时他也说明意识能力并不依赖人的大脑。那么机器有无可能实现意识?本文则尝试结合工程上和哲学上对机器意识的理解来分析机器意识有无可能的问题。

二、基于机器意识的现状分析

鉴于认识到复制人类意识的好处[6]以及追求科技的进步,近几年,一些学者创造出了能够依据自身的经验身份回答问题的模型ARTSELF、[7]可觉知自身姿势状态的本体感受传感器、[8]会做梦的机器人、[9]能够在镜子前识别出自己的Robot-MNS-Model模型[10]以及由细胞组成的可自行复制、恢复和治愈的粒子机器人[11]等意识机器模型。

事实上,当前人工智能在某些方面表现得仍稍逊于孩童,尽管某些机器模型已经在一些领域打败了人类的世界冠军。但其中不乏一些繁荣发展的假象,这些假象背后由资本操纵。例如,聪明的聊天机器人客服,可能由真人扮演,这是由资本家为获得利益而进行的“欺骗”行为,从而发展出的“AI拜物教”。

目前,深度学习作为人工智能的核心驱动力,具有先进性(自主性)、仿脑性及不可解释性,这些特性通常被视为与人类意识相关。这三种特性往往相互作用,彼此成就。由于我们无法确定人脑是否是实现意识的唯一形式,但根据他者思维问题,我们可以确定作为人类的自己是具有意识的。首先,我们需要探讨深度学习究竟有无达到人类意识水平。

“人脑不是一次完成的计算机硬件,他是在社会生活中完善起来成为意识器官的。”[12](P10)人脑在社会中进化改变,并在丰富多彩的活动中发展新的神经分支,深度学习也能够通过强化学习以及调节权重获得激励、不断完善自身算法,这到底有何不同呢?需要说明的是,无论深度学习在结构功能上与人类大脑如何接近,结构不等于意识。人的优越性在于,“知觉虽然是对当前事物的反映,但是当刺激物提供的信息不足时,人总是以过去的经验补充当前的知觉活动,使其具有一定结构的整体形象,特别他可以从自身经验中,也可以从别人的经验中,从语言刺激中取得信息,以补充当前刺激物提供的信息的不足”。[12](P125)深度学习模型也能够通过概率算法填补经验,而人是有选择地接受刺激,然后加工整理,与人的经验、思维定势有关。但概率算法总是难以避免地具有不确定性,“你可以用概率来计算风险,但概率本质上对任何给定的情况都没有发言权。伴随着不确定性的影响是存在的。现在的选择变得充满了对不确定未来的恐惧”。[13](P4)深度学习的算法特点之一即为概率估计,在很大程度上即使做出最有利的评估与决策,但本质上也具有不确定性和不透明性,故具有不可解释性,那么这种不可解释性与人类意识中的某种不可解释性有何区别呢?

1958年波兰尼提出一种默会知识,这是一种无法用语言表述的隐性知识。这与赖尔所说的能力之知以及欧克肖特所说的实践知识类似。王礼鑫认为马克思主义认识论的实践观具有吸收默会知识的条件,分别将感性认识和理性认识对应于默会知识和明述知识,并根据人工智能对先验知识的依赖认为人工智能不具备形成默会知识的能力。深度学习的“黑盒”问题,究竟在多大程度上与默会知识有关呢?

根据默会知识论的三种知识形式,深度学习的这种不可解释性并不属于格式塔的类型,这种知识类型不可解释性是由背景知识问题所引起,但与局域主义论以及强默会知识论有些相似,即未能或不能充分用语言表达,通常以行动表达的知识。而人的默会知识与深度学习的“不可解释性”的关键区分在于,深度学习是一个有结论、无过程说明的知识形成过程;人的默会知识是一种无结论、有行为(过程)的知识表达。深度学习缺乏一种对其结论的透明性的说明解释,而人的默会知识伴随主体的整个实践、感悟之中。引起深度学习的“黑盒”问题的根源在于其算法的复杂性,而默会知识更像是一种“理解”,其可能高于明述知识的知识表达,受到环境、文化、亲身实践的影响,是更完整意义上的知识所得。因此,深度学习的不可解释性与人类的不可解释性有着本质的不同,且它需要被合理地透明化。

再有,深度学习的显性自主性中内嵌着很强的人类元素,正如帕斯奎内利(Pasquinelli)所说,“即使神经网络显示出人类思维无法预见的相关性,它们也在训练数据集中隐含的(人类)假设和类别网络内运行,从这个意义上说,它们不能为发明全新的类别做出必要的跳跃”,“当然,他们没有表现出‘自主智力’或意识的迹象”,这种对人类先验知识以及人类计算的依赖是影响机器意识发展的重要因素之一。[14]当然,深度学习目前还有其他一些缺陷,例如,非生物性、超个性化、适应性差等。如果克服了这些局限性,深度学习能否实现机器意识呢?

一般来说,机器意识的实现往往以传统的二元论为理论支撑。而持自然主义二元论的查尔莫斯认为,“意识是自然世界除物理特征之外的另一种独立的特性,不可能被还原为物理特性。我们不能把意识的存在性问题仅仅处理为解释某些认知或行为的功能作用问题。”[15]这种观点强调,心灵既在一定程度上依赖于物质,又存在某种隐秘结构及独特本原。

人工智能的发展总是受到笛卡尔思维观的偏见的影响,但思考这样一个问题,“如果我们能创造出一个‘真正’的自我意识和自我感知的机器人,这个机器人在某种程度上是每个人类都有的,我们怎么知道我们不是造物主创造的有意识的机器人呢?”[16](P365)其中,施魏策尔(Schweizer)通过思想实验表明了在其他物理介质上复制人类心智本质上具有理论困难。[17](P81-91)拉贾基肖尔·纳特也认为,“精神生活及其性质不能由宇宙的物理条件在法理上决定。”[3]

而针对意识和脑的关系问题,在医学领域,宣布人类死亡的方式中,脑死亡通常比心脏死亡更为科学,脑死亡作为人死亡的关键,最终会导致心死亡。现实案例中,存在脑死亡之后,器官功能依然具备刺激反应的情况。一般说来,脑死亡之后,不再具有神经元所提供的功能,则便不再具有意识。那么,为什么在无意识情况下,身体依然存在刺激反应呢?这是否证明行为主义纲领不足以构成实现机器意识研究的充要条件呢?笛卡尔将意识分为有意识活动和无意识活动,其中有意识活动由人脑所产生,无意识活动以“反射”的形式产生。[12](P144)按照笛卡尔的观点可以说明脑死亡之后,器官即使能够进行反射也只是一种无意识的活动,尽管笛卡尔持有身心二分的观点,但这至少肯定了大脑对意识产生所起的关键作用。

S.里昂(S.Lyons)指出,“这是一个至关重要的区别,因为在生物学和意识之间有一种假定的(有点不令人惊讶的)联系,在这种联系中,没有人类,或者至少没有生物大脑,意识就不能存在。”[18](P29)虽然一些实验结果证明,人的感受不是由同样的神经状态引起的,但同样的可观测的神经状态能够引起相似的感受这一点,可能对实现机器意识来说具有十分重要的意义。

马克思主义主张物质对意识的决定作用,马克思主义认识论的伟大之处在于其突破了传统的意识内在性。近代哲学只能使对象封闭在自我意识当中,马克思借助黑格尔辩证法的“活动原则”走出意识的内在性,并以实践的观点,说明人的活动先行于特定对象,以此构建或设定对象,通过对象性活动表现主体与客体的联系,其中实践是联系主体和客体的中介。正如陈永杰所说,是马克思的“对象性活动”将“对象”和“我”真正地联系了起来。[19]因此,马克思主义的实践观对意识内在性的突破是对超自然观点的有力反驳,同时也蕴含着意识的社会性。

由此可见,在人类意识水平上尝试去实现机器意识是困难但具有意义的实践活动。此外,不可忽略在研究机器意识的过程中对社会产生的消极影响。

三、以马克思主义认识论批判机器意识

马克思主义主张,意识是作为认识主体的人所独有的,人应是自由的。而机器意识研究所带来的消极现象首先是伴随其发展所衍生出来的主体性问题以及伦理问题。目前与主体性密切相关的自由选择与自主决策已经渐渐在被人工智能所代替。随着人工智能的发展,人机融合逐渐成为一种趋势,在此基础上,何为认识主体尤为重要。让·米歇尔认为,“与机器进行融合对人类来说始终是有害的。生物体在自身机能中保有不确定性,有着随机的部分,而与机器的融合会否定掉生物体的这一特性。”[20](P63)正如乔斯林·麦克卢尔(Jocelyn Maclure)所说“人工智能算法是工具,不是被赋予精神生命能力的众生。他们存在的唯一理由是让我们的生活变得更好。”[21]因此,巩固人类的主体性,避免陷入自我失控境地的问题迫在眉睫。

事实上,技术总是与资本联系在一起的,科技决定论通常以放弃人性为代价,一般而言,剩余价值无法从人工机器中摆脱出来,技术的进步,不仅加速了资本的发展,同时也加强了人的不自由的程度,从而发展出“技术政治”,尤其是当前存在意识形态隐性传播的问题,“我们给算法灌输种族主义、性别歧视和阶级偏见,反过来它们又进一步扭曲它们”。[22]此外,尽管资本家与科学家对实现机器意识十分向往,甚至许多学者认为机器意识的实现利大于弊,[6]但相关学者同时也指出,在假设情况下能够生产复制意识的话,可能会出现资本垄断,以及加速人类不平等的情况。

此外,机器人伤人事件的频繁发生,机器意识的研发引发责任追究问题。如2015年7月,在密歇根,维修技师旺达·霍尔布鲁克的头骨被压碎,原因是Ventra Ionia工厂的机器人进入了她所在的车间,并“将一个拖车附件装配部件装到了她的头上。这个区域的房子通常被安全门隔开,但一个故障使机器人进入了霍尔布鲁克的区域,将她困在装配部件上,当场将她杀死”。相关学者认为,“在威廉姆斯和霍尔布鲁克的案例中,责任最终归咎于存在缺陷的、人为设计的安全措施。”[18](P38-39)彼得·阿萨罗从伦理角度指出,“为了维护人类的道德、尊严、正义和法律,我们不能接受一个自动系统做出夺取人类生命的决定。”[23]

因此,为了警惕人类自由意志的丧失,在研发机器意识的同时,需要充分关注相应的伦理问题,使人工智能的发展处于可控制状态,并促使技术民主化,以确保人类的主体性。

四、应对机器意识问题的策略

为确保人类生存和精神的独立性、主体性地位以及维护人类的合法权益,本文从以下三个角度考虑,以促进机器意识研究的良性发展,分别为宏观层面和微观层面,其中微观层面涉及对开发过程和使用过程的合理引导。

(一)立法监管

刘宪权认为,尽管目前弱人工智能的发展程度不足以威胁人类社会,但按照深度学习等神经网络的这种发展势头有可能导致强人工智能的实现,因此需要提前立法防范。[24]王楠也从伦理道德角度认为,需要联合各宏观层面的权力机构对其编程和程序进行审查,以规范其对社会的影响。[25]尤其是针对刑事犯罪问题,机器意识的有无,机器人的决策结果是否人为授意往往决定谁成为责任追究的对象。因此,健全的责任追究机制亟需得到建立和完善,以促进技术民主化。正如博斯特罗姆和斯图尔特罗素所认为的那样,人工智能的发展应优先考虑“控制”或“价值对齐”问题。[26]而法律能够为此提供外部保障。

(二)技术人员提前检测及自我约束

技术人员的责任主要分为两类,规范自己以及监督他人。应避免技术滥用带来的危险,因此,要确保技术人员拥有良好的职业操守,充分地向机器注入先验的利他知识,以避免技术人员将具有敌意的函数赋予计算机,同时做好提前检测,避免在软件和硬件投入使用时产生负面影响。例如,检测其算法目标是否与人类目标相一致,是否被赋予了正确的价值观等,以确保意识形态安全问题。

(三)用户保持警惕及参与监督

用户作为计算机的使用者以及人工智能的受益者,应确保自身的主体性地位不受侵犯,同时要认清机器意识的本质以及其背后的资本逻辑,避免陷入异化状态以及受到负面的隐性价值观的影响,并主动参与监督,及时反馈,将宏观层面的监管与微观层面的监督相结合,共同应对机器意识研发过程中出现的问题。

五、结语

尽管关于机器意识的研究目前出现了众多可喜的成果,但根据机器意识的研究现状来看,限于人工智能本身的局限性,其目前并不具备意识实现的可能,因此需要一种合理的路径来调和工程上对意识功能主义的理解以及哲学上对意识的形而上学的理解,其中马克思主义认识论中的实践观或许能够为此提供一个启示路径,但同时,仍需要结合其他理论,以更全面地看待意识问题。

猜你喜欢
解释性机器深度
机器狗
机器狗
论行政自由裁量的“解释性控权”
深度理解一元一次方程
深度观察
深度观察
未来机器城
深度观察
英汉互译中的认知隐喻翻译探究
非解释性宪法适用论