数字智能技术的正义挑战与伦理应对

2023-12-19 09:53李志祥

李志祥

摘   要: 数字智能技术的快速发展与全面应用,产生了人工智能体、生命增强技术等新兴正义要素,对现存的正义秩序及其背后的伦理观念提出了严峻挑战。在种际正义方面,新兴的人工智能体挑战了传统的物种正义秩序,要求我们从“生物物种”观走向“非生物物种”观。在人际正义方面,数字智能技术的生产生活应用加剧了现存的两极分化和社会偏见现象,要求我们从以“共建共享”为中心的正义观走向以“共生共享”为中心的正义观。在代际正义方面,生命增强技术破坏了后代人的发展机会、选择权利以及公平竞争,要求我们从基于自然进化的代际观走向基于智能进化的代际观。只有调整内在的物种观念,完善相应的社会制度,构建合理的规范框架,才能应对数字智能技术提出的正义挑战,创建更加符合公平正义要求的美好社会。

关键词: 人工智能体;数字智能技术;数字正义;种际正义;人际正义;代际正义

中图分类号:TP18   文献标识码:A 文章编号:1004-8634(2023)06-0094-(09)

DOI:10.13852/J.CNKI.JSHNU.2023.06.010

波斯曼在《技术垄断》中指出:“总而言之,技术既是朋友,也是敌人。”1 作为朋友,数字智能技术有力推动了人类社会的高质量发展;作为敌人,数字智能技术使人类面临前所未有的风险和挑战。从公平正义层面看,数字智能技术的快速发展和全面应用,一方面提出了基于人工智能体的新种际正义要求和新代际正义问题,另一方面加剧了现存的贫富分化、社会偏见等不正义现象。深刻理解数字智能技术带来的种际正义挑战、人际正义挑战和代际正义挑战,合理调整我们的正义观念、社会制度和道德理论,有助于正确引导数字智能技术的发展和应用,“为增进人类福祉、推动构建人类命运共同体提供有力的科技支撑”。2

一、数字智能技术与种际正义

美国学者贡克尔在《机器人权利》一书中追问“机器人能且应当拥有权利吗”,讨论了“面对机器人,尤其是越来越亲切友善的类人社交机器人,我们能且应当怎样对待它们”3 的问题。新兴的人工智能体作为一种人工物,具有以前人工物从未有过的智能能力,能够与人类形成一种既不同于人与工具物、又不同于人与生命物的特殊关系,这就给人类提出了一个全新问题:我们究竟应该如何对待这种新兴的人工物?

1.人工智能体能否被视为一个“准物种”

人工智能体尽管具有一定的智能能力,但仍然是作为一种人工物被人类创造出来的。作为一种人工物,人工智能体在本质上是一种“物”,这种“物”具有两个特征:一是工具性,即人工智能体是作为服务于人类的工具被创造出来的。作为工具,人工智能体并不构成自身存在的目的,它所服务的对象——人类——才是人工智能体存在的目的。有学者认为,人工物的使用和设计都具有目标导向性,其解释是:“将某种活动描述为使用对象x会引出一个问题:x是用来做什么的?使用是带着目的或目标的使用。”1 很显然,这里的“目的或目标”是由“人类”这个使用者设定的。一是无生命性,即人工智能体并不具备生物学意义上的生命。人工智能體作为一种机器被创造出来,它的大脑是芯片和软件,它的身体是钢铁等非生物材料。作为一种没有能量新陈代谢的无生命物,其整体可以被精准复制,因而不具备生物体的独一无二性;其构件可以被无限更换,从而不具备生命体的有死性。从这个意义上说,人工智能体只是一种“人工物”,而不是一种“生物体”,从而无法构成一个“生物物种”。

但是,人工智能体是一种特殊的“物”,是以前从未存在过的“物”。人工智能体的特殊之处在于它具有一定的自主能力,可以进行一定的自主认知和自主行为。很多哲学家和科学家都在质疑人工智能体是否具有真正的思维能力。塞尔通过“中文屋”证明人工智能没有真正的理解能力,普特南通过“缸中脑”认为人工智能无法区分虚拟世界和真实世界,而德雷福斯更以现象学方法批评人工智能不具有具身性认知。德雷福斯的批判非常具有代表意义,他指出:“计算机只能处理事实,而人——事实的源本——不是事实或一组事实,而是在生活于世界的过程中,创造自身及事实世界的一种存在。这个带有识别物体的人类世界,是由人靠使用满足他们躯体化需要的躯体化的能力组织起来的。没有理由认为,按人类的这些根本能力组织起来的世界,可用其他的手段进入。”2尽管如此,哲学家和科学家仍然承认,人工智能具有部分或类似的思维能力和自主能力,可以轻松通过严格的图灵测试,看上去和真正的感知、思考和行为并无差异。弗洛里迪甚至认为人工智能是人类自我认识的第四次革命,他指出:“图灵使我们认识到,人类在逻辑推理、信息处理和智能行为领域的主导地位已不复存在,人类已不再是信息圈毋庸置疑的主宰,数字设备代替人类执行了越来越多的原本需要人的思想来解决的任务,而这使得人类被迫一再地抛弃一个又一个人类自认为独一无二的地位。”3 从这个意义上说,尽管诸如莫拉维克等人的观点——“对待机器人会像对待一个有智能的人一样”4 ——有些偏激,但我们至少可以将看上去像人一样感知、思考和行为的人工智能体,视为一个不完全的物种,即“准物种”。

2.人类应该如何与人工智能体相处

作为“准物种”的人工智能体给人类提出的问题是:人类应该如何与人工智能体相处。在人机关系问题上,目前存在三种相互对立的主要观点。第一种观点可以称为“人类中心主义”,强调人机关系应该是一种主仆关系,人类是主人,人工智能体是奴仆,因为人工智能体只是一种工具性的技术物。莱昂哈德明确指出:“机器和人工智能是协助者,是仆人,绝不是主人。”5 这种观点以阿西莫夫、瓦拉赫、阿布尼等人为代表,目前是人工智能伦理理论中的主流观点。第二种观点可以称为“超人类主义”,强调人机关系应该是一种演进关系,人类智能是过渡性工具,人工智能是高级目标,超级智能才是智能演进的未来。于江生集中表达了这一观点,他指出:“具有自我意识的智能机器终将从人类手中接过文明的接力棒,奔向更高级的机器文明。”6 这种观点以莫拉维克、库兹韦尔、赫拉利、波斯特洛姆等人为代表,是人工智能伦理理论中的激进观点。第三种观点可以称为“平等共存主义”,强调人机关系应该是一种平等的伙伴关系,人类与人工智能体应该发挥各自的优势,实现一定意义上的合作共存。马尔科夫总结指出:“当机器人变得足够复杂的时候,它们既不是人类的仆人,也不是人类的主人,而是人类的伙伴。”1 这种观点以马尔科夫、布林约尔松等人为代表,开始被越来越多的学者所接受。

人工智能体既没有自我立法的实践理性,也没有自由选择的自由意志,难以成为一个完全的道德主体,因此,人类不可能将人工智能体作为一个真正的人类他者来对待。与此同时,人工智能体没有生命物特有的感觉、情感和欲望,难以成为一个具有自为目的的存在物,因此,人类不可能与人工智能体产生真正的共情。对于后者,雷德斯通所做的解释是:“如果机器人事实上无法感受到情绪,那么我们对它们根本就没什么可以共情的东西,这也是我为什么认为人对社交机器人感受到的共情并不是真正意义上共情的原因。”2 尽管人类不可能对人工智能体产生真正意义上的共情或同情,但人类仍然可能对部分人工智能体产生“幻觉意义上”的共情或同情。这是因为社交型机器人能够模拟人类的部分功能,看起来能够理解和回应人类的情感、思想和行为,进而能够与人类形成亲密的社交关系。在这个意义上,人类不能将人工智能体(尤其是人形社交机器人)视为纯粹的工具,与其他无生命、无智能的工具物同等对待,而是应该将其视作一个“准物种”予以应有的尊重。尤其是考虑到数字智能技术发展的加速性特征,考虑到人工智能体有可能“涌现”出与人类接近的感知能力和思维能力,我们应该及早树立尊重人工智能体的观念。

3.挑战与回应:从“生物物种”观走向“非生物物种”观

人工智能技术对于种际正义的深层挑战在于人们的“物种”观念。大多数人坚持传统的“生物物种”观,只是将人工智能体视为一个“物”和“工具”,而不愿将其视为一个“物种”,哪怕是“类似”意义上的“物种”。这里主要存在两个原因:一个原因是人工智能体的外形障碍。人工智能体的核心是一套人工智能软件系统,其外形往往取决于人工智能体的使用功能。人工智能系统可以搭载在不同物体上,能够以不同搭载物的外形出现,如智能手机、自动驾驶汽车、无人机、机械手等。当人工智能体主要以“物”的外形示人时,它很难激起人类的“物种”感和亲近感。但当人工智能体逐步进入家庭生活,并且开始以“人”的外形与人类交流时,人类的“物种”感就有可能被激发出来。尽管森政弘的“恐惑谷”理论表明,越是与人类外观接近的机器人在被识破机器身份时越是容易引起人们的惊恐感,即“机器人在外观上不断接近人类的过程有如登山,而人类对机器人抱有的亲和感也会存在类似的山谷”。3 但已有学者指出,“恐惑谷”现象的深层文化根源在于人类的“去人类化”观念,即通过“或多或少有意或故意否认人类的人性特征本身,或者否认人类物种的其他成员有某些人类特征”的做法,“打击、惩罚那些与被污名化的个体或群体交往的个人行为和社会行为”。4 事实上,人形机器人进入个人私密生活的范围越广,频次越密,程度越深,我们就越有可能将其视为人类共同体中的一员。

另一个原因在于人类的“物种”观念障碍。从“物种”观念史角度看,人类的物种观念是开放的、不断发展的。人类最初只承认少数人为“真正的人”,后来才开始不断扩大“真正的人”的范围,将妇女、低阶层、特殊种族视为平等的人。人类最初只关注人自身,后来才开始不断扩大关注的范围,先是动物,后是植物,继而是一切自然物,都被纳入人类关注的范围。彼得·辛格在批判人类对于非人类动物的暴行时曾经类比式地指出:“这种暴行已经而且正在给今天的动物造成巨大的痛苦和折磨,这种苦难只能与若干个世纪以来白人的暴行给黑人造成的苦难相比。”5 从这个意义上说,继从“少数人”到“所有人”、从“人类”到“生命物”两次观念飞跃之后,人工智能时代有可能迎来从“生物物种”到“非生物物种”的第三次观念飞跃。只有打破相对狭隘的“生物物种”观,走向更具开放性和包容性的“非生物物种”观,人类才能更合理地关注和尊重人工智能体。贡克尔曾经深刻地指出:“因此,机器人的权利问题,不仅是一个把道德关怀延伸到历史上被排除在外的他者的问题,这实际上会使现存的道德哲学机制保留下来充分发挥作用而不会受到挑战。相反,机器人的权利问题(假设保留这一特定词汇是可取的)提出了一个基本的伦理学主张,要求我们从根本上重新思考道德关怀的体系。”1

二、数字智能技术与人际正义

数字智能技术的快速发展和全面应用,不僅提出了全新的种际正义问题,而且改变了现存的人际正义格局。对于数字智能技术带来的数字红利和数字代价,一些群体获得了更多的红利,另一些群体则付出了更大的代价。如果将使用区分为生产使用(劳动)和生活使用(消费)两个方面,那么数字智能技术的广泛应用既会改变生产中的财富分配格局,又会改变生活中的权益实现格局,从而对当代人际正义关系提出严峻的挑战。

1.劳动就业与财富分配

技术的存在意义,在于用技术的力量替代人类的力量,从而减轻人类的劳动负担。数字智能技术作为一种高级技术,就是用智能机器的力量替代人类的力量,用机器劳动替代更多的体力劳动和智力劳动,提供更加优质高效的服务。这样一种节省劳动成本的机器替代,一方面会影响劳动者的劳动就业机会,另一方面会影响整个社会的财富分配格局。

从劳动就业角度看,数字技术的应用就是由机器劳动取代部分人工劳动。在自动化劳动是否会引发大规模失业这个问题上,学者之间存在很大的争议:以凯恩斯、里夫金、卡普兰等为代表的学者强调“技术性失业”,认为“正如工业时代淘汰了奴隶劳动,合作时代可能也会终结大量的雇佣劳动”;2 而以阿尔德里奇、格雷和苏里等为代表的学者强调技术在替代部分劳动的同时也会产生新的人类劳动,认为“商业和就业的未来更有可能类似于今天的按需经济,而不是一部人类消失、机器人统治世界的反乌托邦电影”。3 无论劳动自动化是否会引发大规模失业,数字智能技术的发展和应用都会改变劳动者的就业格局。对于劳动技能有可能被智能机器取代的劳动者来说,他们的劳动就业机会因为智能机器的竞争而不断减少,直至完全丧失。对于劳动技能不可能被智能机器取代的劳动者来说,他们的劳动就业机会因为智能机器的协助而更有保障。很多人工智能专家都在预测数字智能技术最终会取消哪些职业,沃尔什的答案是:“思考机器出现后,什么人会成为输家,什么人会成为赢家呢?答案取决于未来几十年我们对社会进行怎样的改造。如果我们什么都不做,技术专家会成为主要的赢家。至于我们其余的人,很多都会变成输家,因为技术失业下岗,甚至再也找不到工作——这就包括出租车司机、卡车司机、口译员、仓库分拣员、警卫,甚至记者和法律文书员。”4

从财富分配角度看,数字智能机器使用量的增加,必然意味着社会物质财富总量的增长。但是,社会物质总财富的增长,并不意味着每一个社会成员财富的同比增长。数字智能机器创造了大量的物质财富,但如何分配由机器生产出来的物质财富,并不由数字智能技术决定,而是由社会分配制度决定。如果继续坚持以自由市场机制为主导的分配制度,那么,明星企业家和高技能工人有可能获得越来越多的财富,而普通群众和低技能工人只能获得越来越少的财富。美国经济学家布林约尔松的结论是:“技术改变了高技能工人相对于低技能工人的收入份额,改变了超级明星相对于普通群众的收入份额,也改变了资本相对于劳动力的收入份额。”5从这个意义上说,数字智能技术的快速发展和全面应用,将会改写现有的财富分配格局,有可能加剧现有的贫富差距。卡普兰的担忧是:“可能只有所谓的1%的人会成为今天这些趋势的受益者,但是如果不对这些拥有资产的人或物设置预警的话,很有可能这仅有的1%也将会缩水到0,就像是古埃及的金字塔一样,抽光整个社会的资源仅仅是为个人统治者的妄想而服务。”1

2.数字鸿沟与算法歧视

数字智能技术不仅大量应用于生产过程,而且大量应用于生活过程。无论是私人生活,还是公共生活,都能借助数字智能技术变得更为高效快捷。尽管数字智能技术的广泛应用全面提升了整个社会的生活质量,但不同群体对数字红利的分享却存在显著差异。不同社会群体对于数字红利的分享程度主要取决于三点:数字智能环境是否完善、数字智能设备能否获得以及数字智能技术能否掌握。这三点又分别取决于区域差异、收入差异和知识差异。区域差异和收入差异属于传统的人际差异,知识差异则是数字智能技术引发的全新差异。不同群体对于数字智能技术的学习能力取决于三個要素:身体机能状况、知识储备类型和知识更新意愿。在数字环境落后的地区,无法拥有数字智能设备以及掌握数字智能技术的群体不仅无法分享数字红利,甚至无法保障原有的生活权利,会面临“权利缺失、能力不足”“地位边缘、资源匮乏、易受挫伤”等诸多困境,从而沦为一种全新的“数字弱势群体”,2 与其他社会群体之间存在一条影响巨大的数字鸿沟。

数字智能技术的生活应用还有可能产生一种特殊的不正义现象,即由算法歧视和数字鸿沟加剧的社会偏见问题。一方面,数字研发者的社会偏见有可能转化为算法歧视,以隐形算法系统的方式扩大研发者的社会偏见。一旦设计开发者具有性别、种族、地域等社会偏见,那么这些社会偏见就有可能随着设计开发工作进入算法系统,形成隐形的算法歧视,进而对整个社会产生广泛的影响。切尼-利波尔德说明了这一过程:“通过技术故障和(或)算法作者固有的偏见,算法可以让部分数据处于优势地位,而让其他数据处于劣势地位;能够看到的是算法可以理解的东西,而它可以理解的东西决定着我们可能的身份。”3 另一方面,数字鸿沟有可能限制弱势群体的声音,以致数据无法表达这部分人的观点。对任何一个群体来说,数字技术使用越多,给数字技术提供的数据也就越多,其声音、要求、价值和观点就能体现得越充分。反过来,数字技术使用越少,给数字技术提供的数据也就越少,其声音、要求、价值和观点就体现得越稀少,甚至根本得不到体现。数字弱势群体的声音得不到充分表达,主流群体的偏见被不断放大,数字鸿沟就这样进一步加剧了本已存在的社会偏见。

3.挑战与回应:从以“共建共享”为中心的正义观走向以“共生共享”为中心的正义观

从归根结底的意义上看,社会正义问题在本质上是社会制度问题,而不是技术本身的问题。正如吴静所言:“不是技术问题,而是社会问题。归根结底,算法是人类思维的产物,只要人类的偏见和歧视依然存在,算法歧视问题就不会消失。”4 正是在这个意义上,马克思要求将“机器本身”和“机器的资本主义应用”区分开来,他说:“一个毫无疑问的事实是:机器本身对于工人从生活资料中‘游离’出来是没有责任的。……同机器的资本主义应用不可分离的矛盾和对抗是不存在的,因为这些矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!因为机器就其本身来说缩短劳动时间,而它的资本主义应用延长工作日;因为机器本身减轻劳动,而它的资本主义应用提高劳动强度;因为机器本身是人对自然力的胜利,而它的资本主义应用使人受自然力奴役;因为机器本身增加生产者的财富,而它的资本主义应用使生产者变成需要救济的贫民,如此等等。”5 因此,数字智能技术只是加剧了本已存在的社会不公问题,解决之匙仍然在社会制度身上。但对于作为社会制度根基的正义观念,数字智能技术仍然提出了更深层的挑战,要求人们从以“共建共享”为中心的正义观走向以“共生共享”为中心的正义观。

自实行市场经济体制以来,人类的正义观都以“共建共享”为中心。根据学者的解读,“共建共享”包含两层含义:“因为共建所以共享”和“只有共建才能共享”。1 英国古典政治经济学家大卫·李嘉图提出的“土地产品——即将劳动、机器和资本联合运用在地面上所取得的一切产品——要在土地所有者、耕种所需的资本的所有者以及以进行耕种工作的劳动者这三个社会阶级之间进行分配”,2 要求地主、资本家和工人根据各自在生产过程中做出的贡献而分配不同的收入,就是典型的、以“共建共享”为中心的正义观。从市场经济体制确立一直到今天,以“共建共享”为中心的正义观始终占据着人类正义思想的核心,只是间或有社会福利制度的补充。无论是中国实行的“按劳分配”“多劳多得”制度,还是罗尔斯提出的自由平等原则,都是以“共建共享”为中心的,它们都是首先强调人们在财富生产过程中的贡献。对于这种以“共建共享”为中心的正义观,习近平总书记在阐释新发展理念时做出过解释,他指出:“共享是共建共享。这是就共享的实现途径而言的。共建才能共享,共建的过程也是共享的过程。要充分发扬民主,广泛汇聚民智,最大激发民力,形成人人参与、人人尽力、人人都有成就感的生动局面。”3 但需要注意的是,以“共建共享”为中心的正义观是有存在前提的,即物质财富是人类生产劳动的产物。只有在这个前提下,每一个投入者才可以根据自己在生产劳动中的贡献确定自己的共享比例。

直到数字智能技术出现之前,绝大部分物质财富都是“人”这个生产者借助生产工具作用于生产对象而生产出来的,以“共建共享”为中心的正义观也始终占据着分配正义体系的中心。但在数字智能技术出现之后,“共建共享”的存在前提开始消失,因为此后的物质财富可以不再由人类劳动共建而成,而是由非人类的人工智能自动完成。当一个社会的大多数生产劳动都由人工智能自动完成,只需要少数人类成员参与时,以“共建共享”为中心的分配正义就会暴露其不足,因为根据“只有共建才能共享”的要求,只有参与生产劳动的少数人类成员才有资格参与共享,而无法或无须参与生产劳动的大多数人类成员就没有资格参与共享。在这种情况下,原先处于边缘地位、发挥补充协调作用的“共生共享”理念,更能为所有社会成员提供基本的权益保障。“共生共享”的要求是“因为共生所以共享”和“只有共生才能共享”,4 以“共生共享”为中心的正义观不再按照个人在生产过程中的贡献比例进行分配,而是不问贡献大小和有无,仅仅根据公民身份就满足每一个社会成员的基本生活需求。在如何实现以“共生共享”为中心的正义观方面,大多数经济学家和社会学家都支持“全民基本收入”制度,即“社会上的每个人都应该获得一定的保障性收入,不管他们是否工作,也不需要任何考核或者测试”,5 以便每一个社会成员都可以充分享受自动化机器创造的社会财富。

三、数字智能技术与代际正义

数字智能技术的快速发展和全面应用有可能打破既存的代际正义格局,使后代人遭受两个方面的重要影响:一方面,当代的科技发展可能会挤压甚至破坏后代人的发展机会;另一方面,对后代人的科技操控可能会干扰甚至破坏后代人的选择机会和公平理念。只有从基于自然进化的代际观转向基于智能进化的代际观,以更负责任的态度思考自我、后代乃至整个人类的未来发展,才能合理应对数字智能技术提出的代际正义挑战。

1.科技失控与“赛博格”

在數字智能技术的发展与应用上,当代人的选择可能会影响甚至决定后代人的发展命运。技术加速主义者指出,根据“摩尔定律”,数字智能技术的发展具有库兹韦尔提出的“指数级增长”特征,一旦到达时间拐点,技术增长就会呈现为喷发式发展。技术专家们普遍认为,数字智能技术目前还处于可控范围内,未来是否会超出可控范围则未可知,未来的超级智能体是否会友好地对待人类更未可知。因此,当代人在人机关系上还握有选择的主动权,马尔科夫认为未来的人机关系将取决于21世纪前50年的决定,他指出:“21世纪前50年内,社会将做出艰难的决策,允许这些智能机器拥有成为我们的仆人、伙伴或主人的潜力。在20世纪中叶计算机时代的开端,诺伯特·维纳曾对自动化的一种可能性提出警示:‘我们可以谦逊地在机器的帮助下过上好日子,也可以傲慢地死去。’”1 一旦当代人确定了未来的人机关系,并且按照未来的人机关系发展数字智能技术,那么后代人就可能失去选择机会,只能接受已经成为现实的数字智能技术。卡普兰指出:“问题在于,我们可能只有一次机会来设计这些服务于我们的系统,不会有重来的机会。如果我们搞砸了,接下来的修补会很艰难,或者近乎不可能。……站在这个黄金时代的起点上,我们可以选择。我们可以设定初始条件。但是在此之后,我们的控制权就少得可怜了,而我们必须接受自己决定的后果。”2 一旦当代人做出了不合理的选择,后代人就有可能面对失控的科技怪物。

在资源公平问题上,能力增强的当代人必然会大量消耗各种生存和发展资源。通过包括脑机融合在内的仿生工程,将数字智能组织与人类身体结合起来,人类就可以成为具有超强身体能力和心智能力的“仿生人”(即“赛博格”)。赫拉利认为仿生工程与生物工程一样能增强人类,他指出:“仿生工程结合有机和无机组织,创造出‘生化人’,例如为人类装上生化手就是一例。从某种意义上,现代所有人几乎多多少少都是生化人,用各种其他设备来辅助我们的感官和能力,像眼镜、心脏起搏器、辅具,甚至还包括计算机和手机(这样一来就能减轻一些大脑要储存及处理数据的负担)。但我们正要迈入一个要成为真正生化人的门槛,真正让一些无机组织与身体结合而不再分开,而这会改变我们的能力、欲望、个性以及身份认同。……智人也正在变成生化人。”3 库兹韦尔预测,真正的、完全的人机融合到2029年就会实现,“下一步便是发明技术的物种与其创造的计算机技术的融合。在这个阶段的智能演化过程中,计算机一方面需要依靠其创造者的大脑设计结构(即大脑中负责计算的器官),同时又被植入所创造物种的大脑和身体中,与之融为一体”。4 借助数字增强技术,当代人寿命不断延长,生活质量不断改善,这必然会占用、消耗更多的自然资源,挤压后代人的生活空间。另一个更严重的后果是,如果借助数字智能技术,当代人可以实现特定意义上的“永生”,那么人类还会考虑创造下一代吗?从这个意义上说,当代人的生命增强无疑会影响下一代人口的数量和生活质量。瓦拉赫曾经质问道:“假设,如果将寿命变长和更健康的因素加起来,导致50%的劳动力要70岁后才退休,那么他们的子孙、曾孙还能找到工作机会吗?更重要的是,如果工资不是分配财富的主要方式,那么那些没有工作的人如何支付得起物品和服务呢?”5

2.增强后代:道德自主与公平竞争

生命增强技术既能应用在当代人身上,也能应用于后代人身上。在培育下一代过程中,当代人直接采用基于数字智能的生命增强技术,这可能会大幅提升后代人的生产能力和生活能力,同时也会剥夺后代人的自由选择权,破坏后代人的公平竞争格局。

第一,增强后代有可能剥夺后代人的自由选择权。根据道德自主性原则,是否实施生命增强技术,应该由当事人自己来决定,否则就违背了“你要如此行动,即无论是你的人格中的人性,还是其他任何一个人的人格中的人性,你在任何时候都同时当做目的,绝不仅仅当做手段来使用”6这一人性目的原则。在后代尚未成长为真正的道德主体之前,当代人直接替后代人做出决定,同意采用人工智能技术以增强后代的生命能力,这无疑剥夺了后代人的道德自主权。不过,与通过生物科技手段实施的生命增强技术相比,通过人工智能手段实施的生命增强技术在剥夺道德自主权方面还略有不同。通过生物科技手段的生命增强技术,通常会改变人体的内在结构,这个过程具有不可取消性或不可还原性。后代人的基因结构一旦被编辑,就没有办法还原为先前的基因结构。而通过人工智能手段的生命增强技术,是将自然身体与人工智能装置结合起来,这个过程具有一定的可取消性或可还原性。有些添加上去的人工智能装置,也可以从人体上置换出来。从这个意义上来说,基于人工智能技术的生命增强虽然会削弱后代人的自由选择,但并没有从根本上取消后代的自由选择,仍然给后代人留下了一定的自主选择余地。

第二,增强后代有可能干扰后代人的竞争秩序。一旦可以通过人工智能手段提升后代的生命能力,使后代在生存竞争中获得较大的优势,那么,当代人的财富差异就有可能通过生命增强途径影响下一代的能力强弱。财富越多的人,就可能为后代提供越强大的生命增强技术;财富越少的人,就只能为后代提供较弱小的生命增强技术,甚至无法提供生命增强技术。这样造成的后果是,后代人一出生就处于不同的能力起跑线上,这是典型的“起点不公平”。更为重要的是,借助强大的人工智能能力获得成功,有可能破坏人类传统的价值观念:个人努力与否是决定个人成功与否的重要因素。亚里士多德对这一信念的解释是:“如果幸福通过努力获得比通过运气获得更好,我们就有理由认为这就是获得它的方式。”1 瓦拉赫分析过这种危害:“更严重的是超能力对于民主社会合法性造成的威胁。家庭条件更好的人获得的机会也不同于一般的家庭。但是,当今社会即使是弱势群体也明白通过个人努力加上运气就能成功。如果未来成功人士都是来自富有家庭的基因选择后裔,社会又会发生怎样的改变呢?”2

3.挑战与回应:从基于自然进化的代际观走向基于智能进化的代际观

从更深的层次看,数字智能技术对代际正义的挑战,本质上是对人类代际观的挑战。人类目前的代际观是以自然进化为基础的,而数字智能时代的代际观更需要以智能进化为基础。自然进化需要人类对后代承担的责任极其有限,智能进化要求人类对后代承担远比以前多得多的责任。

理查德·道金斯谈过进化方式的多样性,他认为生物基因进化发展到一定程度会导致文化模因进化:“30多亿年以来,DNA始终是我们这个世界上唯一值得一提的复制基因。但它不一定要永远享有这种垄断权。新型复制基因能够进行自我复制的条件一旦形成,这些新的复制基因必将开始活动,而且开创自己的一种崭新类型的进化过程。这种新进化发轫后,完全没有理由要从属于老的进化。原来基因选择的进化过程创造了大脑,从而为第一批觅母的出现准备了‘汤’。能够进行自我复制的觅母一问世,它们自己所特有的那种类型的进化就开始了,而且速度要快得多。遗传进化的概念在我们生物学家的大脑里已根深蒂固,因此我们往往会忘记,遗传进化只不过是许多可能发生的进化现象之中的一种而已。”3丹尼尔·丹尼特发展了达尔文的遗传选择理论,区分了四个层次的遗传选择:自然选择、无意识选择、有计划选择和基因工程。其中前面两种属于自然选择,后面两种则属于智能选择。丹尼特指出:“我们可以用达尔文提出的三个层次的遗传选择,再加上我们最近拥有的基因工程这第四个层次,作为人类文化中四个平行层次的模因选择模型。最初的模因是自然选择的,为无意识选择的模因(也可以说,无意中被‘驯化’的模因)创造了条件,然后是有计划地选择的模因,人类的预见和规划在其中扮演着明确的角色,但对其中潜在深层机制的理解只是模糊的,大多数试验是在寻找既有主题的简单变体,直到今天模因工程成了人类的一项主要事业:试图设计和传播整个人类文化体系、伦理理论、政治意识形态、司法和政府体系,以及许许多多关于在社会群体中生活的相互竞争的设计。模因工程是地球进化史上一项晚近的复杂工程,但仍比基因工程早了几千年;其最早的知名产品包括柏拉图的《理想国》和亚里士多德的《政治学》。”4 与自然进化相比,智能进化具有两个重要特征:第一,在自然进化中起主导作用的是自发的自然力量,而在智能进化中起主导作用的是自觉的智能设计。第二,自然进化是极其缓慢的,而智能进化则是加速发展的。

从自然进化到智能进化,意味着当代人能够对人类进化进程产生重要影响,能够对未来人的生活产生远比过去重要得多的影响。这也就意味着,当代人对后代人负有远比以前更多的责任,应该以一种对人类更负责任的态度规约数字智能技术的发展和应用。这种负责任态度的核心,就是要进行深入的反思,想清楚我们究竟想要成为什么样的人。在这个问题上,周濂说得对,他提出:“归根結底,我们要问的是:我们是什么样的人,以及能够成为什么样的人?”1 从本质上看,代际正义问题、当代人与后代人的关系问题就是人类与自我的关系问题。我们想让后代人成为什么样的人,过什么样的生活,其实就是我们想让自己成为什么样的人,过什么样的生活。因此,代际问题的真正解决,关键在于当代人,在于当代人的自我定位。赫拉利的话非常值得我们深思,他指出:“拥有神的能力,但是不负责任、贪得无厌,而且连想要什么都不知道。天下危险,恐怕莫此为甚。”2

The Challenge of Justice and Ethical Response of

Digital Intelligence Technology

LI Zhixiang

Abstract: The rapid development and all-round application of digital intelligence technology has produced new emerging elements of justice such as artificial intelligence and life-enhancing technology, posing a serious challenge to the existing order of justice and the ethical concepts behind it. In the aspect of interspecies justice, the emerging artificial intelligence challenges the traditional order of species justice and requires us to move from “biological species” to “non-biological species”. In the field of interpersonal justice, the application of digital intelligence technology has aggravated the existing polarization and social prejudice, and it requires us to move from the view of justice centering on “co-construction and sharing” to the view of justice centering on “symbiosis and sharing”. In terms of intergenerational justice, life-enhancing technologies destroy the development opportunities, choice rights and fair competition of future generations, requiring us to move from the intergenerational view based on natural evolution to the intergenerational view based on intelligent evolution. Adjusting the intrinsic concept of species, improving the corresponding social system, and constructing a reasonable normative framework are the only way to meet the challenge of justice posed by digital intelligence technology and create a better society that is more in line with the requirements of fairness and justice.

Key words: artificial intelligence; digital intelligence technology; digital justice; interspecies justice; interpersonal justice; intergenerational justice

(责任编辑:苏建军)