数智时代的人文危机与“新人文”建设

2024-05-08 11:57专栏主持人刘京希
关键词:数智器官人工智能

专栏主持人:刘京希

主持人语:

有专家预言,在2030年左右,机器智能将与人类智能相当,“奇点”即将到来。如此便意味着,人类即将迈入事实上的人工智能时代。人工智能机器作为将思维、感知和行动一体内嵌与循环的模型,不仅拥有“类人的大脑”,能够“独立思考”,甚至进一步“发育”拥有了“类人智慧”乃至“超人智慧”,构成对于人类生存与发展的严峻挑战! 面对自有人类以来世界未曾有之的数智时代大变局,人类及其文明将向何处去? 进而言之,“以人为中心”的人文世界将何去何从? “人之为人”的人类意识世界即人文精神是否将遭遇空前的深重危机? 数智时代的 “新人文”呈现何种样态,又当如何建设? 一系列关乎人类前途与命运的重大话题接踵而至,不得不令人有所思考。鉴于此,本期笔谈三篇文章《如何应对“数智时代”对人文精神的大挑战》《人究竟是什么——新技术视域下人本质之思考》《生成式人工智能的创新潜能:三个误解及其衍生问题》,就上述话题予以研讨,以飨读者。

如何应对数智时代对人文精神的大挑战

刘京希

(山东大学 儒家文明省部共建协同创新中心,山东 济南 250100)

收稿日期:2023-11-10

作者简介:刘京希(1961—),男,山东齐河人,山东大学儒家文明省部共建协同创新中心教授,主要研究方向:政治生态理论。

早在1950年,阿兰-图灵在《计算机器与智能》一文开篇即提出:“我要研究的问题,是‘机器可以思考吗?’”[1]更进一步,1956年“人工智能”概念破土而出①1956年8月,在美国达特茅斯学院,约翰·麦卡锡(John McCarthy,LISP语言创始人)、马文·闵斯基(Marvin Minsky,人工智能与认知学专家)、克劳德·香农(Claude Shannon,信息论创始人)、艾伦·纽厄尔(Allen Newell,计算机科学家)、赫伯特·西蒙(Herbert Simon,诺贝尔经济学奖得主)等科学家会聚一起,讨论用机器来模仿人类学习以及其他方面的智能等问题。两个月时间的讨论虽然没有达成共识,却为会议内容起了一个名字:人工智能。因此,1956年被公认为人工智能的元年。“让机器来模仿人类学习以及其他方面的智能”也就成了人工智能要实现的根本目标。参见许正军:《一文读懂人工智能简史:1956年,一群科学家决定用机器模仿人类》,https://it.sohu.com/a/535682170_378467。。针对“机器可以思考吗?”这一惊天设问以及“人工智能”概念的萌生,我们可否如此定性:此一划时代重大议题及其概念的提出,意味着“数智时代”的端倪早在20世纪中叶已然显露! 因为以此为发端的人工智能技术演进,呈现日新月异的加速度态势;“人工智能”早已从概念变身为现实,人类已经迈入事实上的人工智能时代,人工智能机器作为将思维、感知和行动一体内嵌与循环的模型,已然不仅拥有“类人的大脑”,能够“独立思考”,甚至进一步“发育”而拥有了“类人智慧”乃至“超人智慧”。如此,在计算机技术日新月异,虚拟现实、生成式AI如白驹过隙、令人目不暇接的当下,我们再也无由回避如下严肃而不免沉重的话题:“人类是否会因失去思考能力而沦为机器的附庸,甚至最终为机器所取代?”

进而言之,得益于科技的神速进步,人类俨然已进入了数智时代——用数据沟通虚拟与现实,让人与机共享智慧,数据与智慧结合以赋能未来[2]。即如库兹韦尔所预估,21世纪的科技成就,将会是过去一千年成就的总和,并预言在2030年左右,机器智能将与人类智能相当,“奇点”即将到来[3]。由此可知,在可预见的“数智”时代,未来的人机共存将进一步走向“人机共享智慧”。虽然,业界认为,人与机器之间的关系,不应被定义为相互替代,而是相互协作,优势互补,共赴未来。就此而言,“数智”时代所谈论的“智”,并不是传统意义所谓之机器的人工智能,而是人和机器所共有“智慧”的存量与增量[2]。但就人工智能的迅猛发展所呈现的山雨欲来的强力态势而言,我们是否也可以这样认为:“聪明反被聪明误”,人类在自觉又不自觉的“梦游”状态之中,扮演起了自掘精神坟墓的“掘墓人”角色,一手促成数智技术之于人类精神世界的统治甚至统驭,又反手将自身塑就且历经数千年传承的精神文化送上绝路,因而陷于前所未有的人文大危机? 人的主体性地位是否面临前所未有的“数智”威胁? 为捍卫经迭代努力而来的精神文明成果,人类又当如何应对数智时代的大挑战?

一、人类即将陷入前所未有的人文大危机?

如前述,人类正在迈入数智时代的门槛,得以便捷地用数据沟通虚拟与现实,让人与机共享智慧,数据与智慧结合,以赋能当下与未来。尤其是,“数智”强调数据的价值与“智慧”的共享,这是“数智”时代“数”与“智”的核心含义。但是,人工智能绝非仅凭数据与“智慧”就足以影响未来,更关键的作用机制是“数智赋能”,这就涉及“数智”技术的底层架构和扩散机制[2]。着眼于“有用之用”的现实功利和功用追求而言,迥异于大机器时代或电气时代,以人机共享智慧为标志的数智时代的来临,确乎全方位地提升着社会生产力,这种提升甚至用“N+”的正整数集来表达也不为过。而且在可见的将来,人工智能技术只会是倍速发展,不可能就此止歇。就此而言,“超数智时代”也许正在步步逼近。届时,社会生产力的再次大幅提升,也就在情理之中了。因此,人们将数智时代的来临所引发的社会生产力的大变革和大飞跃,视作人类历史上的工业4.0,即第四次工业革命。

问题在于,数智时代乃至超数智时代所带来的社会变革,并非止步于生产力层面,而是必然会进入到社会关系乃至人的精神领域。这是因为,具备了“类人智慧”甚至“超人智慧”的人工智能,具有对信息进行解释、对变化进行识别和自适应进而改进结果的非凡能力。以此,人工智能也就由冰冷的机器变身而为具有自由意志和主体自觉的“超人”,它不仅可以自我学习,而且还会进化为一种具有自我意识的“类生命体”。随着其进一步的迭代进化,以至试图摆脱人类的控制,从人类手中抢夺世界的“决定权”,进而返身干预甚至控制人类成员的精神活动即精神自由,乃至整个精神世界,在事实上将人类降维为被动性物理与精神存在,将自身“修炼”而成“超生命体”,也未可知。也许正因如此,2018年3月,在美国得克萨斯州奥斯汀举行的“西南偏南”科技大会上,特斯拉和SpaceX 创始人埃隆·马斯克发出警告:“请记住我的话,人工智能远比核武器更危险。”[4]如此来看,我们是否可以做如此判断:缘于数智时代乃至超数智时代的来临,以及与之相伴随的人工智能失控风险,人类或将陷入前所未有的人文大危机。

二、人的主体性地位是否面临前所未有的威胁?

我们说,缘于“数智时代”乃至“超数智时代”的来临,人类或将陷于前所未有的人文大危机。此一研判所依据的一个重要指标,是看拥有“超人智慧”的人工智能,是否对人的主体性地位构成潜在威胁。当然,人工智能是否对人的主体性地位构成潜在威胁,在于如下两个前提条件是否得以满足:一是人工智能在纯粹技术层面的自我发展程度;二是在人类法度上对人工智能的发展是否有所制约。

事实上,就人工智能在纯粹技术上的自我发展程度而言,近几年来显然已经驶入加速发展的快车道,而非踯躅不前。Open AI的例证,可予充分说明。该公司从2018年发布并推向市场的GPT-1,到2023年3月推出的GPT-4,中经GPT-2、GPT-3、GPT-3.5,虽已四代更迭,但历时不过五年左右。从功能上看,GPT-1模型仅可用于生成文本、问答和文本分类等任务;而GPT-4模型在语言生成方面表现得更加出色,可以生成更自然、更连贯的文本段落,并且具有更强的推理能力。尤其是GPT-4模型,还支持多轮对话,可以更好地理解用户的意图和需求[5]。此外,可自我学习的马斯克人形机器人也即将量产。

谈及对人工智能的发展是否有所制约,尤其是法度方面的限定,目前来看,虽已显现端倪,但尚未见真章。鉴于人工智能技术的飞跃式发展,以及此种发展之于人类主体性地位的前所未见的严峻挑战,业内外有识之士早已有所警觉甚至忧惧,担忧人工智能将如脱缰之野马,挣脱人类的驾驭进而反噬人类。前述马斯克 “请记住我的话,人工智能远比核武器更危险”的警告,不可谓不严厉。就在2023年3月份,马斯克等千名全球科技人士联名发布公开信,呼吁暂停高级人工智能的开发。公开信还详细描述了具有人类竞争力的人工智能系统以经济与政治干扰的形式对社会和文明的潜在风险,并呼吁开发者与决策者在治理和监管方面进行合作。信中写道:“只有在我们确信它们的效果是积极的,风险是可控的情况下,才应该开发强大的人工智能系统。”[6]此外,近期发生在Open AI的CEO 被解雇事件,更加预示着人工智能之于人类前景的无比重要性。人工智能公司Open AI首席执行官、“有效加速派”(激进派)代表人物阿尔特曼,与“超级对齐派”(保守派)代表人物苏茨克沃,就AI研发的进展速率产生分歧。在阿尔特曼看来,AI不过是限于技术层面的智能算法,因此希望更快地部署强大的AI,以使Open AI能够保持对于竞争对手的领先地位;同时倾向于快速实现生成式AI产品的商业化,部署横跨全球的消费者业务。作为一位经验丰富的AI研究人员,苏茨克沃则更加注重AI产品的安全性。在看到GPT-4的威力后,苏茨克沃在公司内部创建了一个新的“超级对齐派”团队,旨在探索确保人工智能技术未来版本不会造成伤害的方法[7]。阿尔特曼之被解雇,正是缘于公司内部对AI与人类关系的认知差异。也是在近期,英国政府公布了围绕人工智能建立“适应性强监管框架”的提案。该国政府在最新发布的一份政策文件中概述了其做法,即把管理人工智能的责任分配给人权、健康与安全以及竞争方面的监管机构,而不是创建一个专门针对这项技术的新机构。

综上,围绕人工智能产业何去何从而出现的歧见与举措,无论是业界的忧戚与治理呼吁,还是头部公司内部的分歧与措置,抑或英国政府的监管提案,无不意味着人工智能的进一步发展必将引致的之于人类文明的潜在风险,正在触发全球范围的高度警觉,因而从行业内部、民间社会到政府部门,一系列限制性举措已然走上前台。问题在于,这些限制性举措尚未上升至国别乃至国际组织的法度性规定和一体性硬约束,因而其持续性效能究竟如何,不免令人生疑。

三、如何应对数智时代对人文精神的大挑战?

面对人工智能技术的新进展,有一幅漫画做如此调侃:“人工智能方向是不是搞错了? 本来想是AI帮我们洗碗扫地,我们有空就去写诗画画。现在AI开始写诗画画了,而我们还在洗碗扫地。”虽属调侃,却也部分地揭示出人工智能沿着当下路径的进一步发展,必将造成的对于人的主体性地位的挤压,使之由人工智能的服务标的变身为服务于人工智能的“工具”。人文精神的未来前景,取决于科学技术进步的路向及其限阈,即人类对于科学技术进步及其态势的制约程度。

人工智能技术模式与传统科技模式最为根本的区别,即在于试图以“精神性技术追求”取代一直以来的“物理性技术追求”。如此,不免触及一个严峻的、关涉人类未来命运的重大命题:AI面前,人将非人?或曰:AI面前,人类将何去何从?

显然,在可知的大千世界,唯有丰富的精神界域,包括思想、信仰、价值观、情感、灵性、意识和理性,乃人之为人的独有质性,为充任万物之灵的人类所独占和独享。其中,尤以表现为对人的尊严、价值、命运的维护、追求和关切为本的人文精神,至为崇高而神圣。人文精神的此一本质内核,又具体落定为人格的独立、自由和尊严。

已如前述,在可以预见的“超数智时代”,人工智能将会以远超倍速的速率一往无前。当下棘手的问题在于,如何一劳永逸地规避或解除人工智能之于人类精神的“技术压迫”甚或反噬? 为人工智能的进一步发展划定一条不可触碰的“高压线”,恐将是不二法门和当务之急。

那么,这条“高压线”的界标究当何在?

既然丰富的精神世界以及人文情怀,乃人之为人的独有质性,且这一独有质性进一步具象和彰显为崇高而神圣的人文精神的本质内核,即人格独立、人格自由和人格尊严,那么,在可以预见的“超数智时代”,制约人工智能发展的那条“高压线”的界标,也便赫然入目,这便是人之为人的人格独立、人格自由和人格尊严。比如人的隐私权、肖像权、性别平等权以及知识产权,在生成式人工智能的开发运用中不应遭受侵犯。换言之,人的主体性价值与人的精神自由的保持及其弘扬,乃衡量人工智能发展路向和速率的试金石。凡是危及人的主体性价值存在、导致人文精神衰变、人的精神自由被剥夺、人的意识世界被掏空的人工智能技术,即触及了那条“高压线”,属予以制约之列。

进一步来看,这条“高压线”又当如何划定且不可触碰?

近期,美国联邦法院裁定,人工智能(AI)生成的艺术作品不受版权保护,因为这些作品并非由人类生成。同样,欧盟委员会一直在积极推动AI监管政策,并发布了有史以来首个AI监管框架草案。它采用基于风险的方法,根据安全风险级别对AI系统实施禁令[8]。国内相关部门也有所动作,国家互联网信息办公室于2023年4月发布了《生成式人工智能服务管理办法(征求意见稿)》,对生成式人工智能服务进行了框架性规范[9]。

但问题的根本在于,人工智能(AI)产业所面对的是一个全球流通的统一大市场。因此,如何以法规的形式,在全球范围内划定一条不可触碰的一体性“高压线”,就显得至为关键。其实在2021年,联合国教科文组织和成员国就通过了各成员国自愿参加的人工智能伦理框架,对人工智能引入伦理影响评估,以测评人工智能的环境影响,并确保人工智能促进性别平等,不用于大规模监测[10]。但以联合国教科文组织牵头且成员国自愿参加的人工智能伦理框架,属于伦理层面的软约束条款,因而其实施效果也便可想而知了。如果更进一步,将联合国教科文组织牵头制定的人工智能伦理框架抬升为法律约束框架,交由联合国司法机构监督实施,并以之促动联合国各成员国,依据联合国相关法律框架制定相应的法律规则,实现之于人工智能发展方向的一体性双层硬约束,以彻底解除人类之于人工智能技术一路狂奔的人文忧思,保障人文精神以“人文数智”的内质与新形态在“超智能时代”的承继与延展,及其与人工智能发展的有机互动,以形成数智时代的新人文,即“数智人文”,则数智时代对人文精神所形成的严峻挑战,指日可化解矣!

人究竟是什么——新技术视域下人本质之思考

邓曦泽

(四川大学 国际关系学院,四川 成都 610064)

收稿日期:2023-12-10

基金项目:国家社会科学基金一般项目“‘技术权力’主体化的政治学研究”(21BZZ001)

作者简介:邓曦泽(1973—),男,四川泸州人,博士,四川大学国际关系学院教授、博士生导师。

引言:人类思想史的大问题与老问题

人究竟是什么? 这个问题既不急迫,也不影响人们的世俗生活、日常用度,但对于人的生存意义建构来说,它却是大问题,也是莫衷一是的老问题。关于该问题,几乎所有稍微成熟的文化,甚至较为系统的社会思想和理论,都有自己的看法。例如,在中国先秦思想中,“人为万物之灵”[1]180;在亚里士多德看来,人是政治动物;在现代经济学及社会科学看来,人是追求自己最大利益的理性的自利者。那么,在新技术已表现出改造身体的能力的当今,可否对人的本质做出一些新的思考?

一、信号:我们看到的世界

首先,让我们的思考从我们看到的世界出发。

人们看到五彩缤纷的世界,而世界由无数的事件(event)构成。可以将所有事物(thing)都视作事件,如一朵花(的存在)也是一个事件。

对于事件,关键不是它本身是什么,因为它本身(或本质)是无法确知的,而是主体能认识什么。认识是广义的,包括所有感官和思维的活动。可以通过模拟来理解这个问题。假如眼前有两张图片,第一张被布所遮盖。此时,观察者(假定都为正常男人)对这个图片并无直接的认知,因而也没有具体感受。第二张是著名影星玛丽莲·梦露的正装照。观察者对这张图片可能会有一些感受,觉得梦露很漂亮、很有气质之类。然后,把盖在第一张图片上的布揭开,原来这张图是梦露的妖冶艳照。此时,观察者会感受到梦露的魅力和性感,甚至产生一定的生理反应。由此产生一个疑问:梦露早已去世,观察者所看到的并非真人,而是图片,为什么图片会引发观察者的认识和心态变化呢? 观察者究竟看到的是什么? 或许可以引入一个关键词“信号”来回答这个问题,即观察者看到的是信号。但这又会引发新的疑问:人们日常觉知到的事件(或事物)也都是信号吗? 例如,观察者看到一张桌子,他看到的也是信号吗? 对此,本文的回答是:的确如此。观察者看见一张桌子,并用手去摸,用鼻子闻,用尺子量,然后得到一个判断:“这是一张白色的、方形的、硬的、冷冰冰的、油漆味的、面积为0.5平方米的桌子。”深入分析,即便我们“真实地”(引号表示强调,意指我们通常所言的真实)接触一个事件,我们得到的也是关于(about)事件的信号:“白色”“方形”“硬”“冷冰冰”“油漆味”“0.5平方米”。在此,物质在先还是意识在先,已经不再重要,重要的是:主体认识到什么? 无论唯物主义还是唯心主义,事件都只能以信号的方式呈现,不能以信号呈现的事件都是无意义的。不过,由于人的认识能力不是一成不变的,它可以发展变化,所以信号以何种方式呈现又与主体的认识能力密切相关。此犹如,对1000年前的人说氧气、氢气、紫外线、电子、黑洞是毫无意义的。这不是说这些东西不存在,而是说彼时人们的认识能力还无法将它们作为一个独立的事件识别出来。例如,氧气、氢气都被笼统地包含于空气之内,而紫外线则被笼统地包含于光线之内。这就意味着,无论是真实地还是虚拟地接触,主体所接触的世界都以信号的方式向他呈现。这也就是贝克莱的主观唯心主义很难被驳倒的原因。霍金也说:“我们看到的宇宙之所以这个样子,乃是因为我们的存在。”[2]116概言之,世界只能以主体的认识和表达来呈现,在认识和表达之外的世界是无意义的。或许有人会反驳:有些人对世界的某些方面的认识和表达是模糊的,但这不等于这些方面不存在。的确如此,但这只能理解为:如果认识和表达是模糊的,相应的世界也是模糊的。这与上述观点并不矛盾。

二、能量+信号:人对世界的需求

世界以信号的方式向主体呈现,但信号不是凭空而来的。所有信号都是能量以一定规则运动的结果。如果能量的运动毫无规则可言,那么主体只能接收到完全无序的信号,而不可能产生事件与事件的稳定区分,因而世界将呈现为一片(毫无意义的)混沌。例如,如果三角形与长方形、红色与蓝色等等的信号没有稳定性,那它们将不可区分。而一种信号之所以是稳定的,是因为在特定规则之下特定能量的运行是有序的。关于规则,此仅做简论,而将论述重点集中于能量。人与世界打交道是要获取两种东西:能量和信号,而信号则是最终目的。这里可以通过对生理器官的分析来理解。

胃的功能是什么? 直接看,是消化;间接看,是获取能量。眼睛的功能是什么? 直接看,是观察;间接看,是获取信号。依据功能不同,人的所有器官都分属两大系统:能量系统和信号系统。部分器官则同时属于两个系统。由此,可以将器官分为三类:获取能量的器官,如牙齿、食道、胃、小肠、大肠、肛门、膀胱、尿道、肝脏、心脏、肺等;获取信号(但不分析信号)的器官,如眼睛、耳朵;既获取能量也获取信号的器官,如鼻子、舌头、手、脚。脚通过空间移动,扩大获取能量和信号的范围;手在脚所提供的空间范围内获取能量和信号。大脑中枢最为独特,它兼有汇总、分析和发送信号的功能①本文是基于《行走在人与超人的边界上——一个外行关于人工智能的初步思考》(《西南民族大学学报》2017年第10期)一文的进一步拓展与深化。。

人向世界获取能量与信号,但能量与信号的意义并不是相同的,信号是目的,能量是工具。人对能量的需求是有限的,对信号的需求则是无限的。人吃饱喝足后的各种游玩都是为了获取各种各样的信号。我曾做过一个粗略的比较,当今的人跟汉朝的人相比,当今的人获取的能量只比后者多几倍,但获取的信号则可能多成千上万倍。当今人们(以中等发达国家为标准)的能量获取已经达到甚至超过身体的需求,许多人对食物的挑剔不再是为了获取能量,而是获取新鲜和愉悦的信号。人们获取能量的动力在减弱,但获取信号的动力却在增强。对令人愉悦的亲情、友情、爱情、艺术、旅游、游戏等的获取,都可以理解为对令人愉悦的信号的获取(这可以解释为什么人们经常会喜欢虚假的甜言蜜语)。一切感受,无论是快感还是不适感,都必然且首先是对信号的感受,然后才是从信号中分析出对于主体来说有意义的信息。

由此可以得出一个阶段性结论:人与世界的关系是人向世界获取能量与信号,并且能量是工具,信号是目的。

三、对生理器官的解构

从生物演化角度看,包括人在内的生物获取能量和信号的方式都是非常稳定的,食物提供能量,然后获取其他信号。那是否可以发挥想象力,设想如果有了获取能量和信号的新方式,人会怎么变化?

人拥有器官,但人(指非专业的普通人)并不了解自己的器官,更不能控制自己的器官。例如,当胃发生疼痛时,人可能会抱怨:“我的器官为什么不听我的话,要和我作对?”在新技术视野下,完全可以重新思考器官的功能及其替代。假如人类发明了一种新技术——大脑能量输入技术,这种技术可以直接为中枢神经提供能量,那么,人的诸多器官(如上面所提到的所有服务于获取能量的器官如胃、肠、肛门等)还有存在的必要吗? ——不必要。并且,人体获取单位信号所需要的能量还会大幅减少,即信息能耗率大幅降低。其原因在于,一方面,目前的生物人的大脑能耗只占身体能耗的小部分,许多能量都用于维持除开大脑的整个身体的运转;另一方面,食物的能量转化率也很低,所以,为了给大脑提供一定的能量,实际能耗远远大于大脑能耗。这意味着,如果发明了大脑能量输入技术,那么为大脑提供能量的庞大的物资生产系统将不再必要。尽管人类能否发明大脑能量输入技术尚不明确,但其理论可能性已经显现[3]78-85。

进一步,如果能发明出脑机信息互换技术——脑机技术,那么人的信号获取器官(如眼睛、耳朵等)也不再必要。事实上,脑机技术已取得重大进展,埃隆·马斯克的Neuralink公司的脑机技术已获美国食品和药品监督管理局(FDA)的人体试验许可,进入临床试验阶段。

如果大脑能量输入技术和脑机技术都获得巨大突破,那么生物意义的人就被彻底解构了。人不再需要任何生理器官来提供能量和信号,但人的意识依然存在。人脑可以被改造为一颗小小的芯片——人就被非生物化了,即从碳基生命转变为硅基生命。只要实现了大脑能量输入技术和脑机技术的巨大突破,二者再与互联网和人工智能相连接,人脑就会被改造为体积非常小且具有智能的超级计算机。这个计算机可以称为“超人”,它的信息与原来的生物人大脑的信息是互通的,即它的信息与生物人的记忆具有连续性。于是,“超人”可以对无穷无尽的信号进行任意组合,从而实现信号自由,进而实现信息自由,并实现永生。这种信号自由和信息自由可以为我们(生物人)所认识,因而我们(生物人)的大脑(意识)作为“超人”的一个构成——虽然只是很小且越来越小的构成——也能实现信号自由和信息自由。

四、“超人”还是人吗

但是,被改造为“超人”的“人”还是人吗? 既不是,又是;且在本质上,很难说它不是。

直观地看,自人类具有自我意识和认识能力以来,人类所有的自我经验和对他人的经验都是:人是有身体(各种除开意识的生理器官的集成)的,没有例外。这里的“身体”是生物意义的,它具有空间属性,并表现为各个器官的有机组合。很难想象一个没有眼睛、鼻子、耳朵、嘴巴、牙齿、胃、肠道、肛门、膀胱、尿道、心脏、脾脏、肺等器官的东西可以称为人。在这个意义上,生理器官构成人的必要条件。那么,因为“超人”没有生理器官,所以“超人”不是人。但是,这个必要条件只是人类对人的特征的经验归纳,而非逻辑必然,因而对这个必要条件是可以质疑的:一方面,人虽然有身体,但另一方面,人却总想超越自己的身体(限制)。置于欲望(目的)与工具这对关系中看,人从来都是把器官当工具的。把身体(的各个器官)养护好,能更灵便地活动,尽可能延长寿命,就是为了满足更多的欲望。而所有欲望的满足都是获取各种信号,并将信号解析为自认为有意义的信息。而且,为了满足更多的欲望(即获取更多的信号),人们都期望扩展生理器官的功能。许多民族的古代文化都有相关的神话、传说、文学、艺术,例如《西游记》中的千里眼、顺风耳,再如西方传说故事中的大力士,等等。这一方面佐证了人是将信号获取作为目的,而将器官作为获取信号的工具;另一方面也佐证了人类一直怀有增强器官功能的期望。但特定时代的技术水平会在一定程度上限制人们的想象力,因而会限制古人对器官功能的想象。古人无法想象,人类科技的发展甚至超过他们的某些玄想。例如,无限即时通信已超过了千里眼、顺风耳;而大型机械早已超过大力士。

如果生理器官的功能不但可以被替代,而且大幅增强,还可免受器官病变带来的痛苦,人会选择放弃自己的器官吗? 恐怕多数人是愿意的。而本文更关切的问题是:当全部器官都被替代,人还是人吗? 这似乎让人们难以回答。但根据人类对人的理解的主流观念,这个问题并不难回答——器官被全部替代的“超人”仍然是人,因为在主流观念中,人的本质就是超越身体的;或者说,人从来就期望超越自己的器官。“人为万物之灵”,是中国古代的主流观念,而这“灵”显然不是指器官,而是对器官的超越。在孟子看来,“人之所以异于禽兽者几希,庶民去之,君子存之”[4]2727。人之不同于禽兽之处,在于人有仁义。仁义是精神性的,它也可以转换为具有某种意义的信号。佛教的“八识”(眼、耳、鼻、舌、身、意、末那、阿赖耶)中,最重要的是末那和阿赖耶,二者都要超越身体。在佛教中,能圆寂者,身体虽灭,但精神不灭,精神依然能获取信号,这也是精神对身体的超越。庄子所推崇的逍遥境界,也是超越身体的。并且,若以芯片化“超人”为标准,逍遥境界虽不完全吻合“超人”,但可能是最吻合的。“不食五谷,吸风饮露,乘云气,御飞龙,而游乎四海之外”,“若夫乘天地之正,而御六气之辩,以游无穷者,彼且恶乎待哉!”[5]28“不食五谷”,则消化系统就不再需要;“吸风饮露”是获取能量;“游乎四海之外”“游无穷”便是任意获取信号。庄子还认为,“百骸、九窍、六藏”这些器官,不过都是为“我”服务的奴仆,所以他追求“有情而无形”的“真宰”[5]55(此真宰是决定自然造化的无形体的精神)。这意味着,庄子不但把生理器官工具化了,而且明确希望超越器官。尽管庄子非常富有想象力,但受制于彼时技术水平对人们想象力的限制,他仍未能彻底解构、取消器官。在西方,对人的本质最经典的表达可能是“人是理性的动物”这个命题。这里所讨论的“超人”与人的本质(理性)完全兼容。虽然“超人”没有了生理器官,但它变得无比理性。谁能否认它还是人呢?

一千年前,甚至一百年前,如果谁说人可以不要生理器官,而被改造为一个超越空间和时间且可以任意获取和传输信号的芯片——“超人”,那他很可能被视作疯子。但在当今,新技术的高速发展,如脑机技术进入临床试验;人工智能不仅能理解自然语言,还能有逻辑地回答人提出的许多问题……并且这些技术也呈现出组合的可能,从而使“超人”不再只是一种玄想,而成为一种技术可能。这意味着,人类的生物史或碳基史可能被人类自己中断,一种全新的生命形态将诞生。

如何理解这种全新的生命形态? 可以说,这种全新生命形态的本质其实也是人类的毁灭,只不过是升级式毁灭。传统式毁灭就是我们已知的物种消失。在不考虑彗星撞击地球等自然事件的情况下,它可能因毁灭性战争或技术失控而发生。关于升级式毁灭,人们关注得似乎不多。升级式毁灭是指人类(个体)被改造为更高级的人类,如“超人”或电子人,但这种改造其实也是毁灭,其特征是:人类被改造为新人类,旧人类(目前的人类)的记忆所包括的信息量(及相应的信息质量)都可以转移到新人类的“大脑”中,成为新人类的新记忆的一部分。但是,对于新人类来说,由于旧人类记忆中的信息量是一个常量,所以它作为分子的比例越来越接近0,因此这相当于旧人类死亡了。这犹如,一个人两三岁就有记忆了,但幼年的记忆在人生记忆中的比例很小。至于我们是否支持这种改造是一个价值判断问题,这里只需要明白一个事实判断:这种改造是对旧人类的另一种毁灭,旧人类(的信息)看似存在,其实可以忽略不计。

对这一巨变,人类将如何面对和选择呢? 是乐见还是恐惧? 是迎接还是拒绝? ——我不能回答。

生成式人工智能的创新潜能:三个误解及其衍生问题

曾 军

(上海大学 文学院,上海 200444)

收稿日期:2023-12-10

作者简介:曾军(1972—),男,湖北沙市人,上海大学文学院教授、博士生导师,主要研究方向:文艺学和文化理论与批评。

人类进入“数智时代”的标志性事件就是人工智能的创新潜能的释放。经过一年多的喧嚣与骚动、震惊与迷茫的“百模大战”[1],人们对基于大模型的生成式人工智能(以下简称“生成式AI”)的认识开始逐渐回归理性。因此,有必要对在此过程中出现的对生成式AI创新潜能的各种误解进行重新辨析,以便能够更加清晰地明确人工智能创新的发展方向。

在评估生成式AI创新潜能时,我们至少应遵循以下三个重要标准:其一,关注其“创造性”,即AI具有能够创意、创意及其表现的能力。这主要评估其在多大程度上能够打破传统的框架,实现从无到有、人无我有的创造。其二,考察其“准确性”。即指AI在人机互动、辅助生成的过程中,能够准确实现用户的创新意图,并根据提示词生成符合预设创新效果的能力。这种准确性是衡量AI能否有效协助用户完成创新的关键因素。其三,关注其“自主性”。这指的是AI在创新过程中能够降低或减少人工干预的程度,实现一键生成的能力。这种自主性体现了AI在创新中的独立性和自主决策能力。

以此三个标准来衡量,这一年多时间里至少出现了三种关于生成式AI为代表的讨论人工智能创新潜能的误解。

第一种误解是“弱智论”。持有这种观点的人认为,当前基于大模型的生成式AI的创造能力不足,只是一门小儿科的技术。它只会说一些车轱辘话,或者只会说“正确的废话”。导致这种观点形成的原因,一方面很可能是由于用户自身操作能力的不足。他们可能没有充分了解和掌握生成式AI的运作机制和使用方法。的确,在人机互动、辅助生成的过程中,提示词作用非常重要。用户的提示词既要能反映用户对生成内容的精确预期,还要采用符合机器语言能够准确理解的自然语言表达习惯。否则,在使用过程中遇到困难时,就很容易产生“机不如人”的看法。另一方面,尽管生成式AI在某些方面的表现可能不如人类,但在自然语言生成、对话生成等领域,尤其是生成式AI在处理大量数据、提取信息等方面,具有人类无法比拟的绝对优势,并且已经展现出了超越人类的能力。因此,当前生成式AI的“弱智”只是局部性的,而非整体性的。

第二种误解是“天才论”。持此观点者认为,生成式AI具备超强的内容生成能力,可完全替代人类的创造性工作。这种观点源于人类对人工智能超能力的恐惧。当机器在某些方面展现强大能力时,人们一定会感到不安,而且容易将当前人工智能技术发展的初级阶段与科幻文学、科幻电影中的超级人工智能想象相混淆。虽然生成式AI在执行各种复杂任务,甚至在某些方面超越人类的表现,但在创造性方面,其局限性仍然明显。首先,生成式AI的“创意”主要源自用户,正是用户将自己的理念、创意以提示词的方式提供给生成式AI,才有可能实现符合用户预期的内容生成。因此,人类的想象力、创造力、情感等特质仍然占据主导地位,生成式AI仅扮演实现创意和赋能创新的角色。其次,生成式AI的“创造”仅能模仿人类已有的经验和能力。尽管AI可以模仿某些艺术风格并生成令人惊叹的画作,但无法如人类艺术家一样,从自身的情感、经历和感受中汲取灵感,创作出真正具有独特风格和深刻内涵的作品。换言之,因为生成式AI的内容生成能力主要来自利用人类已有文化形成的数据所进行的预训练,因此,只是“人类经验的向量化”①“人类经验的向量化”是指在大语言模型的预训练过程中,承载着人类文明基因、文化内涵和实践经验的数据转化为数以亿计的参数,以向量的方式被保存在大语言模型之中。相关问题的讨论将在拙文《优化:人工智能时代的文论问题》(待发表)中充分展开。。其创新的边界局限于人类文化的范围,其表现出的创新程度只是相对于作为个体的用户而言的“不知”和“不能”。最后,生成式AI在处理复杂问题、解决棘手难题、进行深度思考等方面,仍需用户的规划、辅助和限制。因此,尽管AI在某些方面表现优异,但无法完全替代人类的智慧和创造力。

第三种误解是“均值论”。持这种观点的人认为,生成式AI只能达到人类能力的平均水平,因此它可以被视为一种能够轻松胜过普通人的工具,但距离创造性活动仍有相当长的一段距离。这种观点在一定程度上是可信的。因为它真实反映了当前的大模型在预训练阶段通过人类已有的文本、图像、视频、音频、行为等数据作为训练材料这一问题。然而,这种观点也忽略了一些重要的问题。一方面,尽管生成式AI在某些方面能够达到人类能力的平均水平,但在处理更为复杂和多变的任务以及理解上下文等方面的能力还有待提高。例如,尽管AI可以生成逼真的图像或文本,但它们通常无法像人类一样理解和解释这些信息的深层含义和上下文。这就像一个学生通过抄袭达到了作业的平均水平,但他可能没有真正理解作业中的问题,更没有掌握相关的知识。另一方面,这种观点也没有考虑到生成式AI在使用过程中可能会出现的一些问题。如已有研究表明,大模型在使用过程中已经出现“变懒”和“变笨”的某些特点。所谓“变懒”就是大模型在响应人类提出的目标、任务过程中,会有意识地简化步骤、遗漏关键信息,甚至出现不愿意遵循指令、持有角色身份等现象。所谓“变笨”就是GPT4并没有像人们想象的那样越来越“聪明”,相反出现了很大的表现漂移(drifting)、性能偏差和反应退化[2]。因此,这一“均值”可能也只是表明,生成式AI的创新潜能遵循大概率的正态分布的规律。随着时间、空间、情境的变化,其内容生成能力也会出现上下的波动,具有不确定性和不稳定性。

进一步而言,“均值论”这一观点存在于一个重要前提,即生成式AI这一大型模型是相对封闭、稳定且不会自动实时更新的。换句话说,所提及的“均值”实际上仅存在于大模型的预训练阶段。如果生成式AI不联网,不利用开放使用过程中的内容生成数据来更新训练和进行模型迭代升级,那么这一“均值”将保持相对稳定。然而,一旦模型开源且数据开放,生成式AI就有可能具备自我训练、自我学习和自我升级的能力,其创新潜能也将持续提升。因此,我们有必要将关注点主要放在“均值论”问题上,进一步探讨在生成式AI的使用过程中,人机互动的能力增强、升级迭代过程中的能力提升以及新的通用人工智能技术可能带来的自主性提升问题。如果生成式AI实现了这三种能力增强,那么它是有可能提高在预训练阶段达到的正态分布的“均值”的。或者更准确地说,虽然大模型的算法仍然会遵循正态分布的规律,但因为总体能力的提高,其“均值”的绝对值将会不断获得提升。生成式AI的创新潜能也随之会水涨船高。

首先看“人机互动中的能力增强”。它指在使用生成式AI时,用户可以通过提示词更加个性化地定制所需功能,明确目标任务和预期实现的效果。这种方式能够提高用户与生成式AI交互的效率和准确性,基于人工智能技术的不断发展,使得生成式AI能够更好地理解和响应用户的意图和需求。因此,用户可以更加自信地使用生成式AI,从而更好地发挥其创新潜能。

其次看“升级迭代中的能力增强”。它指AI架构师对生成式AI的全面优化,包括算法、设计、结构以及神经网络等方面,以实现其性能的持续提升。这不仅要求对生成式AI的硬件和软件提出更高标准,还需要在多个层面获得创新突破。在算法优化方面,AI架构师致力于改进生成式AI的算法,以提升生成内容的精确性和效率。这涵盖了算法的改良、数据集的优化以及模型训练过程的完善等多个方面。设计优化方面,AI架构师关注改进生成式AI的设计,以更好地满足用户需求并提升用户体验。这包括模型结构的改进、输入输出接口的设计以及交互方式的优化等。结构优化方面,AI架构师致力于优化生成式AI的结构,以提高其效率和可扩展性。这可能涉及模型结构的改进、并行计算的设计以及内存管理的优化等。在神经网络优化方面,AI架构师关注改进生成式AI的神经网络,以增强其表现力和泛化能力。这可能包括网络结构的改良、激活函数的选取以及对优化算法的选取等。通过这些综合性的优化措施,AI架构师能够不断提升生成式AI的性能和能力,以更好地服务于各种应用场景。

最后看“新的通用人工智能技术”。严格来说,当前的生成式AI只是通用人工智能技术的一种,除此之外还有其他多种技术也可被用于实现通用人工智能。例如,强化学习是一种通过让AI系统在环境中进行实践和学习从而不断提高自身性能的技术。这种技术可用于实现自动驾驶、机器人控制等领域。生成对抗网络(GAN)则是一种通过两个神经网络之间的对抗来生成高质量数据的AI技术。这种技术可用于图像生成、语音合成等领域。自编码器则是一种通过无监督学习来学习数据分布和生成数据的AI技术,它可用于数据降维、数据压缩等领域。此外还有诸如贝叶斯网络、决策树等其他一些技术,也具有可被用于通用人工智能实现的可能。它们各具特点和优势,也可用于不同的应用场景。例如,贝叶斯网络可用于进行概率推理和决策分析,决策树则可用于进行分类和回归分析。在实现通用人工智能的过程中,大模型只是其中的一部分。Chat GPT 和文心一言之所以“出圈”,引发整个社会的密切关注,其主要原因是实现了自然语言与机器语言的实时交互,极大地降低了用户的使用门槛,从而有可能实现开发者的“万众创新”①“万众创新”一词来源于2015年时任国务院总理李克强在政府工作报告中提出的“大众创业,万众创新”。。

从人工智能技术发展的阶段来看,以Chat GPT、文心一言等为代表的生成式AI大模型正处于从“专家人工智能”(GAI,Expert artificial intelligence)向“通用人工智能”过渡的阶段。它们只能说已经具备了走向通用人工智能的雏形。这些模型已经能够执行特定的任务,并且可以随着数据的增加和模型的改进而进一步提高性能。在人机交互、辅助生成的过程中,人工干预能够实现对“项目”的任务分解,并且规划制订严谨完善的任务执行方案,从而让大语言模型实现更为复杂的创造性任务。因此,AI的创新潜能将会随着从专家人工智能到通用人工智能再到超级人工智能的技术演进而获得不断提升。

从这个意义上说,摆脱单一任务型专家人工智能的束缚,迈向多线程任务实现的项目型通用人工智能的发展阶段,已成为人工智能技术演进的重要方向。谷歌于2023年12月6日发布了一款名为Gemini的大模型。该模型的设计原理与ChatGPT 相同,均基于Transformer架构。然而,在预训练环节上,Gemini引入了多任务学习机制和无监督学习方法,实现了文本、音频、图片、视频、代码等多模态的同时训练,而不是像GPT 那样分别训练各模态,再组装整合的模式。这种创新型的训练方式使得Gemini在理解和执行任务的准确性方面有了显著的提升。相较于ChatGPT、文心一言等模型,Gemini的训练方式独具特色。ChatGPT 和文心一言等模型主要基于“任务型”训练,即首先训练特定任务的“专家人工智能”(GAI,Expert artificial intelligence),然后进行整合与提升。Gemini则从一开始就采用多模态、综合性的“项目”训练方式,致力于发展为“通用型”。这意味着Gemini不仅局限于处理特定任务,还能处理各种不同类型的数据和任务,展现出更广泛的适用性和灵活性。通过这种训练方式,Gemini能够更好地理解和处理各种类型的数据,包括文本、图像、音频等。它可以在不同领域和场景中应用,如自然语言处理、图像识别、语音识别等。这种广泛的适用性和灵活性使Gemini有望成为真正的通用人工智能,为人类带来更多便利与创新。

虽然这一效能的提升还有待检验,甚至有新闻说谷歌存在伪造欺骗的嫌疑[3],但是,可以肯定地说,我们正见证着一场更为深远的变革。即使没有Gemini,也会有其他的生成式AI有望进一步增强其“通用性”能力。

从更大的尺度来看,诸如Gemini这类的生成式AI很可能仍然只是属于“专家型”的人工智能。也就是说,它仍然只能完成特定领域或任务。这就好比一个领域的专家,在自身专业领域内具备深厚的理论知识和实践经验,能够高效地解决各种问题。与人类专家相比,Gemini这类的生成式AI的能力仍然存在较大的局限性。它只能在特定领域或任务中表现出色,无法做到全才或通才。从人类意识的认知结构“知情意”来看,Gemini这类的生成式AI仍然只能完成“认知”中的部分“感知”能力的任务。这意味着它还需要不断地改进和升级,以实现更广泛的应用和更高级别的智能化。具体来说,一方面,Gemini这类的生成式AI在处理人类多模态数据时展现出了强大的能力,比如在处理图像、音频、视频等多种类型的数据时,能够迅速地提取关键信息并给出相应的回应。但是,它还无法像人类一样拥有全面的感知和认知能力,比如在情感认知、伦理判断等方面还有很大的提升空间。另一方面,Gemini这类的生成式AI的智能化水平还需要不断地优化和提高。虽然它能够在特定领域或任务中表现出色,但是面对复杂多变的问题时,它可能会出现无法应对或处理不当的情况。因此,我们需要不断地对Gemini这类的生成式AI进行改进和升级,提高它的智能化水平,以使其能够更好地适应各种复杂的问题和场景。

以上对基于大模型的生成式AI的创新潜能的分析还只是基于现有阶段技术实现程度的非常粗略的评估和分析。随着人工智能技术的突破,尤其是未来出现更多的非大模型的更加通用的人工智能技术,人工智能的创新潜能将会进一步释放。人工智能创新能力提升是否一定会带来人类自身创新能力的弱化? 人工智能技术自主性的增强是否一定会导致对人类创新活动的替代? 经由人工智能辅助生成的文化是否还可被视为人类文明的产物抑或衍生品? “数智时代”究竟带来的是人类文明的生机还是危机?所有这些问题可能存在仁者见仁、智者见智的不同声音。但是有一点可以相信,随着人工智能创新潜能的提升,人类将不得不与人工智能一起学习、生活和工作,进而迈向人机协作的“新人文”时代。

猜你喜欢
数智器官人工智能
“数智”视域中苏南蒲岸村微湿地公园公共设施情感化设计研究
这些器官,竟然是你身上的进化残留
器官也有保护罩
路安炎:按下中国造纸业“数智转型”启动键
网安天下担使命数智引领向未来"双引擎"驱动现代警务创新人才培养(计信系摄影报道)
乡乡镇镇通5G”建设助力山西“数智”转型
类器官
2019:人工智能
人工智能与就业
数读人工智能