颠覆与行动:AIGC热在新闻业的冷思考

2024-04-22 09:54石中钰盖腾玥
传播与版权 2024年7期

石中钰 盖腾玥

[摘要]在智能传播时代,人工智能技术的快速发展延伸了人们认识和改造世界的能力,Chat GPT的诞生更是打开了人们接触通用人工智能的媒介通道。生成式AI作为一种“准他者”的智能传播主体,其生产内容已经开始融入人在社会交往中生产信息的系统,即AIGC(生成式人工智能)。生成式AI独特的人机交互方式消解了原先新闻的真实性、中立性和客观性,放大了技术在新闻生产范式中的效能,由此新闻业的边界面临解构与重构。对此,新闻从业者应明确AIGC的适用范围,明晰新闻业的界限,完善其数据库和算法,以此来应对人工智能对新闻业的新技术冲击,并对机器替代所引发的恐慌进行伦理探寻与反思。

[关键词]AIGC;生成式人工智能;技术伦理

AIGC(AI generated content),即人工智能生成内容。2022年9月,《人工智能生成内容(AIGC)白皮书(2022年)》对AIGC做出界定:AIGC是“从内容生产者视角进行分类的一类内容”,也是“一种内容生产方式,还是用于内容自动化生成的一类技术集合”[1]。随着近些年媒介技术的不断发展,从最初的PGC、OGC发展到UGC、MGC,媒介内容的生产主体在不同的媒介环境下持续演进,同时人工智能技术的突破使得其机器主体性开始显现,人工智能成为媒介内容的创造主体之一,AIGC开始融入人们的日常生活。

2022年,Open AI发布了全新的ChatGPT,而GPT(Generative Pre-trained Transformer)即生成式预训练转换模型,是一种基于互联网可用数据训练的文本生成深度学习模型[2],其是使用“利用人类反馈强化学习”的一种训练模式,能够不断地重复人与机器之间的交互,在人与机器的对话中使机器形成一种基本的判断能力和输出能力,以此形成一种与人类认知相符的应答模式。ChatGPT是基于GPT3.0模型涵括人类话语体系的交互型人工智能。AIGC相比与之前的MGC更加真实、生动、具体,MGC背后的算法逻辑远远不能支撑起机器与人正常交互的能力,其语言系统与人类习惯的语言模式不相符,而AIGC更加符合人们惯用的语言逻辑,其内容更加容易被人所接受。因此,AIGC在智媒时代广泛融入人们的日常生活,对新闻业造成巨大的冲击。

一、冲击:新闻业面临生成式AI的解构困境

(一)新闻真实性被AIGC消解

新闻的真实性是新闻的生命,也是新闻业的生命线。随着智媒时代的到来,以数字为介质的新闻涌入新闻界,新闻的新业态由此改变。杨奇光、周楚珺指出,在当下的新闻业中出现了新的新闻话语构型:从媒介技术视角看出现了“体验真实”,从认知心理视角看出现了“收受真实”,从权力关系层面看出现了“协商真实”[3]。不论是从技术还是主体所引出的新闻真实,从本质上来说都是以“真实”为核心要义。

像ChatGPT这类人工智能所生成的新闻内容,从其算法模型上来说正在消解新闻的真实性。因为ChatGPT并没有辨别信息真伪的能力,它所回答或生成的文字内容都是依靠巨大的数据库,而这个数据库是基于人类的生产内容所构成的,可能混杂许多虚假的信息。ChatGPT在采用这部分信息时难以辨别该信息的来源是否合理,因此其若按照该类虚假信息所编写出的新闻文本同样也会是虚假的。伴随AIGC不断地扩大辐射范围,整个新闻业会涌出大量虚假新闻,而机器的写作效率远远高于人类,所以其对新闻真实性的消解将颠覆传统新闻业的规则和性质。

(二)ChatGPT消弭新闻客观性

客观中立是新闻制作必不可少的原则,新闻是新近发生的事实,在创作新闻时,创作主体须要保持中立、客观的态度。创作主体从中立视角出发,所创作的新闻作品会让受众更加信任,能提高其信任度。对整个新闻业来说,客观中立的新闻报道是新闻业增强权威性和公信力的支柱,缺乏客观视角的报道会致使背后的新闻主体失信于受众,造成受众不再信任的局面。

随着AIGC大量涌入新闻界,受众面对新技术浪潮相对缺乏应对的能力和思路,难以分辨出隐藏在AIGC底层逻辑下的意识形态。即便OpenAI宣稱ChatGPT是一款没有主观意向的智能机器人,但实际上ChatGPT依然存在意识形态和立场偏差。从技术的视角来看,ChatGPT从已有的数据库中通过算法拼接得到该数据库中概率最高的数据,并将该数据按照人类语言逻辑进行拼接后生成文本。ChatGPT本身并不会产生新的内容,甚至为了回答某些问题还会刻意捏造数据。ChatGPT本身是一种中立的工具,但其底层算法逻辑蕴含一定的意识形态,很难做到产出的内容是客观中立的。

在世界百年未有之大变局的背景下,ChatGPT很可能成为西方资本主义国家输送价值观的工具。尤其在目前的国际传播格局下,西方资本主义国家通过ChatGPT与各个国家的人们进行对话,在对话中,人们缺乏一定的防备心理,很多人并没有将ChatGPT当作一个有主体性的机器人,而是抱着猎奇心理把ChatGPT当作一个可以用人类语言回应的搜索引擎,缺乏对其生产内容的真实性以及其立场和意识形态的防备和反思。“从技术与‘空间-权力的关系视角来看,人工智能作为一种‘权力的媒介,其性质早已超出了技术工具的视角,更是一种‘意识形态引领的技术范式,涉及对传播权力的分配。”[4]

(三)新闻业遭受科技垄断

新闻业发展至今已有百年的历史,其形成了自身的行业行规,且一直以维护良好的新闻从业者竞争格局为核心。而随着技术浪潮不断冲击新闻业的新闻伦理,技术逐渐打破了新闻业的生态平衡。在整个互联网内,新闻从业者之间的竞争变得愈发激烈,且出现了技术至上的发展趋势—谁掌握更先进的技术,谁就可以成为新闻业内最大的媒体组织。

当媒体对媒介技术的依赖成型,那么新闻业内就极其容易出现技术断层,形成某一家媒体一家独大的垄断现象。这一现象打破了新闻业内公平竞争的良好生态,放大了技术在新闻业内发挥的作用和效能。许多媒体则会为了在新闻业占据一席之地,寻求科技公司的帮助。但是诸如ChatGPT一类的人工智能技术多为国内外的科技巨头公司所研发,若是媒体组织想要使用该类技术,则需要购买或者与国内外科技巨头公司达成合作。简言之,媒体组织现今的发展需要具备一定的财力和规模,而像科技巨头垄断科技行业的现象也可能会出现在新闻业界内,形成媒体垄断。这一垄断现象极大地压缩了小中型媒介组织的生存空间,失去技术助力的媒体只会日渐江河,最终导致媒体的发展生态呈现恶性循环的面貌。

(四)同质化内容消解新闻业边界及引导功能

全新的数字化介质使新闻传播活动发生巨大的变革,因新闻创作门槛的降低以及创作主体大量涌现,传播内容也变得混杂、多样,且传播渠道基于新的技术不断扩展延伸,整个新闻传播活动变得更加不可预测,致使新闻业的边界开始模糊。以人工智能为生产主体所创造出的AIGC降低了传统传播的成本以及提高了效能,压缩了传统新闻从业者的生存空间,这看似扩大了新闻业边界,实则将其模糊解构,致使新闻业的边界开始重组。

以ChatGPT为代表的人工智能在内容上缺乏一定的创新性,其生成的新闻作品多是同质化内容,不断重复对某一议题的看法和态度。当大量同质化的AIGC涌入人们的日常生活中会形成一种“形式正确”,即人们很少能看到与AIGC持相反观点的信息,反而大量的同质化信息会一遍遍地加深人们对该类信息的认知。那些与AIGC持相反观点的由传统新闻从业者所创作出的优质作品却因数量太少,被湮没于同质化信息的洪流当中,由此形成“一边倒”的新闻生态,极大地削弱了新闻本应给人们带来正确引导的作用。且由不同新闻从业者所撰写的新闻内容是从不同的视角、不同的表达方式以及不同的价值观念出发,基于此打造了一个多元化的新闻传播生态。同时,大量的AIGC极大地吸引了人们仅有的注意力,形成一种畸形的传播环境,更加加剧了“信息茧房”效应和“回声室效应”。当下,人们若不借助AI的检测软件很难判断出一篇新闻是否是由人工智能所生产的,反而由于现在ChatGPT具备高度与人类接近的语言系统,其所生成的内容会让人认为自己看到的就是由许多不同真正的新闻从业者所撰写的内容,因而坚信自己并没有陷入“信息茧房”,由此更加难以逃脱这个畸形的媒介环境。

二、行动:AIGC冲击后新闻业的解困之策

(一)AIGC在新闻业界内进行标识,规范使用边界

AIGC不同于传统网络中的UGC、PGC以及OGC,其传播主体不再是人类,而是一种具有类主体性的机器。机器编写文本的速度要远远超过人类,极易造成大量同质化内容出现在人们的日常生活中。而大量的AIGC生成内容一旦涌入新闻界,将会模糊新闻业界的边界,压缩传统新闻从业者的生存空间,致使新闻业界的竞争生态发展走向不良方向。

大量的AIGC生成内容涌入新闻界会造就一个模糊、缺乏真相的传播环境,如ChatGPT不具有判断信息真假的能力,其生产内容有可能包含虚假信息。当其生产的新闻内容涌入传播环境中,可能会造成假新闻到处滋生的乱象。对此,新闻业需要对AIGC的使用范围做出明确的规范,具有情感偏向、包含意识形态政治立场、对政策进行解读的新闻都应拒绝ChatGPT等人工智能的介入。新闻业只有明确AIGC内容生产的参与范围,才能维护好新闻业的边界,形成和谐、良性的新闻生态。

同时,因为ChatGPT具有高度类似的人类语言交互系统,人们对其生成内容很少有较强的辨别力。任何类似ChatGPT的人工智能的背后的科技组织都应对AIGC做出明确的标识,包括使用ChatGPT的传媒组织在利用ChatGPT进行新闻生产时也应做好标注,并提示人们其生成内容有虚假风险。有学者提出可以在AIGC生成内容中加上“该新闻内容由人工智能生成,可能存在信息偏差、遗漏、不实等问题”的标注说明[5]。

从技术层面考虑,新闻业及科技组织不仅要不断推动完善人工智能控制文本生成的算法逻辑,还要研发检测软件,从而正确检测出一段文本是否是由AIGC所生成,以方便受众进行辨别。

(二)完善数据库,优化人工智能算法

“智能时代,数据和算法成为新的权力生产要

素。”[6]数据库和算法是ChatGPT在内容生产创造中的两大核心要素,在应对AIGC对传媒业的冲击时,善治这两个核心要素是完善AIGC生产体系的关键要义。AIGC的关键是数据,因此新闻业对AIGC的治理首先要从数据库开始。新闻从业者应从数据的采集整合、指定标准、完善分类、质量控制以及储存环节出发,将数据进行安全高效的储存和使用,并删选其数据库内的虚假信息,以增强AIGC生成内容的真实性。

算法在ChatGPT的生产过程中同样扮演至关重要的角色,AIGC的治理离不开算法。王海滨认为,算法一旦被第三方窃取,新闻业的公平竞争将遭到严重破坏,原数据新闻用户被置于危险之中[7]。对算法的治理,新闻从业者可从以下几个视角出发:选择合适的算法、创建高效的算法评估制度、对算法的安全做出保障,以此来增强算法的科学性和合理性。其中,新聞业最关键的是如何规避算法受到科研人员意识形态的影响。算法作为一种科学技术,其本身应是中立、客观的,但是其生产出的新闻内容却往往带着创造者自身的政治立场以及意识形态。尤其是OpenAI所研发的ChatGPT、GPT3.0、AlphaCode等算法模型都具有一定的政治倾向性,而且这些模型成为当下几乎所有人工智能的基础模型。若不加以治理,这些模型所引发的问题不但容易出现广泛传播的现象,而且其存在的缺陷将传递到下一代甚至多代的算法模型中。

合理的制度和行政管理都是AIGC治理的解困之策。制度保护技术的发展,若在发展过程中缺乏正确的行政管理是无法有效治理AIGC的,而类似ChatGPT的人工智能在研发、应用和推广时需要合理、科学的制度框架。该制度框架应包含研发政策的制定、行业内的标准和规则、相关的法律法规以及完善的监管制度,只有采取更加具体、完善、可操作的管理方式,才能提高AIGC在各个方面的使用价值,以此来确保AIGC的合法性和合理性发展。

三、恐慌:生成式AI取代新闻从业者的伦理反思

1993年是人工智能第三次浪潮的兴起时间,与前两次人工智能的泡沫不同,第三次人工智能建立在算力和算法突破的基础上不断演进。自2016年Alphago战胜世界排名第一的棋手李世石后,停留在使用穷举法的人工智能刻板印象被突然打破,深度学习算法的突破使得人工智能可以更快地处理更加复杂的数据问题,无数有关人工智能的书籍也在那年之后大量涌现。在这些关于人工智能的书籍中谈论最多的问题就是人类是否终有一天会被人工智能所取代。如果说这个奇点的来临还要按世纪去等待,那么人工智能将取代什么工作的问题则是悄然来临。

有关这个问题的解答大致可以分为两个类别。一是每次新技术的出现都会引起当时社会劳动结构的变化,但是这种变化并不是指人们大范围地面临被技术所取代的失业现象,而是不同的新技术都创造出了不同的新岗位。例如,广播的出现并没有使靠文字生活的新闻从业者失业,反而是创造了新的电台岗位。从生态位的理论来看,新媒介的出现并没有将旧媒介的生态位完全挤压至灭亡,而是与旧媒介一同扩展了整个传播系统的生态位领域。二是部分学者如胡泳、刘纯懿认为,人工智能多是替代高知识、高信息的工作岗位,即生成式AI致使失业的人群是处在精英和大众中间的知识分子[8]。BBC基于牛津大学Michael Osborne和Carl Frey的数据体系分析了365种职业最可能被AI替代的可能性,其中排名前五的分别是电话推销员、打字员、会计、保险业务员、银行职员,而这几种职业的特点都有强烈且明显的共性:缺乏创造性、社交能力以及同理心。

当AIGC以井喷式姿态出现时,新闻从业者也面临失业的焦虑。但根据这几组职业的共性不难看出,制衡AI取代人类工作的核心要素是创造力。以生成式AI为例,其底层的算法逻辑是通过计算概率去选择合适的内容,并按照人类所习惯的逻辑顺序进行排列。进言之,AIGC是依靠大量的数据及语言模型将原有的内容重新打散拼接,最终按照人类能够理解的语义顺序排列而成,其内容生成速度虽然远远超越人类,但是所生成的内容并非完全来自自我创作,缺乏一定的创新性。有学者认为,“拼凑”也是一种重要的创新方法,像是《论语》《道德经》等的内容都是拼凑而成,人工智能正在从检索者、搬运者和呈现者成为创造者(creator)或合作创造者(co-creator)[9]。

我们拘泥于AIGC的原创性问题,本质上是将AI看作一种具有生产主体性的“他者”,一旦将其作为“他者”,那么其生成内容将面临著作版权的问题。当AIGC的生成内容投入新闻业中,那么创作出该内容的AI是否应享有该作品的著作权,AI能否成为承担风险的法律主体,都是新闻业与AIGC技术耦合发展历程上无法避免的问题。伴随越来越多的AIGC进入媒介世界中,人类不得不承认在文化创作的蓝图中,AIGC赫然显立于其中。但与其担心生成式AI是否会淘汰新闻从业者,不如秉持工具理性的态度,将AI作为人类文化生产的“关系居间者”,使其成为联结人类与文明的桥梁。正如胡正荣所认为的,“AIGC是一种全新的创作方式,但它并非简单的AI辅助制作或AI分担工作,也不是场景化应用的局部突破或吸睛式创意的社交营销,而是人工智能在大模型技术的加持下,通过独立学习和大量训练对多模态内容进行理解认知并实现态势互通的元素组合”[10]。

四、结语

以ChatGPT为带表的生成式AI伴随媒介技术的飞速发展,已不断进入人们的日常生活中,未来会进一步呈现与人类深度融合的传播格局。许多人在新技术的诞生之时都认为这种媒介技术会改变自己的生活,利用该类新技术可实现更好的生活目标,甚至一度无条件地认可该类技术,这无疑陷入了“技術拜物教”的陷阱之中,对此,我们应时刻警醒,新的媒介技术给新闻业甚至是其他不同行业既带来便利,也隐藏着一定的问题,对此新闻从业者应坚守行业底线,在新闻内容生产中正确使用AIGC。

[参考文献]

[1]中国信息通信研究院,京东探索研究院.人工智能生成内容(AIGC)白皮书(2022年)[EB/OL].[2024-02-27].http://www.caict.ac.cn/kxyj/qwfb/bps/202209/P020220902534520798735.pdf.

[2]喻国明,苏健威.生成式人工智能浪潮下的传播革命与媒介生态:从ChatGPT到全面智能化时代的未来[J].新疆师范大学学报(哲学社会科学版),2023(05):81-90.

[3]杨奇光,周楚珺.数字时代“新闻真实”的理念流变、阐释语簇与实践进路[J].新闻界,2021(08):12-20.

[4]钟祥铭,方兴东,顾烨烨.ChatGPT的治理挑战与对策研究:智能传播的“科林格里奇困境”与突破路径[J].传媒观察,2023(03):25-35.

[5]唐嘉仪,李春凤,黄凌颖.新闻伦理视野下的AIGC:冲击与反思[J].南方传媒研究,2023(02):29-37.

[6]梅立润.技术置换权力:人工智能时代的国家治理权力结构变化[J].武汉大学学报(哲学社会科学版),2023(01):44-54.

[7]王海滨,葛方度.数据新闻伦理风险及规范发展研究[J].国际传播,2020(05):26-33.

[8]胡泳,刘纯懿.UGC未竟,AIGC已来:“内容”的重溯、重思与重构[J].当代传播,2023(05):4-14.

[9]江潞潞.智能交往,未来已来:“激荡AIGC”数字交往八人谈观点综述[J].传媒观察,2023(03):48-54.

[10]胡正荣,李涵舒.颠覆与重构:AIGC的效用危机与媒介生态格局转化[J].新闻与写作,2023(08):48-55.