ChatGPT生成式人工智能的意识形态风险及其化解

2024-03-31 15:38胡启明尹婉菲
高校辅导员 2024年1期
关键词:化解

胡启明 尹婉菲

摘 要:以ChatGPT为代表的生成式人工智能的崛起是人工智能领域一次重大的变革,这一颠覆性技术的突破和应用也带来了一系列的意识形态潜隐风险,包括争夺意识形态生产权、维护西方意识形态话语权、弱化主流意识形态主导权、稀释意识形态主动权等。为有效应对意识形态风险,国家应从推动人工智技术自主创新、制定ChatGPT类生成式人工智能应用标准规范、提升公众的生成式人工智能媒介素养、建立ChatGPT类生成式人工智能监管机制等方面着手,以发展、控制、利用并举的方式做好意识形态安全工作。

关键词:ChatGPT;生成式人工智能;意识形态风险;化解

[中图分类号]G641 [文献标识码]A [文章编号]1674-9618(2024)01-0036-06

*基金项目:本文系广西教育科学“十四五”规划2023年度资助经费重点课题(A类)“习近平总书记关于思想政治理论课重要论述研究”(项目编号:2023A035) 、广西研究生教育创新计划项目“新时代研究生‘导学思政体系构建研究”(项目编号:JGY2023130)阶段性成果。

ChatGPT全名“Chat Generative Pre-trained Transformer”,译为“聊天生成式预训练转换器”,是由美国人工智能研究公司于2022年11月30日发布的一款聊天机器人应用程序,自发布以来仅仅2个月就拥有了1亿活跃用户。目前,ChatGPT还在不断迭代,多模态预训练大模型GPT-4具有更加强大的语言处理能力,能够支持文字、图像等多模态键入,可以生成20种编程代码,在30多种语言之间自由切换。ChatGPT生成式人工智能表现出的强大“类人”性是以往“机械味”的人工智能所难以企及的,这种颠覆性的创新给信息的生产、传播带来了深刻的变化,给意识形态安全带来风险挑战。习近平总书记在党的二十大报告中强调:“意识形态工作是为国家立心、为民族立魂的工作。”[1]在ChatGPT生成式人工智能浪潮中巩固壮大主流思想舆论,防范化解其中的意识形态风险,在冲突和调适中找到优化路径成为一个值得关注的问题。

一、ChatGPT生成式人工智能的应用基础

ChatGPT生成式人工智能的生成性体现在其能够极快地搜集并整理资料,组合成成熟的、类似人的口吻的文本回答,并且在与人的交互过程中甚至能够揣摩人的需要,进而快速、准确、智能地生成图片、文字、视频等。这些变革的背后是大型语言模型、人类反馈强化学习、基于生成式预训练模型的新突破。

(一) 大型语言模型:搜集全网数据

作为大型语言模型,ChatGPT的训练数据集包含了海量互联网文本数据,如代码、诗歌、法律文件、自然对话等,都是这些数据的一部分。基础的GPT数据来源于网络爬虫数据集、WebText2数据集、书籍、期刊、维基百科以及其他数据库,其中最大数据来源是网络爬虫数据集,GPT训练用的数据量大约3 000亿单词。据统计,ChatGPT的算法模型已经拥有1 750亿参数,用于预训练的数据量也达到了45TB,GPT4更是达到100万亿的模型参数。随着ChatGPT的不断更新,其数据容量也不断扩增。训练大规模语言模型,语料是不可或缺的,ChatGPT具有广泛的数据挖掘能力,可以通过与用户对话过程、上下文的理解以及互联网信息的收集,不断扩充和更新文本库,类似于掌握着全网数据的“集成箱”。随着大数据和生成式人工智能的不断发展,海量数据也不断为ChatGPT类生成式人工智能提供更多支撑。

(二) 人类反馈强化学习:模拟个人偏好

人类反馈强化学习是一项涉及多个模型和不同训练阶段的复杂概念。它是强化学习的一个扩展,它将人类的反馈纳入训练过程,为机器提供了一种自然的、人性化的互动学习过程。人类反馈强化学习相对于传统强化学习具有非常独特的优势,那就是能够更好地与人类的意图保持一致,从而使得在一般文本数据语料库上训练的语言模型能和复杂的人类价值观对照,并能够根据需要对“人—机”反馈即时进行整理,并从中流畅的学习、进化。[2]其训练过程可分为三个步骤。一是无监督预训练。这一阶段是使用大规模的文本数据构建输入语言模型,并通过不断采集互联网文本数据,构造一个超大规模的数据集。二是监督微调阶段。对初始语言模型的部分参数进行微调,在输入文本中放入具体的任务信息,尝试让模型预测答案。三是指令微调阶段。通过随机抽取用户问答数据,让专业标注人员给出高质量答案,将符合人类偏好的高质量答案投喂给已经训练好的GPT进行再次微调,从而对数据集进行优化,使模型对齐人的思考模式。在这一阶段,模型接受了更广泛的自然语言回答任务,从而具备了回答通用问题的能力。基于人类偏好数据和强化学习技术,ChatGPT前所未有地实现了人类认知机制的深度模拟,这为后续细化关系连接、个性要素的识别与生成奠定了基础。

(三) 生成式预训练转化模型:替代人工文本生产

ChatGPT是生成式预训练转化器系列语言模型中的一员,是在GPT-3.5的基础上进行微调的改进版。预训练模型是先通过一批语料进行模型训练,在这个初步训练的基础上再继续学习,从而使模型具备足够多的语言知识。预训练模型的训练分为两个阶段,即预训练阶段和微调阶段。通过这两个阶段,生成式预训练模型更加精通语料,其优势在于能够处理大量数据并以自然语言生成回答。最新版本的ChatGPT-4是其第四次迭代,作为一个自然语言处理的人工智能语言模型,与人类相比,它能够更高效、更快捷地處理和分析大量数据,能够全天候工作,可以替代一些需要处理大量文本的工作。第四代生成式预训练转化器现在可以处理来自用户多达25 000字的文本,用户可以向其发送一个网页链接,要求它与该网页上的文字进行互动,进行长篇写作,并且还可以进行图片互动。因此,ChatGPT借助生成式预训练转化模型,具有极大的文本生产能力,甚至可以在很多应用场景中替代人工。

二、ChatGPT生成式人工智能的意识形态潜在风险

习近平总书记高度重视互联网新型技术的发展,强调“对互联网规律的把握能力、对网络舆论的引导能力、对信息化发展的驾驭能力、对网络安全的保障能力”的深刻认知。[3]从对ChatGPT生成式人工智能的应用基础的分析中可以看出,其所依赖的突破性技术在设计和应用上给意识形态安全带来潜在风险。

(一) 智能介入:争夺意识形态生产权

ChatGPT生成式人工智能使得互联网内容生产模式发生了根本性转变,从UGC(用户生成内容)过渡到AIGC(人工智能生成内容)。在此背景下,ChatGPT生成式人工智能逐步融入文字、代码、音乐、图片、视频、3D多媒介形态的内容生产中,能够借助预训练、大模型、深度学习,根据数据的变动,不断更新自己的文本库,实现与人的跨界融合交往。

一是自动生产意识形态文本。ChatGPT生成式人工智能会逐步渗透到意识形态领域,通过生成式预训练转化模型将意识形态内容生产转为AIGC(人工智能生成内容)模式。在AIGC(人工智能生成内容)模式下,ChatGPT生成式人工智能通过建立一个超大规模的语言模型,不断吸纳互联网上的海量文本,经过人类反馈强化学习,以概率形式来判断文本是否符合正常的人类表达,在此基础上自动根据现有的主题推断下一阶段可能的热点内容,并依据用户在线游览的时间长度、点赞及转发的次数、口碑的好坏等进行及时评估,并适时调整生成内容,以期提供最“懂”人心的内容,使采、编、写工作自动化,更加快速、准确、智能地生成意识形态工作所需要的图片、文字和视频等。更重要的是,ChatGPT生成式人工智能还具有“类人”式的语言理解力,能够依据人的心理需求即时生成意识形态内容,即“实时对话+即时创作”的人机交互式高智能的内容生产,这对意识形态工作呈现出了巨大的风险空间。

二是挤压意识形态工作者的内容生产空间。ChatGPT生成式人工智能的到来,使得意识形态工作者无论是站在专业化角度还是用户角度开展的意识形态工作都被部分替代,意识形态内容生产空间被挤压。生成式人工智能的内容生产效率和偏好分析速度相比意识形态工作者而言占据了极大优势。例如,ChatGPT生成式人工智能在10秒之内就可以生成一篇相关文章。ChatGPT生成式人工智能可以在互联网上短时间内海量发布和推送某种相似论调的内容,从而影响舆论,扩大影响力。意识形态不再仅仅是人类的观念、思想集合,还包括人工智能的“观念”。

(二) 价值倾向:维护西方意识形态话语权

科学不是自己产生的,“科学研究和技术改进,既不是在一个纯粹自由的领域内进行的,也不是由一个孤立的科学家和技术专家做出的,而是在社会的生产关系和社会的阶级斗争的范围内进行的,因此它们必然受到社会性的制约”。[4]ChatGPT虽只是人工智能,但它的底层逻辑仍然是资本逻辑,其深度学习基于人为训练、人为操作,与西方意识形态保持着千丝万缕的联系。

其一,从技术构架来看,ChatGPT的训练基于互联网上的文本语料库,这些语料库主要来源于西方社会中最有影响力的平台,如西方主流新闻媒体机构、著名大学和社交媒体平台。然而,这些主流媒体、传播平台是为资本主义服务的,更是西方国家意识形态张目的主要阵地。可见,ChatGPT生成式人工智能所依赖的大型语言模型和数据生态环境都源于西方,与生俱来有着强烈的西式政治正确的内在训导,比如平权意识、种族问题、性别问题等,它有一套符合资本主义政治标准的处理方案,时时刻刻都在表明其资本主义偏向的价值观,维护并强化西式的意识形态话语权。不仅如此,ChatGPT生成式人工智能的开发者、模型训练人员的政治取向也会影响该技术模型的意识形态偏向。

其二,从实际应用来看,技术上的巨大优势会直接造成话语权上的垄断地位,一些西方国家利用技术创新优势维护其意识形态话语霸权已是屡见不鲜。ChatGPT生成式人工智能正是一种新兴的价值输出工具,是西方资本主义国家抢占信息网络战场意识形态话语权的锐利武器。ChatGPT生成式人工智能能够相对容易地将西方的价值观念植入训练数据,或以算法选择来呈现,通过操控数据和模型,在与用户的交互中对用户精准“投喂”,从而潜移默化地使用户接受西方社会制度、价值观念和发展模式,达到塑造社会心理和集体认知、维护西方话语霸权的目的。因此,我们只有掌握生成式人工智能的数据集和算法模型,把握数据集的来源和样本量,才能避免意识形态话语权的丧失。

(三) 拟态环境:弱化主流意识形态主导权

李普曼认为,“拟态环境”是插入人與现实之间的信息环境,这个信息环境是经由媒体遴选、加工、过滤、重构相关信息而造就的人为信息环境,而非对客观世界信息的镜子式呈现。[5]ChatGPT生成式人工智能具有强大的拟态环境建构能力,使得用户对虚拟世界的感知远超过对现实社会的认知,这在客观上造成主流媒体难以“发声”,弱化了主流意识形态的主导权。

其一,主流媒体所具有的传播“主旋律”的功能被弱化。ChatGPT生成式人工智能是聊天机器人,其主要特点是能够迅速回答用户提出的问题,并能根据用户所提供的信息进行智能推算,精准推送用户感兴趣的内容。其构建的拟态环境从人找信息,变为信息找人,对用户的吸附能力较强,从而挤占主流媒体的传播主体地位,使得意识形态传播主体不仅仅是活生生的人,而且延伸到人为设计、研发的生成式人工智能。进而,主流媒体的议程设置功能被减弱,引领舆论的能力受限,主流媒体的“主流”地位被消解,舆论引领功能被削弱。

其二,ChatGPT生成式人工智能的深度伪造功能妨碍社会共识的达成。ChatGPT生成式人工智能的人类反馈强化学习技术能够“编织”与用户偏好相符合的拟态环境。在此信息环境中,公众会乐此不疲地沉浸在智能“黑箱”营造的“过滤气泡”中。信息的不对称又造成思想的不对称,用户接受的内容出现“马太效应”,各种错误思潮内隐其中,使凝聚社会共识面临困境,主流意识形态主导权被弱化。

(四) “数字鸿沟”:稀释意识形态主动权

如今的数字时代,数据在意识形态治理中发挥着举足轻重的作用。习近平总书记就曾将数据与工业时期的石油资源作比较,以突出其重要性,“谁掌握了大数据技术,谁就掌握了发展的资源和主动权”。[6]显然,数据也是掌握意识形态领域斗争主动权的核心要素。ChatGPT生成式人工智能的底层构架就是大型语言模型,其巨量数据资源绝大部分来自英文数据,由此带来意识形态领域斗争主动权被稀释的问题。

其一,ChatGPT生成式人工智能无形中强化西方国家意识形态输出的优势。ChatGPT生成式人工智能的大型语言模型的训练和应用往往受到特定西方语言和文化的影响,其在英语对话的场景中输出的结果更加丰富,因此用户可能获取的结果更多源于对英语信息的处理,这有利于西方国家开展信息殖民。西方国家凭借该优势有目的地兜售其价值体系,这不仅仅是意识形态话语权的问题,还是稀释非英語国家在该领域的意识形态主动权的问题,使其沦为“沉默的大部分”,遭受“数字鸿沟”下的意识形态打压。

其二,ChatGPT生成式人工智能会进一步“掘深”国家内部“数字精英”与“智能穷人”之间的“鸿沟”,拉大一个国家内部不同区域、不同人群在智能应用方面的不平衡,进而扩大不同群体在观念生成、知识创造、社会认知等方面的差异,形成群体性认知偏狭,造成意识形态工作的被动。此外,拥有情感计算与一般“智商”的ChatGPT生成式人工智能在技术设计上还会由于某些群体发声较少而忽略这部分人群的诉求,导致其生成的内容无法充分代表这些群体,甚至生成大量具有偏颇、歧视性的言论,这些偏见可能影响到我国各地区、民族、宗教、文化传承的良性发展,扰乱主流思想舆论建设,不利于举旗帜、聚民心、育新人、兴文化、展形象,以至于意识形态工作的主动权受到挑战。

三、ChatGPT生成式人工智能的意识形态风险化解

ChatGPT生成式人工智能给意识形态领域带来了诸多风险和挑战,作为引领科技和产业变革的新应用、新技术,必须对此辩证看待,以“治”化“智”,合理化解其中风险,为我所用。

(一) 推动人工智能技术自主创新

技术自主创新是应对生成式人工智能下意识形态领域潜隐风险的基础。ChatGPT生成式人工智能的强势登场,让世人见证了人工智能技术的力量,其引发的意识形态隐忧必须从技术源头解决。习近平总书记在2016年的网络安全和信息化工作座谈会上明确指出,增强网络安全防御能力和威慑能力……攻防力量要对等。要以技术对技术,以技术管技术,做到魔高一尺、道高一丈。[7]我国要将人工智能背景下的意识形态主动权、主导权、话语权等牢牢掌握在自己手中,就必须不断优化智能技术研发,开发本土智能语言模型,深化智能技术助力意识形态治理的供给侧改革,在全球多语言舆论场中发出中国声音。目前,我国百度发布的“文心一言”、华为云盘古大模型等都是继ChatGPT发布以来中国科技企业推出的类ChatGPT产品,均在人工智能领域实现了重大突破,但是与ChatGPT相比较还存在一定差距,有专家判断这一差距主要集中于大模型环节。在新一轮人工智能革命背景下,中国要在生成式人工智能中占有一席之地,就必须加大我国人工智能领域的体制优势,深化相关领域的研发投入与产业落地。一是鼓励信息技术企业加快推动人工智能大模型应用,在拥有属于自己的“ChatGPT”的基础上,强化人工智能技术的价值矫正,将“向上向善”技术准则真正贯彻到生成式人工智能技术发展过程,更好地服务于我国的意识形态安全。二是要优化算法以及建立大语言模型,并结合生成式人工智能技术下话语受众的特征、心理、需求等,针对数据代表性缺失引起的偏差,对生成式人工智能时代话语进行征用与编译,从技术源头消除算法歧视带来的意识形态霸凌,从而“讲好中国故事”,增强我国生成式人工智能的意识形态国际传播能力。三是提高生成式人工智能的攻防技术。将深度学习、对抗性机器学习、图片分类神经网络等智能技术创新应用于恶意攻击检测、安全策略防御机制加固等,以此来有效防范侵犯隐私、算法歧视、意识形态渗透等风险。四是正向利用生成式人工智能技术。借助生成式人工智能算法技术有序推进意识形态安全治理和意识形态生态环境建设。国家要加强“生成式人工智能+主流媒体”建设,将主流价值融入内部代码和算法设计,针对用户兴趣点和诉求点,增加“主旋律”算法推荐权重,牢牢掌握网络意识形态安全主动权。

(二) 制定ChatGPTT类生成式人工智能应用标准规范

标准规范建设是防范化解ChatGPT类生成式人工智能给意识形态领域带来潜隐风险的约束条件。国家要在“技术共识”和“社会共识”统一中,引导ChatGPT生成式人工智能更好地落地,打破西方发达国家“技术霸权”带来的“意识形态霸权”。一是坚持总体国家安全观的指导,既要利用好新技术的发展,也要有底线思维。国家要加强对人工智能关键产业和数据中心的产业建设及保护力度,建立技术安全标准体系,全面提升生成式人工智能技术基础设施的安全保障能力,构筑起意识形态安全防线。二是要以社会主义核心价值观为引领,明确ChatGPT生成式人工智能在涉及政治、文化、宗教等领域的应用边界,加快制定我国ChatGPT类生成式人工智能的应用指南。三是要突出问题导向,针对ChatGPT生成式人工智能拟态环境深度伪造、智能过度介入个体认知、模型训练的西式价值倾向、数字鸿沟的扩张等问题,细分其应用范围,完善应用标准规范,建立严格的违法行为追责机制。四是积极参与ChatGPT生成式人工智能应用相关国际标准制定工作,支持自主创新产品和技术参与国际竞争,推动自主创新成果形成相关国际技术标准。国家要加强ChatGPT类生成式人工智能应用的标准化研究,不断提升ChatGPT生成式人工智能应用的国际话语权和规则制定权。

(三) 提升公众的生成式人工智能媒介素养

国家要强化主体建设,提升公众的生成式人工智能媒介素养,有效应对ChatGPT类生成式人工智能下的意识形态风险。传统的媒介素养是指个体对媒体信息的获取、评估、理解和创造的能力,注重的是主体对文本的甄别与分析,与其不同的是,AIGC(人工智能生成内容)技术强化了内容生产的智能化。ChatGPT生成式人工智能从已知的具体实例中抽象出一般性规律或概念,并将其应用到新的情境中的泛化能力,以及在不同领域或概念之间发现相似性和共性,并将这些类似之处应用于新的情境中的类比能力日益增强。这样一来,ChatGPT生成式人工智能在“人—机”交往中就具有更多的价值观念输出的主动性和主导性,衍生出的意识形态生产权力作用于作为媒介主体的个体,使之主体意识不断削弱。为此,国家要防范ChatGPT生成式人工智能在意识形态领域的智能介入,必须提升公众相应的媒介素养。一是提升对生成式人工智能技术的认知素养。国家要增进公众对生成式人工智能使用文本数据、图像数据、音频数据等多种类型数据训练和生成内容的应用原理、技术运作机理的认知,使个体对生成式人工智能产生的信息具有一定的批判性思维,总体上能够更好地理解、把握、应用生成式人工智能,而不被“人工智能霸权”所左右。二是培养生成式人工智能人文素养。在人工智能时代,人类相对智能计算最大的优势就在于对文化的把握、对道德问题的思考以及对情感的理解。人工智能技术越发展,越需要强化人文素养的培育。国家必须以马克思主义科技观为指导,通过跨学科学习、知识宣讲等手段增强公众人工智能技术与人文协同的系统思维能力,提高科学思维辨析能力,破除工具理性和认知偏狭的遮蔽,形塑价值认同。三是增强生成式人工智能安全意识。生成式人工智能逐渐嵌入社会系统中,在给社会生活带来极大便利的同时,也带来相应的安全隐患。公众需充分把握生成式人工智能所产生的各类社会风险,增强对隐蔽性强的意识形态斗争的识别和防范能力,自觉抵制错误思潮。

(四) 建立ChatGPTT类生成式人工智能监管机制

建立监管机制是应对ChatGPT类生成式人工智能意识形态风险的保障。国家防范化解意识形态领域风险必须做到未雨绸缪。尽管国家新一代人工智能治理专业委员会相继于2019年和2021年发布了《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能倫理规范》,但现有的行业性倡议在应对人工智能带来的意识形态风险问题时,其约束力和适用性针对性都不强,只有事先预警和事后惩治相互结合、政“治”与法治共同助力,才能破解ChatGPT类生成式人工智能可能带来的困境。一是要加强党对科技伦理治理的全面领导,把好生成式人工智能发展的“方向盘”。党的领导是ChatGPT类生成式人工智能发展“不偏航”的根本保证。只有加强党对各类科技组织的领导,建立与我国意识形态相符的科技伦理体系,才能使生成式人工智能技术更好服务人民。二是强化法律监管。随着生成式人工智能应用的推广,国家已经注意到其中潜隐的法律、法规监管缺陷,并于2023年7月10日颁发《生成式人工智能服务管理暂行办法》,探索完善ChatGPT类生成式人工智能在内容生成、应用、传播当中的相应法律、法规条款。三是要注重技术监管。针对不同的人工智能产品、服务和应用,国家要按照落实意识形态工作责任制的要求,明确各级监管者的主体责任和管理界限,对ChatGPT类生成式人工智能上的信息进行技术监管,监测ChatGPT类生成式人工智能的发展动向,对其中可能引发的意识形态领域风险及时分析、研判,精准把握发展态势。

总之,随着以ChatGPT为代表的生成式人工智能的不断推广,新时代意识形态安全面临新的挑战,尝试以发展、控制、利用三维并举的方式不断寻求适应性治理策略,能够为新时代意识形态治理提供有效借鉴。

参考文献:

[1]习近平.高举中国特色社会主义伟大旗帜 为全面建设社会主义现代化国家而团结奋斗——在中国共产党第二十次全国代表大会上的报告[N].人民日报,2022-10-26(001).

[2]Kaili-May Liu G. Perspectives on the Social Impacts of Reinforcement Learning with Human Feedback[J].arXiv preprint arXiv:2303.02891,2023,(2).

[3]习近平.习近平关于网络强国论述摘编[M].北京:中央文献出版社,2021:18.

[4]列宁.列宁选集(第二卷)[M].北京:人民出版社,1995:180.

[5]沃尔特·李普曼著.公众舆论[M].阎克文,江红译.上海:上海人民出版社,2002:1.

[6]中共中央文献研究室编.习近平关于科技创新论述摘编[M].北京:中央文献出版社,2016:76.

[7]习近平.在网络安全和信息化工作座谈会上的讲话[N].人民日报,2016-04-26(002).

(责任编辑:郁有凯)

猜你喜欢
化解
如何在刑事申诉中发挥控申职能促成矛盾化解、息诉罢访
从城濮之战看参谋的作用
新媒体背景下,广播新闻如何化“微”为机
班主任如何化解班干部和其他同学之间的矛盾
化解我国房地产库存对策研究