生成式人工智能赋能网络意识形态治理现代化的逻辑进路

2024-04-10 00:53盛思琦
南方论刊 2024年2期
关键词:人工智能算法

盛思琦

(西南大学 重庆 400715)

习近平总书记强调:“在互联网这个战场上,我们能否顶得住、打得赢,直接关系我国意识形态安全和政权安全。”[1]意识形态是社会稳定和国家长治久安的根基。当今世界正处于新科技革命和产业变革的交汇点,大型语言模型标志着人工智能的进步,特别是“类人”的生成式人工智能发展,给人们生活提供便利的同时也给网络意识形态治理现代化带来了风险挑战。为此,必须要敏锐察觉暗藏生成式人工智能机遇下网络意识形态治理的危机,有针对性地采取对策,进而提高网络意识形态治理的现代化水平。

一、认知之维:生成式人工智能与网络意识形态治理现代化

作为新一轮科技革命的“领头雁”,生成式人工智能呈现井喷式发展。生成式人工智能为网络意识形态治理现代化提供了重要驱动力。

(一)生成式人工智能的基本概念——以ChatGPT为例

生成式人工智能(Generative Artificial Intelligence)是通过各种机器学习方法从数据中学习对象的特征,进而生成全新的、完全原创的内容(如文字、图片、视频)的人工智能[2]。

2022 年11 月,由美国人工智能研究实验室OpenAI研发的一款模仿自然语言应用程序ChatGPT 正式上线。作为生成式人工智能的最新成果ChatGPT(Chat Generative Pre-trained Transformer),其全称是生成式预训转换机器人。ChatGPT 的运行逻辑是当用户向ChatGPT 发出指令后,大型语言模型将指令转码为数字序列,分析其中的含义和意图,基于既有文本语料,生成数字序列形式的内容,继而将之转化为文本并输出[3]。简单来说,就是ChatGPT可以理解人类输入语言,并以其所掌握的知识库和数据集为基础,给出相应的回答或解释,从而实现人机对话的交互能力。同时,ChatGPT 具有保障连续性对话、发出主动性追问、实现“人化”式表达、具备“记忆力”的鲜明特征。

(二)网络意识形态治理与网络意识形态治理现代化

网络意识形态是指在网络时代,通过互联网传播的各种思想、观点和价值取向的集合。它是由网络上的各种信息、观点、价值观等因素影响而形成的。它不同于传统的意识形态,它具有广泛性、开放性、多元性等特点。网络意识形态治理现代化,主要是指通过运用先进的科技手段和治理方法,使网络空间中的意识形态表达和传播更加规范、有序、公正、安全、自由、开放,其旨在应对互联网时代的挑战和问题,构建一个更加安全、健康、有序的网络空间,要求政府、互联网企业、社会组织和公众共同参与,形成多方合作和共治的局面,以推动网络意识形态治理朝着更加科技化、开放化、民主化的方向发展。同时,网络意识形态治理现代化也呈现出治理主体多元化、治理能力现代化、治理方式信息化等新的特征。

(三)生成式人工智能赋能网络意识形态治理现代化

习近平总书记指出,要“更加重视运用人工智能、互联网、大数据等现代信息技术手段提升治理能力和治理现代化水平”[4]。从理论上看,生成式人工智能并非客观中立的产品,具有一定的意识形态属性。生成式人工智能的意识形态性主要体现在如下几方面:语料库和数据库的意识形态性、算法的意识形态性、应用场景的意识形态性。从实践上看,生成式人工智能与网络意识形态治理现代化相互关联。生成式人工智能技术支持网络意识形态治理现代化,网络意识形态治理现代化保障生成式人工智能健康发展。

二、暗藏“危”机:生成式人工智能机遇下网络意识形态治理现代化的现实困境

新一轮科技革命的到来,生成式人工智能的爆发式发展为网络意识形态治理面临着巨大的新挑战。因此,面对以ChatGPT 为代表的生成式人工智能带来的风险挑战时,我们要树立明确的网络意识形态治理现代化目标,既要全面释放生成式人工智能带来的技术红利和价值,又要精准防范并应对其可能带来的风险。

(一)排斥风险:算法程序潜藏歧视阻碍了治理深度

算法貌似客观而中立,但有时却充满着歧视,严重地阻碍着网络意识形态的有效治理,也给社会的发展带来消极影响。一是性别歧视。“技术中立论”认为,技术的目的存在于服务使用者,它作为工具是不存在价值属性的,技术在价值、制度和政治等层面都是中立的,因此在资本主义社会中行之有效的技术将在社会主义社会同样有效[5]。实践结果却恰恰相反,以“技术中立”自居的算法在辅助或替代人类决策时屡现“性别歧视”的问题,在信息资源、物质资源和机会分配中不恰当地偏向男性,强化性别刻板印象,女性的数字生存面临着广泛而系统的算法性别歧视风险[6]。二是种族歧视。算法种族歧视的基因被高度智能化的生成式人工智能所继承,它可以充分提醒我们数据领域反种族歧视规制的紧迫性与必要性。三是政治偏见。聊天机器人的设计者通常内置一些旨在避免回答问题的过滤器,根据其构造,这些问题旨在引发政治偏见的回应。尽管其名义上希望避免涉及政治、不发表政治言论,但稍加使用就会发现,AI 机器人是有倾向的,或者更加确切地说,即便希望避免政治倾向,恐怕也很难避免。

(二)“喂养”风险:资本操纵存在黑箱扩大了治理难度

生成式人工智能的喂养数据质量基本依靠研发公司所制定的规则和工程师个人来把关,因此,生成式人工智能不可避免地会带有意识形态属性。一是资本喂养数据“黑箱”侵扰意识形态防线。一方面,输入语料具有意识形态导向。生成式人工智能输入具有明显意识形态问题的语料,带着自身价值立场的用户与其互动,当对话时,不可避免地会受到意识形态的影响。另一方面,输出内容含有意识形态成分。因其学习和训练的语料主要以英语等西方语言文化为基础,喂养数据“黑箱”问题,在进行语义输出的过程中,也存在传输不当内容的风险。所以,不可避免地含有意识形态的成分。二是资本喂养误导性数据危害价值观塑造。科技无国界,但科技中的意识形态有显著的国家边界。生成式人工智能依靠大量数据喂养生成,其中不乏存在误导性数据的杂糅。三是资本喂养虚假性数据影响社会稳定。生成式人工智能可能被用于制造虚假性的信息,影响公众舆论和社会稳定。ChatGPT 可以根据不同的目标和意图,生成各种虚假性的信息,例如新闻、评论、论文、广告、推文等。这些虚假性的信息很难被公众辨别和验证,因为ChatGPT 生成的文本内容往往具有很高的专业性和逻辑性,能够模仿人类的知识结构和思维方式,甚至能够引用或伪造各种数据和证据。这就使得公众很容易被ChatGPT 所欺骗和误导,从而影响公众对于真相和事实的认知和判断。

(三)解构风险:技术权力弱化主体消解了治理效度

生成式人工智能技术的高速发展,模糊了主客间界线,僭越了人类中心,弱化了人的主体性。一是生产颠覆主体和客体关系的话语。生成式人工智能颠覆性之处体现在它并非是主客体关系的双向与多元转换,它直接遮蔽主客体之间的边界。由于科技的遮蔽性使得主体不知道答案的出处,一旦主体接受这些答案,便使得自身成为实际上的客体,这时主体的话语创造行为便在某种程度上成为客体话语的复制。二是消解主体情感稀释独立思考能力。生成式人工智能是当代深度学习能力和神经网络技术强势发展的产物,这种算法的语言和思维会不断靠近智能发展的“奇点”,甚至有可能具有哥德尔反思能力,从而迫近人类,对人类的主体性地位构成挑战[7]。生成式人工智能可能会将人类由独立型形式的思考变为依赖型形式的思考,由此诱发独立思考能力逐步被稀释。三是技术过度依赖助长人的异化程度。由于人工智能技术具有空前的自主性,智能物与智能机器人空前地贴近人智,因此它失控的危险,促成异化的程度及对人类主体性的威胁与影响也会空前强烈。在这个不论活动形式和思维方式逐步受工具理性支配的社会里,人们突出主体性的活动等价值理性渐趋匮乏甚至丧失,使人类沦落为技术化非人。

(四)“越狱”风险:安全漏洞挑战法律限制了治理广度

生成式人工智能的发展带来一系列安全漏洞,然而相关技术对策和法律出台的滞后性对网络意识形态治理的广度产生了限制。一是泄露隐私风险。生成式人工智能能够对海量数据进行采集与处理,若对其处理不当就有可能造成隐私泄露。非法分子面对利益孤注一掷,钻系统漏洞,网络钓鱼等手段肆意盗用和买卖个人数据。人工智能时代个人隐私保护面临困境,人类意识主体性受到损害,对当下意识形态安全造成了极大隐患。二是滋生法律风险。法律往往对于新的事物缺乏治理能力,它需要时间进行调整。AIGC 行业的迅速崛起势必会给各国法律带来一定的挑战,这在一定程度上导致生成式人工智能处于法治真空区。三是攻击破坏网络。与网络相关的各种软件、硬件、协议、服务等通常具有一定的安全性和稳定性,以保证网络的正常运行和服务。然而,生成式人工智能的文本内容可能会利用其他网络系统或设备的漏洞或缺陷,绕过或破解认证或授权机制,从而影响或干扰网络的功能和性能。

三、化“智”为“治”:生成式人工智能赋能网络意识形态治理现代化的对策探析

面对全球数字化变革的国际环境,应对生成式人工智能发展过程中暗藏的危机,网络意识形态治理现代化需要采取相应的对策措施。

(一)强化算法优化:以智能平权破解算法歧视,维护网络智能正义生态环境

事实上,“算法的社会本质就是一种权力”[8]。只有进行智能平权对算法进行有效优化,生成式人工智能技术才会内嵌于网络意识形态治理体系建设中,继而推动网络意识形态治理向现代化方向发展。

1.提升“主体效能”,树立正确的算法技术发展观

生成式人工智能赋能网络意识形态治理现代化的前提和基础是强化人才培养。首先要重视研发团队中学科背景多元化的成员构成,以创建交叉学科、开展人工智能教育为主线,注重加强生成式人工智能研发人员的技术伦理建设和正确引导其价值观,将正向的价值规范和主流意识形态转化为技术语言,并将其融入生成式人工智能开发设计中,以增强生成式人工智能对主流价值的辨别能力,并积极推动马克思主义理论、网络媒介素养和人工智能技术等领域的融合发展,旨在培养综合型人才。

2.重视算法问责,在算法中注入主流价值

数据正义是实现算法正义的前提,算法正义是实现智能正义的关键。算法是大型语言模型成功的重要条件之一。大型语言模型算法具有“不可解释”“算法黑箱”等特点,易引发算法偏见和歧视、数据投毒等问题。一方面,要及时对大型语言模型中的算法歧视、算法偏见、算法黑箱等进行算法纠偏,消除算法安全隐患;另一方面,促使主流价值与智能算法深度融合,在算法开发和部署过程中考虑安全性。在算法设计初衷、数据选择、结果呈现等环节植入主流价值的基因,在算法优先级中提高主流价值权值的比重,促进“可靠、健壮和值得信赖”的大型语言模型发展。

3.以一元主导破除“算法中立”,加强马克思主义意识形态指导

算法本质上是一种认知工具,它不可避免地预设某种意识形态立场,对此,要加强马克思主义意识形态的一元指导,破除“算法中立”。生成式人工智能技术开发人员基于不同文明、不同社会制度,甚至有时会导致生成式人工智能表达一些错误思潮,对于我国网络意识形态安全来说面临新挑战。因此,要以价值理性来纠正算法工具理性上的不足,坚持以人为本原则发展生成式人工智能,用马克思主义理论来引导算法内容的配置。

(二)完善资本规制:以群己共律驾驭资本力量,推动网络主流意识形态传播

生成式人工智能时代,多元主体的交互作用中会生成意识形态操纵风险。因此,我们应从不同主体入手,通过完善资本规制,应对生成式人工智能时代意识形态操纵风险。

1.管控资本价值导向,坚持政府主导企业驱动原则

人工智能是全球科技竞争未来的重点。政府要加大对生成式人工智能技术研发投入,相关企业加强驱动发展。首先,政府要致力于促进政府内部数据共享,建设政府主导型大数据体系。其次,政府要加大对大型语言模型的研发投入,扩大数据集的规模和覆盖范围,提高数据集的质量和多样性,进而提高国产大型语言模型的性能和质量。最后政府要加大算法问责力度,促使企业增强算法透明度,探索算法全过程监督模式。

2.严防资本主义渗透,强化社会主义意识形态阵地建设

面对西方国家的网络意识形态渗透,要在社会主义意识形态阵地上站稳脚跟,坚守我国网络意识形态安全防线。首先,要严防西方网络意识形态渗透。西方输出自身价值观念中存在的谬误,要科学批判进而揭示其本质与危害。其次,要加强主流意识形态引领。坚守马克思主义意识形态的思想理论阵地,坚持社会主义核心价值观,以喜闻乐见的方式开展工作激发人们思想情感共鸣。

3.加强资本向善建设,积极引导资本服务网络公共社会

面对资本“喂养”数据背后所存在的黑箱,我们要加强资本向善建设,积极引导资本服务网络公共社会。生成式人工智能在数据收集和资源开发方面具有技术优势,要建立庞大的数据模型和资源库,以便深入挖掘和收集网络主流意识形态话语资源。要加强对各类用户的调查研究,掌握受众群体的基本情况及需求特征,并以此作为制定宣传策略和开展工作的依据。要构建网络主流意识形态资源数据库,其中包含理想信念教育、爱国主义教育、社会主义核心价值观教育等内容,以数字化、大众化、符号化的数据信息形式呈现网络主流意识形态。

(三)引导技术向善:以价值理性匡正工具理性,坚持网络主体以人为本原则

科技进步是决定未来的战略制高点。然而在大型语言模型开发方面,我国与世界相比还存在差距。因此,我们要坚持以人为本原则,以价值理性匡正工具理性,同时要加大核心技术攻关,抢占技术高地,坚决维护国家科技安全,增强网络主流意识形态风险防范能力。

1.加大核心技术攻关,增强网络主流意识形态风险防范能力

人工智能技术能否安全可靠应用,是决定其能否维护国家安全的关键因素。面对意识形态、境外网络攻击的安全风险,建立本土化专用模型将是当前各行业自然语言处理的主要选择。加快语言生成模型国产化,才能既保证国内社会享有人工智能产业带来的技术升级,又能规避被人卡脖子以及无法管理等问题。面对技术差距背后隐含的意识形态话语霸权,需要站好自身意识形态立场,用自己的话语、语料库、应用场景来抵御其带来的意识形态冲击和风险。

2.以人本逻辑驯化“工具崇拜”,提升公众网络意识形态安全素养

生成式人工智能的发展给人们的工作学习生活带来了极大的便利,这种技术的进步使人们过分推崇依赖它,但是人工智能并非无所不能的,我们应坚持以人为本原则,以价值理性来驾驭工具理性,推动人自由而全面发展。通过多样化的教育活动,坚持马克思主义意识形态主导,筑牢主流价值观念,传播人工智能相关安全知识、政策与法律法规,使人们正确认识和使用生成式人工智能,坚持以人为本和以物为用统一,提升公众网络意识形态安全的素养。

3.以伦理规则约束“技术主义”,加强网络空间监督和管理

大型语言模型技术带来的问题复杂多元,可能引发潜在的法律伦理风险,需要引起高度重视。例如,ChatGPT 没有道德伦理原则,在回答问题的过程中可能传播错误信息,形成回声室效应,引发社会和监管问题。伦理规则的制定和遵守将对确保技术和社会的健康发展发挥关键作用。同时,要注重加强监督和管理。通过制定准则公约等措施,增强企业责任意识和技术伦理意识,规范使用生成式人工智能技术。在技术赋能方面,通过建立智能信息预警机制,构建智能舆情应急机制,以及构建立体化的网络舆情监管机制来抑制虚假信息的扩散。

(四)筑牢法治防线:以良法善治维护网络秩序,加强网络意识形态治理保障

习近平总书记强调,“国无常强,无常弱。奉法者强则国强,奉法者弱则国弱”[9]。伴随着生成式人工智能在生活中参与度越来越高,越需要健全生成式人工智能相关法律法规,守住生成式人工智能开发与应用的底线,防止其造成危害。

1.坚持立法先行

“良法是善治的前提”[10]。首先,生成式人工智能领域立法是大势所趋。生成式人工智能技术空前发展,当前相关法律法规会呈现滞后性。因此,生成式人工智能立法的制定和颁布,应注重结合当前的《中华人民共和国网络安全法》《中华人民共和国数据安全法》等相关法律规范,我国也最新发布了《生成式人工智能服务管理暂行办法》。其次,先行制定相应的管理办法。为预防生成式人工智能大规模应用内带来的法律风险,应尽快出台专门性的管理办法,以及通过对现有法律规范进行解释,以维护法律的稳定性、连续性和价值规范性。

2.坚持严格执法

制度的生命力在于执行。首先,培养具备网络执法技能的专业队伍。加强对网络执法人员进行思想政治教育和职业道德教育,提高他们在新时代下依法履行社会责任的自觉性、主动性,确保其成为维护国家信息安全的主力军。随着互联网技术和大数据应用的发展,“网络安全+政务”将是大势所趋,需要建设更多具有强大功能、先进水平和国际竞争力的新型网络安全产品。其次,对网络执法设备进行升级。加强网络法治建设,必须提高网络执法技术装备水平。若缺乏核心技术的硬件支撑,执法设备的安全性和可控性将难以得到保障。我们需要不断升级网络科技手段,攻克网络执法的核心技术难题,为网络执法注入新的活力。

3.凝聚法治共识

只有凝聚法治共识、培育法治意识、提升法治素养,才能使得网络空间清朗。首先要创新普法形式,增强网民法律意识和法制观念。随着时代的发展,人们的生活节奏日益加快,越来越倾向于在碎片化的时间中获取信息。生成式人工智能时代的到来,为我们开展法治宣传提供了新载体,也带来了前所未有的挑战。普法宣讲应当顺应网民的思维模式和语言习惯,以其喜闻乐见的方式激发网民对法治思想的热情,营造人们自觉知法懂法用法的法治氛围。其次要在法治框架下深入了解生成式人工智能。当前,随着人工智能技术发展速度不断加快,出现了诸如“人工智能+法律”“人工智能+司法”等多种智能应用场景,对传统法律体系产生巨大冲击。随着生成式人工智能逐渐深入人们的日常生活,给人们的生活带来便利,但面对其诱惑需要了解生成式人工智能的使用权限,在法治框架下合理使用智能化的生成式人工智能。

猜你喜欢
人工智能算法
我校新增“人工智能”本科专业
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
算法初步两点追踪
数读人工智能
基于增强随机搜索的OECI-ELM算法
下一幕,人工智能!