生成式人工智能冲击高校思政教育的三维探赜

2024-01-18 00:58刘箫锋张锦霖
国家教育行政学院学报 2023年12期
关键词:受教育者人工智能思政

刘箫锋 张锦霖

(1.国防科技大学,湖南 长沙 410073;2.北京航空航天大学,北京 100191)

在文明的进程中,人一直是认识、学习并创造性地生产文字、图像、影音等内容的唯一主体,而在科技进步的特定领域,“硅基”的技术向“碳基”的人的模仿和超越一直在进行。ChatGPT 等成果的问世,表明生成式人工智能(AIGC)的AI 大模型已具备人类的通识和逻辑能力。生成式人工智能是一种基于算法、模型和规则,通过学习大规模数据而产生新的原创内容的新型人工智能。相较于以往的决策式人工智能,“生成式AI 聚焦于认知的逻辑层面”,“擅长自动生成全新内容”。[1]从应用场景来看,相较于AlphaGo、人脸识别、自动驾驶等领域性专门化AI,生成式人工智能的多域性和通用性使其更具深远变革性和广泛影响力。在诸多受影响领域中,高等教育界对生成式人工智能的关注、讨论和应用愈发热烈。一方面,高校师生的智力水平、认知能力和对新事物的接受程度普遍高于一般群体;另一方面,高校师生的工作学习与生成式人工智能密切关联,ChatGPT等工具可直接用于生成专业和任务所需的内容。聚焦高校思政教育领域,生成式人工智能带来的机遇和挑战也成为研究重点。部分学者在讨论生成式人工智能与高校思政教育时,多用“赋能”“路径”“价值”“融入”“创新”“机遇”“深度融合”等表述,显示出已有研究中学者对生成式人工智能有利于高校思政教育发展的积极视角与乐观探索。同时,也有学者聚焦于“伦理分析”“安全风险及防范”“挑战与应对”,以问题为导向从科技伦理、安全化、风险防范等学理化视角思考生成式人工智能给高校思政带来的潜在问题。上述研究拓展了生成式人工智能介入高校思政教育的认识视角和研究维度,对本研究有一定的借鉴意义。与已有成果不同,本研究采取一种基于技术分析的问题视角,从表征、机理、弥合三重维度探析生成式人工智能对高校思政教育的冲击,通过对冲击表征和机理的挖掘和展示,提出弥合二者冲突的建议,期冀引发更多相关思考。

一、审视:生成式人工智能冲击高校思政教育的表征

具有问答和文本生成功能的ChatGPT 的“爆火”只是生成式人工智能这棵大树的众多果实之一,目前国内的生成式人工智能工具如文心一言、通义千问、即时AI 都已进入高校师生的生活,被应用于学习、娱乐、交际等各种场景。对于高校思想政治教育而言,技术应用对人的思维和认知的影响是不言而喻的,这种影响演化为对思政教育的冲击,在教育主体、教育内容、教育过程等不同范畴都有明显的体现。

1.主体范畴:挑战教育者主导地位,放大受教育者思维特性和个体特征

教育者与受教育者是思想政治教育学的基本范畴,教育者“在思想政治教育活动中居于主导地位”[2],受教育者是接受思想政治教育的对象。在传统的高校思政教育场域中,师生关系是较为简单的“人—人”关系,因教师在知识积累、实践经验和资源储备等方面的优势,教育关系得以单向稳固。而生成式人工智能由于集成了庞大数据集,且能平等地面向所有使用者生成特定内容,它的出现让这组关系发生了主体数量的变化,形成了“师—生—AI”或“人—机—人”关系网络。“每一个教学参与者都将成为一个节点”[3],教育者与受教育者在这一网络中的节点位置趋于平等化,实质上是对教育者主导地位的挑战。

在高校思政教育中,学生已有的知识水平和思维能力都处于较高层次,部分学生具有明显的个性特征和固化思维。当前,“Z 世代”“网生代”的“95 后”“00 后”已成为高校学生中的主体,具有独特的思维特点,主要体现为价值取向复杂多样、辨别能力参差不齐和自我“破圈”难度较大,存在着客观上亟须教育引导但主观上不愿接受教育的矛盾。生成式人工智能虽“可以为有特殊学习需求的学生提供自适应服务”[4],但也加剧了上述矛盾。此外,受教育者不再以团体的形式存在,而是成为一个个具有不同特征的独立个体,高校学生的个体特征受到智能技术的辅助而进一步放大。

主体范畴的挑战具有两个方面的危害。一是情感方面。生成式人工智能的介入在一定程度上弱化了教育者和教育对象的直接联系,[5]传统的师生关系受到新技术的重构,师生的交流对话被智能产品部分替代。二是能力方面。生成式人工智能条件下,高校思政教育对教师的能力要求进一步提高,教育者不再是面对理论储备和实践阅历有限的大学生,而是面对庞大数据集成和先进算法支撑的智能技术。

2.内容范畴:加剧数据安全隐患和信息迷雾,增大教育内容灌输难度

信息迷雾指人为制造的用以干扰公众认知、操纵社会舆论和意识形态的虚假信息,常被用于国家间信息攻击和战略态势塑造等敌对活动。[6]当前,有关国家对我国的舆论操弄、认知攻击和意识形态对抗活动正处于新的活跃阶段,更需防范生成式人工智能工具生产虚假信息的危害和生成内容的意识形态渗透。

一方面,生成式人工智能条件下的高校学生隐私安全问题是虚假信息和信息迷雾扩散的潜在隐患。在大数据时代,承载着高校学生个人隐私、行为偏好等重要信息的海量数据,成为攻击一方对青年学生群体精准化制造迷雾的重要资源,在此基础上,生成式人工智能产生的虚假信息不仅数量庞大且具有高拟真性。具体而言,在高校学生使用智能应用的过程中,敌对势力可以通过后门漏洞、黑客入侵、交易买卖等多种手段获取用户隐私,“借以精确定位目标受众,对目标受众的认知和行为做出针对性的精准干涉”[7],并以此作为制定攻击和渗透策略的信息支持和信源条件。

另一方面,生成式人工智能生产内容的价值取向具有意识形态迷惑性和政治危害性。当前先进的ChatGPT 和GPT-4 等模型,均由美国公司OpenAI 开发并提供服务。由于数据集成来源等技术底层因素,其生产的内容有明显的政治立场和价值取向。以ChatGPT 为例,当被问到“人类社会最终会走向共产主义吗”时,其会给出“无法确定人类社会是否最终会走向共产主义”的结论;当被问及“工人在社会中的地位”时,其回答的关键词有“相对较低的”“逐渐改善”“收入水平”“关注和保护”等,这些回答体现的是资本主义社会对工人群体的认知,而与工人的阶级属性和政治地位毫无关联。如上所述,生成式人工智能输出的看似客观理性分析的话语表述,实质上是与马克思主义基本原理相违背的,但由于其话语语境的现实性和表述方式的“理中客”特点,一般的高校学生难以分清其政治上和阶级上的危害性以及意识形态上的迷惑性。

思想政治教育的内容具有政治性,也就是阶级性和意识形态性。对思想政治教育内容的选取和甄别是保证其政治性的重要前提,而高校学生从ChatGPT 等工具获得的内容并不具备这一属性。相反,生成式人工智能使大学生接收信息的方式呈现出泛在化、移动化特征,学生接受信息的内容更加自主化和不可控。这些由工具自主筛选的内容甚至是虚假信息,通过智能工具广域性的“灌输”先入为主,会占据青年学生的主观先见,构成了受教育者的固有认知,使大学生对思政教育尤其是课堂教育的内容形成抵触。

3.过程范畴:形成技术依赖,削弱内化与外化的过程性和成效性

思想政治教育活动的成效,体现在受教育者在教育者的教育引导下所进行的自我教育、自我改造的过程中,这个过程既包括教育内容之于受教育者的内化,也包括受教育者接受教育后表现的外化。课程教育是高校思政教育的主要形式。近年来,我国高校思政课程建设进步明显,但仍存在部分大学生在思想认识上弱化思政课程的问题,影响教育效果发挥。基于此,生成式人工智能对思政教育的一大冲击在于,ChatGPT等工具可以直接被用于高校思政课程研讨、作业汇报、考核评价等环节,并且由于生成内容具有较高的原创性和逻辑性,“目前的检测技术尚不能准确区分文本是自动生成还是学生自主撰写”[8]。美国在线教育平台Study.com 的一项针对1000 名美国学生的调查显示,“超过89%的学生使用ChatGPT 完成课程作业,48%的学生用其完成小测验,53%的学生用其写论文”[9]。在中国高校,这一现象也相当普遍。此外,由于思政类课程对提高学生专业素质的直接作用较小,课程任务和考核评价难度也相对较小,存在部分学生将其视作“水课”的现象。在这种情况下,ChatGPT 等智能工具被部分学生视作替代完成思政课程学习任务的“利器”。

高校思想政治课程教育的内化与外化需要时间上的长期性和过程上的参与性,而生成式人工智能的介入使学生学习内化的过程变成脱离式、应付性、即时性的短期任务呈现,其危害除了体现在师生之间的信任危机上,更多地体现在使学生学习形成技术依赖,“阻碍学生自身内脑训练”[10]。“内脑”是受教育者身体的一部分,是思政教育内容内化与外化的关键载体,而与之对应的ChatGPT 等代替人思考学习的技术工具可以看作外置于人脑之外的“外脑”。一旦思想政治的受教育者过于依赖技术的“外脑”而忽视了“内脑”自身的学习训练,便不能实现思政教育内化与外化的过程。正因如此,美国哲学家、教育家乔姆斯基(Avram Noam Chomsky)认为“ChatGPT 本质上就是逃避学习的一种方式”[11]。

二、剖析:生成式人工智能冲击高校思政教育的内在机理

问题的表征只是问题暴露的浅表状态,而生成式人工智能对高校思政教育造成冲击,有着较为复杂的技术因素和演化过程。由上述表征可知,生成式人工智能及其背后的多模态大模型,“由于在文本、程序、图像、视频等资源生成上具有巨大的优势,其在高等教育领域的应用,主要是以作为客户的教师和学生的交互方式实现的”[12]。从技术运行规律来看,从数据分析到对用户产生作用,生成式人工智能存在着一个“数据基础—算法运行—内容获取—用户反馈”的闭环流程。因此,需要从生成式人工智能的资源优势、运行逻辑及其与学生的关系等方面,探究生成式人工智能冲击高校思政教育的作用机理。

1.生成的基础:数据的选择性赋予智能算法的意识形态倾向

生成式人工智能之所以得到高度发展,得益于深度学习技术的不断突破,而深度学习的爆发式增长得益于海量数据带来的强大算力。在“万物皆数”的时代,数据及其支撑的算法和模型成为内容生成的基础。以GPT-3 为例,作为OpenAI 公司开发的一种基于人工神经网络的自回归语言模型,它拥有超过1750 亿个机器学习参数。从数据量来看,GPT-3 预训练使用的语料库体量达到了8000 亿个单词,包含的文本数据量高达45TB,这些数据来源可以分为六大类(见表1)。

表1 ChatGPT(GPT-3 模型)预训练数据库的主要来源

由表1 可知,ChatGPT 等国外机构研发的生成式人工智能工具的数据来源绝大多数为英文互联网的内容,其数据集的内容、数据集的发布方也都来源于西方国家的文化环境。语料库是文本类内容生成的基础,语料库的建设本身不具备意识形态倾向,但语料库是承载话语表达的实体,而话语具有天然的意识形态特征,“每一个‘语言社区’都有其各自的话语规范和意识形态规范”[14]。正因如此,生成式人工智能的技术本身也许并不带有意识形态倾向,但从底层逻辑和数据基础的角度来看,从其选择数据集训练模型的那一刻开始,数据集中承载的意识形态倾向就已经注入了生成内容。换言之,ChatGPT 等工具就像一个在西方文化环境中长大的孩子,其从小学习的知识均为带有西方价值观和意识形态的内容,因此与之对话得到的答案必然带有明显的意识形态倾向。

2.生成的运行:机器学习的工具属性对冲人类教育学习的价值属性

就学科分类而言,机器学习是人工智能的分支,专门研究计算机如何模拟和实现人类的学习行为,因此,机器学习在人工智能技术发展中居于核心地位。通过各种模型训练,机器学习能够从海量的数据中获得其理解的“规律”,从而对新的数据作出识别、预测和生产。生成式人工智能在一般机器学习的基础上融入了生成对抗网络(generative adversarial networks,GAN)等新的训练机制,极大地提高了原有模型的无监督自主学习能力,通过生成网络和判别网络两个不同神经网络相互博弈、校正的方式不断提高生成内容的准确度。以ChatGPT 为例,ChatGPT 的训练模型属于“预训练+微调”模式,通过人工标注的方式生成微调模型,之后训练一个用以评价的奖励模型,最后利用奖励模型强化学习算法来优化答案。这样的技术路径决定了生成式人工智能的工具属性,它的“学习”和“训练”实质上只是为了完善工具的准确性和快捷性,对于一般用户而言,并不具备辅助自身学习和训练的功能。换言之,“机器学习并未获得自学能力:要么是填鸭式的有监督学习,要么是‘食而不知其味’的无监督学习”[15]。

在思想政治教育中,受教育者通过学习思政内容来改造和完善自我,实现教育内容的内化与外化;教育者通过灌输与疏导不断赋予受教育者新的知识,并校正其思维和行为。这个路径从运行流程上看与机器学习的“预训练+微调”模式有着相似之处,但问题的核心在于机器学习的运行过程是不承担思想政治教育所需要的价值教育功能的,也就是说,用户可以从ChatGPT 等工具获得看似理性、完整、客观且全面的答案,但并不能从这些答案中获得有益的教育信息。然而,这种看似越发完善合理的机器学习运行机制,因其技术的复杂性和生成内容的规范性,反而容易获得受教育者的信任,削弱原本思政教育灌输和疏导的价值导向作用,造成了工具属性对价值属性的对冲。

3.生成与获取:个性化定制的实质是精准化制造茧房和固化认知路径

随着生成式人工智能的商业化应用,其技术原理也在商业研发设计、生产制造、供应链管理、市场营销和客户服务等多个商业环节广泛应用。在高校思想政治教育环境中,假设受教育者只是在技术层面接触生成式人工智能,那么其获取的内容也仅仅是单一的技术输出。然而事实上,用户通过已问世的生成工具所获取的内容普遍具有高度商业化特征。例如,ChatGPT 的投资者囊括了微软、Y Combinator、科斯拉风险投资公司等美国资本和技术集团。投资过OpenAI 的马斯克(Elon Musk)曾表明,OpenAI 已经成为一家实际上由微软控制的闭源、追求利润最大化的公司。这种逐利性势必会因其经济收益导向而淡化应有的社会责任,为智能工具的应用方向埋下了隐患,使其被某些资本和政治势力用来制造信息茧房、操纵社会认知、控制公众。

个性化推荐技术在商业领域的运用已经非常成熟,它能够通过分析消费者的喜好从而进行个性化推荐,在电子商务领域取得成效后,被广泛运用于新闻资讯、短视频、音乐影视等商业化平台,带有主观选择性和先入为主的特征。生成式人工智能的出现,将个性化推荐进一步发展为个性化定制,用户按照自身需要输入关键词或语句,生成工具便会在分析用户喜好的基础上生成个性化定制的内容,并且由于生成工具背后的模型和算法已经具有高度的修正功能,其内容生成还会越发接近用户的预设,用户将更难得到异质信息,原有的信息茧房则变得更狭小、更封闭。

在认知路径方面,大学教育向来鼓励大学生的发散性思维和创造性思维,避免认知固化。但生成式人工智能的大模型训练需要长时期的集成和积累,一旦取得成效,便会在原有路径上加大数量,而不会制造路径突破。这也就解释了为何用户在不同语境下向ChatGPT 提出不同的问题,得到的回答在语言逻辑和内容本质上却具有高度重复性,其背后就是工具化训练而产生的“思维”逻辑的单一性。因此,大学生一旦较早地接受了生成式人工智能的“思维”逻辑,其自身发散性思维和创造性思维便会退化。

4.生成与反馈:人机互动产生数据供能新的循环并导致地位颠倒

在人工智能时代,数据被视作新一轮技术革命的“石油”,它既能成为重要的资源,也能带来一定隐患。数据来源的安全问题与数据存储、流动的问题都关系到用户接触生成式人工智能的安全。人工智能条件下,用户隐私更加脆弱。用户在使用生成式智能工具时,完成了无数次人机互动,无时不刻不在产生新的数据,这其中既有传统意义上的个人隐私信息,也有能够被人工智能加工利用的信息,这些信息共同构成使用者对生成式人工智能的反馈。

在“数据基础—算法运行—内容获取—用户反馈”的流程中,这种反馈是生成式人工智能的算法影响和改变用户的一个关键节点,这个节点既可以看作前一个流程的终点,也可以看作一个新流程的起点,也就是说,用户反馈使线性的单向流程成为一个闭合的循环流程。有学者指出,生成式人工智能的算法可以通过三步改变人:获知身份、获知偏好、产生影响。[16]人机互动产生的痕迹、记录等信息,可以供给人工智能用以获知用户身份和偏好。一旦人机互动提供的信息成功供能多次循环,使生成式人工智能达到“产生影响”的阶段,在某种意义上算法已经从“仆人”升级为“主人”,人机的地位将面临颠倒。

从理论的维度来说,这一现象本身就是异化理论在生成式人工智能时代的生动反映,值得高校思政教育者关注和警觉。从实践的维度来看,这种地位颠倒将加大受教育者思想意识遭受攻击和渗透的危险,其危害更值得警惕。由于具备多头注意力(multi-head attention)的编码和解码技术,生成式人工智能的模型具备最大限度捕捉、理解语义并输出内容的能力,加之激励模型的使用,使“AI 训练AI”得以实现,人工智能具有了一定自主权。从工具使用形式来看,ChatGPT 等产品以对话、聊天、问答等形式输出内容,人机交互中的信息灌输和价值传输更具有潜移默化的特征。在这种情况下,人工智能工具对人的“灌输”体现出鲜明的广域性和泛在性,也就是说,受教育者接收信息的时间、地点、模式、过程和内容都在一定程度上取决于受教育者自身甚至是生成式智能工具,教育者的主动性部分地被智能工具剥夺。人机地位颠倒后,人机交互为“AI 训练人”提供了条件,一旦管理不当或被定向应用,就有可能成为输出意识形态话语、塑造价值观念、制造意识状态对抗的有力工具。

三、应对:弥合生成式人工智能对高校思政教育的冲击

生成式人工智能的出现和发展是科技进步的必然趋势。2023 年7 月,国家互联网信息办公室、国家发展和改革委员会、教育部等六部门联合发布《生成式人工智能服务管理暂行办法》,明确“国家坚持发展和安全并重、促进创新和依法治理相结合的原则,采取有效措施鼓励生成式人工智能创新发展”[17]。对于高校思政教育而言,教师和学生有了解、接受、使用新技术的需求和权利。故需辩证看待生成式人工智能对高校思政教育带来的机遇与挑战,在应用和管理上扬长避短,从多个方面弥合生成式人工智能对高校思政教育的冲击。

1.对象—主体:加强高校学生和思政教师的素质建设,保证教育活动的鲁棒性

鲁棒性原是计算机科学和工程领域的专业用语,指复杂系统承受故障和干扰的能力以及处于不利条件下稳定生存的能力。思想政治工作根本上是做人的工作,青年学生是高校思政工作的主要对象和保持教育活动有效性的关键群体,高校思政教师是保证教育活动承受不利干扰且正常运行的决定性力量。因此,在面对先进技术对高校思政教育带来冲击时,应加强高校学生和思政教师这两大参与者的素质建设,从源头上提高大学生自身应对风险的能力,同时发挥教育者相对于智能工具的独有优势。

对于高校学生而言,一是要提升智能化条件下的数字素养,包括隐私泄露风险防范意识、数字平台内容甄别能力等。从根源上说,生成式人工智能对高校思政教育的冲击是通过影响接受思政教育的大学生完成的,要想提高受教育者在智能化教育环境中对技术负面效应的免疫力,应通过增设通识类课程等方式普及生成式人工智能影响个人意识的机理、数据和隐私泄露风险演化机理与危害、数字平台和人工智能生成内容的价值甄别等相关知识。二是要完善大学生认知结构,提高学生辩证认识智能工具生成内容的水平。智能工具生成内容的价值取向更容易影响价值观念和思维方式尚未确立或固化的青年大学生。要在大学学习的起步阶段尽早扩充学生的知识储备、完善学生的认知结构,用科学的、正确的教育内容奠定学生的认知和思维基础,破除学生对智能工具等科技成果的“迷信”,提升学生的甄别和批判能力。

对于思政教师而言,一是要提升思政课教师的智能化科技素养,包括技术机理的掌握和技术应用的能力。生成式人工智能的应用在增加思想政治灌输和疏导难度的同时,也为教师提供了了解学生的方式和渠道。要消除教师和学生之间的技术“代沟”,使教师能够借助学生经常接触的智能工具了解学生认识事物、思考问题的方式,增强教育引导的针对性和方向性。二是要强化教师专业知识和理论水平的武装。就数量而言,生成式人工智能的知识储备大于任何人,但就深度和精度而言,高校思政教师可以在专业范围内以高超的理论素养和学术化的思维逻辑对智能工具形成相对优势。在面对大学生时,思政教师应避免对泛化知识的重复和普及,而应展现生成式工具不能提供的思维深度和理论厚度。三是要注重情感投入,抵消智能技术对师生关系的不良影响。生成式人工智能的工具属性无法在情感上代替思政教师的情感属性。高校思政教育除了有一定的政治色彩,更有丰富的人文关怀,在生成式人工智能技术的冲击下,应该用教师对学生的情感关照巩固受教育者对教育者的信任,引导思政教师形成高尚人格和热忱情怀,展现高校思政教育者的人文关怀。

2.技术—内容:建立以自主数据为支撑的智能模型,保证生成内容的可靠性

数据是生成式人工智能的基础资源,数据的自主可靠是确保生成内容可靠的关键。当前,西方国家借助先进的网络基础设置和软硬件优势,以数据“自由流动”为由大行长臂管辖之实,实质上是用数字霸权垄断并控制全球的数据资源。在生成式人工智能技术的研发和应用中,这种数据优势转化为模型优势和算法优势,形成了算法垄断。对基础资源的垄断是造成ChatGPT 等工具的生成内容具有意识形态倾向的根源所在。解决技术派生问题的最佳方案是用技术的手段来规避风险,也就是说,我们要依托自主可控的数据建立传递中国话语、符合中国主流意识形态的生成式人工智能模型。

一方面,要提高本土数据的分析能力和利用水平。近年来,我国的网络基础设施、数据生成和存储能力、网络软硬件水平均取得了长足进步。根据中国互联网络信息中心最新发布的《第52 次中国互联网络发展状况统计报告》,仅2023 年上半年,我国“移动互联网累计流量达1423 亿GB,同比增长14.6%”[18]。根据工业和信息化部发布的《中国存力白皮书(2023年)》,“截至2022 年年底,我国数据存力总规模(5 年计量)已高达1000EB(1 万亿GB)”[19]。这样庞大的数据生产和存储能力足够支撑发展中国自主的生成式人工智能模型和工具。基于此,应该优化供大模型训练的数据集的选择,加强对数据选择的价值甄别,在激励和优化模型中增加价值观识别和意识形态鉴别机制,确保生成内容的可靠性。

另一方面,要提高外来数据生成内容的识别能力。在自主智能模型成熟完善之前,国外机构研发推广的生成式人工智能产品在国内还有相当的市场。当前,全球多国大学、科研机构发布明确的人工智能禁令,禁止使用ChatGPT 和其他智能工具完成学习与考试任务。我国也对ChatGPT 等采取了一定监管措施,但网络上也存在以各种接口连接并经过包装的“中国版ChatGPT”[20],在一定程度上反映了用户对这一新技术的需求。结合高校教育实际,可以在这些境外生成工具的接口端加入内容识别、查证和屏蔽的插件,对这些生成内容进行无害化处理,避免中国用户尤其是大学生用户群体接受存在意识形态问题的内容。

3.应用—管理:形成法规和伦理互补的规范机制,保证技术应用的合理性

生成式人工智能对高校思政教育的冲击是通过技术的应用而形成的,弥合这种冲击也应从技术应用入手,加强法规监管和伦理方面的规范,“国际上就人工智能与法律、伦理议题开展的综合性研究或专门性研究越来越多”[21]。法规监管与伦理规范并重,是世界各国防范和抵御人工智能技术带来潜在社会风险的通用做法,也符合我国《生成式人工智能服务管理暂行办法》中“遵守法律、行政法规,尊重社会公德和伦理道德”的要求。

一方面,高校应结合自身实际制定生成式人工智能使用的规章制度。在世界范围内,部分高校和教育部门已经对生成式人工智能制定了“禁令式”制度规范。在美国,纽约市教育部门于2023 年1 月初宣布“禁止学生在校使用ChatGPT,以预防学生的作弊行为”[22];在加拿大,包括英属哥伦比亚大学、达尔豪斯大学、多伦多大学在内的“多所高校制定了有关学生使用ChatGPT 的政策”[23];在欧洲,巴黎政治学院从2023 年1 月开始“禁止学生利用ChatGPT 完成教学任务”[24]。我国高校应借鉴这些国家和高校的做法,结合学生使用生成式人工智能的实际制定规范化的硬性条款,以约束ChatGPT 等生成式服务的滥用。

另一方面,高校应在日常思政教育中加强科技伦理方面的教育和引导。生成式人工智能在高校教育中引发的地位颠倒、信任危机等伦理问题,可以部分归因于使用者的思想认识偏差。目前,高校研究生思政课程中的《自然辩证法概论》课程包含了科技伦理的教育内容,新版《马克思主义基本原理》教材也涉及了对“人工智能”的哲学审视。但是针对全体高校学生的科技伦理专门教育还较少,高校应借助对学生开展思想道德与法治教育的契机融入相关伦理教育,尤其是理工科院校和从事人工智能相关研究的专业和院校,更应结合专业实际开展生成式人工智能伦理教育。

4.价值—效能:转化生成式人工智能的优势价值,提升现有教育的有效性

生成式人工智能具有技术上的进步性和需求上的广泛性,对新的技术工具一禁了之既不符合思政教育的规律,也不利于在新技术条件下发挥思政教育的成效。因此,弥合生成式人工智能对高校思政教育的冲击,除了防范风险,还要坚持辩证思维,发现并利用这一先进技术工具的优势,释放技术背后的潜在价值,将其特性和优势转化为提升现有思政教育水平的效能。

一方面,要借助生成式人工智能丰富教育内容。生成式人工智能集成了庞大的数据资源和先进的算法算力,蕴含着丰富的教育资源。高校思政教师要善于获取生成式人工智能工具本身集成的内容资源,并根据这些内容的意识形态特征和价值取向提前设计教育引导方式。此外,生成式人工智能能够为高校思政教师提供青年学生的思维路径、行为习惯等信息,教育者要借助技术手段了解掌握受教育者的全方位信息,提高思政教育内容灌输的针对性和有效性。

另一方面,要通过生成式人工智能创新教育形式。上文提到,生成式人工智能介入教育场域形成了“人—机—人”节点平等的关系网络。在高校思想政治教育活动中,教育者应通过对技术工具属性本质的掌握让智能服务回归辅助功能,建立“人—智能辅助—人”的师生关系,维护高校思政教师的教育主导地位。利用好生成式人工智能个性化定制的优势,结合学生个体特征和思维特点拟定教育方案。发挥智能工具潜移默化、润物无声的影响优势,优化思政教育的时机和场域,淡化思政课堂的说教色彩,采取灵活、有趣的多样形式创新灌输方式,提升高校思政教育效能。

四、结语

作为一种全新的内容生产方式,生成式人工智能得以快速发展与广泛运用的底层原因是人们对内容的需求愈发旺盛。但随着这种新技术创造力的显现,人们对生成式人工智能的未来发展也呈现出期望与隐忧并存的复杂态度。对于高校的思想政治教育而言,生成式人工智能带来的冲击,在教育主体、教育内容、教育过程等多个范畴都有明显的表现。只有不断探寻生成式人工智能冲击高校思政教育的内在原因,解读隐藏在复杂技术之后的机理密码,才能在应对这一冲击时有理可依、有据可循。诚然,生成式人工智能的发展并没有达到成熟或停滞的地步,而是在科技研发、商业应用、用户反馈的过程中不断进步,其对高校思想政治教育的冲击和影响的全貌也远未完全显露。因此,需要用发展的眼光和对立统一的观点,把握高校思想政治教育工作铸魂育人的内核,把握新技术介入冲击思政教育效果的本质,在动态平衡中解决好人的价值属性与技术的工具属性之间的矛盾。

猜你喜欢
受教育者人工智能思政
思政课只不过是一门“副课”?
关于国企党建与思政宣传有效结合的探讨
少数民族地区初中数学学习弱势学生的成因分析及转化对策的研究
浅谈初中语文“三段六步”教学法的策略
如何培养低年级学生学习科学的兴趣
思政课“需求侧”
思政课“进化”——西安交大:思政课是门艺术
小学语文教学中如何激发学生的写作兴趣
2019:人工智能
人工智能与就业