人工智能赋能思想政治教育的伦理风险及其应对

2024-05-09 23:35董圆圆
关键词:教育者伦理对象

董圆圆

(复旦大学 马克思主义学院,上海 200433)

随着人工智能在模拟、延伸与拓展人类智慧方面的突飞猛进,思想政治教育与人工智能技术的融合也呈现出新态势,从技术“介入”到“融入”,思想政治教育的技术化已经不再是简单地“嫁接”于网络,而是在主动运用大数据、算法、物联网等新兴技术的过程中体现出自己的创新活力。近年来,思想政治教育与人工智能的深度耦合主要呈现出以下态势:一是思想政治教育精准化趋向明显。在万物互联的背景下,大数据可以捕捉教育对象的阅读习惯、浏览偏好,深度学习算法可以从海量信息中抓取、筛选、分析教育对象的思想行为特征和个性化精神需求,预判教育对象的行为,从而明确思想政治教育活动的靶标,实现定制化教育内容的供给。二是思想政治教育可出场的空间维度拓宽,虚实交融的“沉浸式”思想政治教育得到高度关注。思想政治教育过程的全息化态势日渐突显,以大数据、云计算、虚拟仿真等技术为基石的人工智能打破了传统思想政治教育的时空限制,建构了“全方位链接物理空间和虚拟空间的场域”[1],虚拟现实(VR)、增加现实(AR)、混合现实(MR)等技术助力改变了传统思想政治教育对教育主客体必须同时在场的线性教学要求,促使思想政治教育的出场更加多元化,除课堂教学的主渠道外,思想政治教育内容线上传播呈现出可视化、渗透化、符号化趋向,利用智能技术打造立体的、特定的教育场景成为可能,更加注重教育对象在思想政治教育过程中的“具身”体验。例如,建党百年之际,上海的中共三大后中央局机关历史纪念馆推出了“通关密室”,借助VR 等技术还原了中共三大后中央局机关秘密办公的情景,将红色故事设计为通关的“密钥”“线索”,这种虚实融合、触感交互的在场体验有利于激发参与者的共情感和认同感。

人工智能在推动思想政治教育创新发展的同时,也衍生出了繁杂的伦理问题,侵蚀着思想政治教育的伦理价值。因此,在思想政治教育与人工智能深度融合的过程中,需重视人工智能赋能带来的伦理风险,审思数字化时代思想政治教育中技术与伦理的关系,在享受技术“红利”为思想政治教育带来机遇的同时,合理把握技术—伦理尺度,推动技术向善。

一、人工智能赋能思想政治教育的伦理风险表征

伦理指向社会秩序,“以社会生活的正义秩序及其实现为核心”[2],伦理的现实表征主要体现在作为伦理实体的人的社会关系方面,即人与人、人与社会、人与自然之间的伦理关系。人工智能背景下虚拟与现实共生,伦理不再单指现实社会,也指向虚实交融中现实人与虚拟人、人与机、虚拟人与现实社会之间的关系。人工智能技术拥有变革思想政治教育的伟力,技术之于思想政治教育的自反性力量可能会消弭人的主动性、价值性,从而引发个体、关系及社会维度的伦理风险。

(一)个体维度:本我的隐藏与迷失

在思想政治教育过程中,人工智能带来的最大的伦理威胁莫过于个体的身份危机。一方面,这种身份危机表现在“超级全景监狱”视野下,用户为了维护个人隐私信息以及遮掩网络行为,在与大数据、算法等技术进行的博弈中掩藏自我的真实动机;另一方面,这种身份危机体现为个体的符号化身份不断被塑造,导致个体逐渐习惯充当符号化的角色,而逐渐丧失本我人格。

《世界人权宣言》明确规定:“任何人的私生活、家庭、住宅和通信不得任意干涉,他的荣誉和名誉不得加以攻击。”[3]但在人工智能时代,大数据、云计算等技术得到广泛应用,人们已经处于“超级全景监狱”中,各种社交软件、搜索引擎的数据共享使得人们对自己的个人信息和隐私的控制越来越弱,无时无刻不在接受大数据的监视。尽管各领域已经形成了对于隐私权保护的基本共识,但是智能的精准服务与用户的隐私保护似乎天然相悖。例如:为了实现思想政治教育的个性化定制,就需要了解教育对象常用的社交软件、网上言论、浏览页面、关注的博主动态等,并对海量的用户数据进行相关性分析,进而综合生成教育对象专属的思想动态“画像”,“画像”的精准程度又往往与用户的“曝光度”成正比。在这种情况下,人们为了维护网络形象,则会通过不点赞、不转发、不评论或者“开小号”等行为来隐藏自己的网络行踪,故意“伪装”人设,甚至与线下的真实性格大相径庭,长此以往,容易形成两副“面孔”,对自身的人格发展产生不利影响。

智能时代,每个人都是数字化存在的主体,思想政治教育越来越注重借助用户“画像”来实现个性化教育,这也在一定程度上提升了思想政治教育的有效性。但也应注意,“画像”看似实现了对教育对象的心理和个性的精准透视,实则是对人进行“降维”处理,忽视了人是肉体自我、社会自我、精神自我以及符号自我的统一体,将人视为纯粹数据化的“符号人”,忽视了现实人的多维复杂性。如前所述,用户在全景敞视的网络平台中预设围观的存在,会刻意塑造自己虚拟的符号身份,此时的用户“画像”会受到干扰,教育者结合教育对象刻意“塑造”的特征来开展思想政治教育工作,会反向巩固教育对象的符号化身份,忽视对生命完整性的人文关怀,使教育对象沉浸于充当数字化、符号化的虚幻角色,使“简单、抽象的信息、数字、符号替代了人的全面本质”[4],这显然与思想政治教育的终极目标背道而驰。

(二)关系维度:师生关系的消解

人工智能赋能思想政治教育关系维度上的伦理风险,主要体现在人工智能的介入使教育对象对教育者的依赖关系减弱,传统师生关系受到“类主体”的挑战,同时,“人—机—人”关系中技术与教育对象的作用加强,教育对象的情感体验淡化。

传统的思想政治教育多为面对面的说理传教,教育者与教育对象须在共同的时空场域内实现理论的输出与输入,教育对象对教育者的依赖性较高。人工智能技术的发展重塑了思想政治教育生态,为教育对象提供了开放、共享的交互式学习系统和“超现实”的虚拟场域以及海量的、个性化的教育内容,这皆给以课堂为中心、以教师为知识来源和知识权威的传统思想政治教育带来了挑战,打破了教育—学校、教育—师生的强相关关系,作为教育者的主体“由管理者的角色变为了引导者与合作者”[5],作为教育对象的主体自觉性、能动性被充分唤起,对于直接的、强硬的灌输式教育内心抵触感增强。在这样的背景下,人工智能赋能思想政治教育应着眼于人机协同,即教育者利用人工智能丰富思想政治教育的手段与途径,创设具有互动性、感染力的教育场景,主动融入网络平台,实现网络思想政治教育的作用。此处的“协同”应该是人工智能配合教育者完成教育任务,但在实际操作中人工智能似有喧宾夺主之势。例如:在思想政治教育过程中,过于突出技术的赋权增能;在思想政治理论课上,教学视频、文案推送纷纷上线,慕课、翻转课堂全面兴起;在一些思想政治教育场景建构中,科技感带来的震撼甚至高于内容本身。智能思政模式下,本该发挥主导作用的教育者常常身体“缺场”,变成了连接教育对象与技术的“幕后人”,教育对象甚至也无法确定与其互动交流的“键盘手”是谁,这在一定程度上消解了传统思想政治教育中的师生关系,催生了关系伦理风险。

思想政治教育是一项育人工作,最根本的目标就是要实现教育对象对教育内容的认同与践行,而情感因素是推动教育对象将教育内容内化于心的催化剂,也是教育者与教育对象之间的沟通纽带。因此,思想政治教育应是坚持“人性为王”的教育,既要注重教育过程中的情感融入,也要注重教育对象的人格德行和情感养成。人工智能时代教育者和教育对象的具身走在“在场”与“不在场”的思想政治教育活动之中,是一种“人—机—人”的交互模式,智能思政面临着“大数据运用的热处理、温导入与冷输出”[6]的困局。人工智能的助力为思想政治教育带来了新的变革,特别是在认识教育对象的环节提供了科学化、全覆盖的技术支撑,让思想政治教育精准施教成为可能,但在网络思想政治教育过程中,对位于互联网终端的教育双方而言,传播和流动的只有技术上的“数字符号”和程式化的活动设置,双方的情绪、感受被技术屏蔽,相互之间察觉不到喜怒哀乐,容易造成认知参与、情感交流的“伪参与”现象,在一定程度上弱化了情感选择对思想政治教育内化的推动作用,教育过程中情感体验的淡化也会影响教育对象在现实生活中对人与人之间关系的处理。

(三)社会维度:价值共识的湮没

思想政治教育作为社会政治生活的关键辅助,具有促进社会政治结构优化、凝聚社会共识、维护社会稳定的重要价值。近年来,思想政治教育在形式上呈现出教育技术化倾向,人工智能本身的工具理性不断挤压理性的价值空间,技术思维的渗透加剧了思想政治教育内在的价值危机,逐渐解构思想政治教育的社会价值属性。这种技术理性正在逐渐把个体价值与社会共同体价值隔离开来,消解了人们的道德责任和社会义务,给社会整体稳定带来了一定的威胁。

首先,人工智能时代算法推荐形成的“信息茧房”阻碍了价值共识的传播。算法基于内容推荐与协同过滤两种推荐机制,向用户推送“强相关性”信息,将用户从信息轰炸中“解放”出来,人们习惯并沉浸于算法推荐的“投其所好”,久而久之便会被愉悦自己的信息层层包围,将自身桎梏于“信息茧房”中。思想政治教育所宣传的共识性知识和公共性信息若不是用户感兴趣的内容,在传播的过程中就会被算法自动识别过滤掉,难以进入“茧房”。

其次,同质化圈层消弭了人们对社会共同体身份的认同。思想政治教育凝聚社会共识的关键举措,就是构筑教育对象对社会共同体身份的认同。然而,智能时代大数据与算法为个体寻找“志同道合”的朋友提供了便捷渠道,算法根据数据相关性将价值认知、兴趣爱好相近的个体联系到一起形成不同的群体圈子,在偏好相似的圈层内,个体的言论得到“回音”一般的关注与肯定,这种循环往复的互动不断强化着彼此的身份认同,个体在圈层内得到的支持和信赖远高于圈外,因此,个体会更倾向维护在圈层内的形象与身份,把圈层视为自己的“精神乌托邦”,忽略或者漠视社会共同体身份,从而导致对社会的责任感降低。当下,二次元圈层、食文化圈层、丧文化圈层等纷纷兴起,不同圈层之间的话语体系与价值观念各异,个体留恋于圈层内抗拒“出圈”,在“入圈”难的情况下,思想政治教育的话语权被大大削弱,主流意识形态的价值共识也被稀释,这将不利于社会的稳定与长远发展。

二、人工智能赋能思想政治教育伦理风险“在场”的必然之理

人工智能赋能思想政治教育过程中,伦理风险的“在场”有其必然性,是客观因素与主观因素综合作用的结果。客观因素主要是指以算法、深度学习为核心的技术本身存在的不确定性与复杂性;主观因素则是指教育主体在思想政治教育数字化过程中对风险的认知心理、感知预判等。

(一)人工智能的类人属性不断强化

马歇尔•麦克卢汉指出:“一切技术都是身体和神经系统增加力量和速度的延伸。”[7]技术是身体的延伸,是人在现实生活中“解弊”的工具和手段,人与技术之间是主体与客体、人与物的关系。随着智能技术的迅速革新,技术的工具属性表现出了类人属性,不仅是人生产劳动时借用的工具,甚至直接扮演了人的角色。人工智能可以代替人从事简单的、重复性的机械工作,并且可以无休歇地进行投入、付出、制造,这是人工智能对人的劳动解放,但当人工智能逐渐替代了人的各式各样的劳动时,则要思考劳动给予人的生命的意义与价值,智能机器在替代“工具性”人的同时,也在不断弱化人的自我价值评判能力,解构传统生命样式,以致使传统生活世界面临强烈冲击。此外,还必须注意到,人工智能已不仅仅是技术化的工具,而是越来越具有类似人的思维的能力,除代替人进行劳动外,人工智能也可以通过强运算为人做出最优的选择,阿尔法狗打败围棋冠军柯洁的事例就说明人工智能在某些方面已经具有超越人的思维的能力。尽管我们确信人工智能不可能取代人的主体地位,但是人与人工智能的关系显然已不再是纯粹的主体与客体的关系或者人与物的关系,而是在朝着主体与类主体的关系发展。

随着人与智能技术之间的关系从人与非人的二元论关系逐渐发展成人与智能技术相互生成的“共生”关系,人工智能之于思想政治教育,也已经跳脱了传统意义上的工具价值,逐渐成为“教学代理”。一方面,弱化了教育者在思想政治教育活动中的主导性作用,对教师职业产生了威胁。另一方面,正如马丁•海德格尔所言:“现代技术业已不是中性中立的,它架构式地渗透、弥散、影响,甚至操控人的现代生活,赋予人新的生命与发展轨迹。”[8]技术背后的复杂性远超人们的想象,除智能技术本身的不可控性外,还有资本与权力的较量,因此,智能技术的“出场”即代表着立场,当算法被资本操纵,技术向善何以可能?所以,在思想政治教育过程中要警惕人工智能的类主体性,把握好思想政治教育的方向。

(二)算法自主性导致的不可预测性增加

算法的自主性是人工智能应用的最大隐患,这种自主性主要体现在算法具备深度学习与强化学习的能力。深度学习是指算法能够“独立地将简单的概念合并,从数据出发创建抽象的模型”[9]。这意味着,只需给出足量的训练数据,算法便会依靠这些数据进行自我训练创建模型,且能够自主定义、修改、升级算法系统,系统设计人员即使在设计之初已经给出数据转换的详尽规则也无法彻底知晓系统内部发生的事情。强化学习主要是指算法不仅能够利用数据,而且能够生成数据并从中进行学习,这就给算法带来了更多的可能性和不可预测性。这种因算法不可预测且又难以向公众解释的特性也被称为算法黑箱。算法黑箱又滋生出诸多伦理问题:首先,算法黑箱剥夺了人的知情权与选择权,个性化推荐将用户从海量信息中解放出来的同时,也为用户搭建了“信息茧房”,用户在对个性化推送内容的生成机制一无所知的情况下,被算法推荐重新塑造,甚至意识不到选择受限。其次,算法歧视作为数据输入、转换、输出过程的“副产品”,其生成除算法设计者主观成见的输入外,还有算法逻辑本身,而算法逻辑究竟是于哪一步生成的歧视往往难以确定。正如王天恩所指出的,算法输入数据的权重、算法本身的决定、误用某些算法模型等都可能导致算法歧视的产生[10]。

人工智能助力思想政治教育过程中,人工智能系统无法全面把握思想政治教育者真正的教育设计意图,缺乏对技术伦理的整体观照,这往往导致无法产生道德化的教育人工智能指令。在大数据爬取采集、教育对象需求分析、教育内容的个性化分发等过程中皆可能出现编程错误、系统故障或者偏见影响,这导致在人们借助算法推进思想政治教育实效性的同时也会产生难以预测的问题,特别是伦理问题(如隐私泄露)。算法的不确定性及不透明性意味着确认算法活动的影响或溯因变得困难,准确定位导致行为后果的直接责任主体更是难上加难。

(三)风险认知与外在保障的有限性

受专业因素与现实条件的约束,人工智能与思想政治教育融合过程中对于伦理风险的认知与应对能力受到限制,这也是人工智能赋能思想政治教育伦理风险生成的重要原因。人工智能时代,除教师扮演着思想政治教育者的角色外,算法设计者、系统操作者等技术人员也在一定程度上发挥着思想政治教育者的主导性作用。可以看到,传统思想政治教育者正在积极“入网”“入圈”,但对于大数据、算法等运作逻辑的掌握、理解仍然不够,算法设计者、系统操作者作为技术支持者对于思想政治教育的专业知识、方式方法也不甚了解,在思想政治教育过程中往往扮演的是“工具人”的角色,仅仅凭借“画像”来完成思想政治教育内容的个性化推送,借助关键词来识别、拦截不良意识形态的渗透,往往会忽视“画像”背后人的多面性以及潜在的伦理风险。人工智能赋能思想政治教育理应是一个跨学科领域的协同育人过程,目前这种协同育人还处于“1+1”的状态,不同的主导性角色之间存在着知识隔阂,在合力进行思想政治教育过程中侧重精准性、智能化,容易忽视数据管理不当、教育对象独立思考能力退化、人际情感交流弱化等问题,对于伦理风险的认知失之偏颇。

外在保障的有限性是人工智能赋能思想政治教育过程中伦理风险层出不穷的另一重要原因。与国外相比,国内人工智能伦理治理工作起步较晚,当前,关于人工智能伦理治理的制度、体制、监管的保障尚待完善,关于虚拟空间的行为规范、数据保护等缺乏普适性的立法,不同部门、不同高校和不同用户群体对伦理问题所持的态度不一,导致思想政治教育智能化过程中容易触碰伦理红线。同时,相关的人工智能伦理教育和宣传也有待提升,人工智能赋能思想政治教育的伦理风险规避不仅仅是教育者的责任,也是教育对象的责任,但是由于缺乏相关的科技伦理教育,教育对象普遍尚未充分意识到自己在思想政治教育过程中的主体伦理价值与责任。

三、人工智能赋能思想政治教育伦理风险的应对思路

如何有效化解人工智能赋能思想政治教育过程中的伦理风险,形成正确的伦理导向,是思想政治教育数字化转型中不可忽视的重要议题。结合对伦理风险“在场”的影响因素的分析,可以发现,破题之关键在于道、情、法三管齐下,既需要从思想政治教育内部突围,也需要对思想政治教育外部环境进行优化。

(一)以道御术,坚持思想政治教育的主导地位

人工智能对思想政治教育的本质性影响在于改变了教育对象的思维方式、认知图式和行为习惯,倒逼思想政治教育的内容、过程、方法进行变革创新。在变革创新的过程中,人工智能又发挥着载体、手段等作用,因此人工智能之于思想政治教育的意义不言而喻。在思想政治教育过程中,也存在夸大技术作用、贬低思想政治教育功能的现象,这会直接导致工具理性对价值理性的僭越,触发人的主体性伦理风险。鉴于此,在人工智能赋能思想政治教育过程中,必须审慎思考人工智能与思想政治教育之间的耦合关系。

在思想政治教育过程中,一切技术的应用都应服务于思想政治教育育人、成人的根本目的,思想政治教育内容广博,其世界观、政治观、人生观、法治观、道德观的教育内容中蕴含着现代社会的伦理要求,因此思想政治教育本身就是化解智能伦理风险的“良方”。人工智能与思想政治教育融合过程中显现的伦理风险警示人们,人工智能赋能思想政治教育并不是二者的简单叠加,而是一方主导另一方,伦理风险的出现则是人工智能僭越思想政治教育致使本末倒置的表现。因此,在人工智能融入思想政治教育的过程中,要坚持思想政治教育的主导地位,以道御术,将马克思主义世界观和方法论内嵌于智能算法的逻辑体系之中,用社会主义核心价值观纠偏技术的工具理性倾向,不断优化算法自身“内嵌式规则”的伦理取向。同时,思想政治教育应保持一定的“独立性”,坚持育人为本、技术为用,审慎地把握智能技术融入的“度”,辩证地看待智能技术在思想政治教育中的效用,明确思想政治教育智能化的伦理界限与适用范围,避免思想政治教育遭受智能技术的规训和绑架。

(二)以情化人,打造伦理共同体优化具身体验

“现实的人”是马克思主义理论视野的重点关注,也是思想政治教育工作的出发点。针对人工智能与思想政治教育耦合发展过程中存在的个体维度和关系维度的伦理风险,应重视教育者与教育对象之间的情感联动,以情化人,重塑伦理共同体,在互动过程中表达真我,提高双方的具身认知。

德国社会学家费迪南•滕尼斯指出,“共同体”是人际关系的基本形态,认为“共同体的生命是相互的占有和享受”[11]。这种共同的精神让共同体中的成员具有存在感与归属感,启示人们思想政治教育数字化发展破解关系伦理风险的关键在于重新审视教育者与教育对象之间的关系,以伦理共同体的存在为前提开展思想政治教育活动。伦理共同体意味着伦理秩序与规范是在教育双方互动过程中动态生成演绎的,要强化教育双方的伦理共通感,特别是作为主导者的教育者应通过情感的交互与共鸣积极传递关于虚拟空间道德伦理的共通感。首先,教育者应帮助教育对象树立社会伦理共同体意识,伦理共同体并非个人主体意识的枷锁,相反,自我与他者共在的文化场域能够帮助个体适应社会要求,在共同体的互助互尊中实现自我价值。正如马克思所言:“只有在共同体中,个人才能获得全面发展其才能的手段,也就是说,只有在共同体中才可能有个人自由。”[12]其次,在数字化场域中,思想政治教育者、人工智能、教育对象共存,教育者让渡部分教学工作给人工智能,但教育者的人格和情感是无法被机器取代的,正所谓“道之所存,师之所存”。教育者在借助人工智能从烦琐的工作中解放出来的同时,应注重彰显自身的不可替代性,相较于人工智能的无情感,教育者可以在德行与爱上彰显自己的价值,加强柔性引导,以共情共鸣的心理让教育对象感受到尊重与归属感,帮助教育对象实现由“我”到“我们”的道德适应,从符号化和计算化倾向的技术理性中突围。此外,伦理共同体应注重面向具身的教育文化。思想政治教育过程绝不能被看作是类似计算机的信息加工过程,而是应该有人的身体涉入、情景体验和情景互动。教育者可以在人工智能的辅助下构建具身的学习环境,通过仿真虚拟实验室等技术找准契合点,增加教学情境的代入,引导教育对象在具身环境下进行实践参与和主动感知,避免人工智能赋能带来的真我迷失、情感忽视等伦理风险。

(三)以法为界,构建伦理保障机制明确底线要求

对于人工智能赋能思想政治教育伦理风险的规约,除从思想政治教育的育人逻辑出发进行纠偏外,也需从技术本身出发,针对算法运行过程中存在的伦理缺陷,建立起适合人工智能赋能思想政治教育的规范和标准,或是对已经被智能力量突破的伦理边界进行重修和重塑。这种重修和重塑既需要达成一致的技术伦理原则,明确技术的价值旨向,也需要法律、制度的硬性保障,明确技术的何以可为。

随着人工智能的迅速发展,学界围绕“人工智能与伦理”开展了较多的讨论与论辩,提出了对于人工智能应用的伦理要求,其中,公平、包容、可靠、安全、隐私保护、透明和可问责是公认的基础性原则。在人工智能与教育结合的具体应用中,学者们又提出了人工智能教育伦理原则,即“问责原则、隐私原则、平等原则、透明原则、不伤害原则、身份认同原则、预警原则和稳定原则”[13]。人工智能融入思想政治教育应谨遵上述能够降低或者规避伦理风险的原则,坚持技术向善的出发点。此外,完善人工智能运用的监管机制、问责机制,形成有法可依、有章可循的宏观环境是思想政治教育智能化守序发展的重要保障。这一保障机制的构建是一个协同共建的过程,一方面,要借助国家顶层设计,及时完善和出台关于数据采集、数据应用界限的法律规章,健全算法运用的监管机制与问责机制,规约技术人员的研发行为,避免算法设计过程中的偏见与歧视,防止因为监管缺失出现伦理性问题;另一方面,要不断提高思想政治教育者、技术人员的道德素养与伦理素养,特别是技术人员对于伦理风险的敏感度,思想政治教育者、技术人员应通力协作,自觉推进人工智能与思想政治教育的“良性”合作,做好严格的防控和把关,主动关注适用于思想政治教育领域的算法规则的设定和生成,科学评估人工智能的效果和意义,避免对人工智能的滥用、误解和迷信,以期最终驾驭技术、控制技术,达到消解伦理风险的理想状态。

猜你喜欢
教育者伦理对象
神秘来电
张慧萍:做有情怀、有温度的教育者
《心之死》的趣味与伦理焦虑
护生眼中的伦理修养
攻略对象的心思好难猜
基于熵的快速扫描法的FNEA初始对象的生成方法
与两位美国音乐教育者的对话——记于“2015中国音乐教育大会”
区间对象族的可镇定性分析
医改莫忘构建伦理新机制
婚姻家庭法的伦理性及其立法延展