国际组织基础教育人工智能伦理政策透视

2024-02-28 01:57尹雅丽
比较教育研究 2024年2期
关键词:决策者层面指南

尹雅丽

(1.赣南师范大学外国语学院,江西赣州 341000;2.国家教材建设重点研究基地华南师范大学港澳台教材综合研究基地,广东广州 510631)

基础教育人工智能伦理直接关乎儿童和青少年的发展大计。当前,已有多个国际组织和政府发布相关政策,关注人工智能应用于基础教育领域的伦理边界和法律标准。世界经济论坛(World Economic Forum)是较早关注基础教育人工智能伦理问题的国际组织,于2019年颁布《人工智能一代:为儿童和人工智能建立全球标准》(Generation AI Establishing Global Standards for Children and AI,下文简称《人工智能一代》),提出制定人工智能儿童标准,加强风险识别与防范。[1]2021年,联合国教科文组织(UNESCO)颁布具有里程碑意义的《人工智能与教育:决策者指南》(AI and Education:A Guidance for Policymakers,下文简称《决策者指南》),这是首份系统阐释教育领域人工智能伦理的政策文件。[2]教育人工智能伦理研究所(The Institute for Ethical AI in Education)于2021 年制定的《教育人工智能伦理框架》(The Ethical Framework for AI in Education,下文简称 《伦理框架》),以及联合国儿童基金会(UNICEF)在同年出台的《儿童人工智能政策指南2.0》(Policy Guidance on AI for Children Version 2.0,下文简称《政策指南2.0》),进一步从伦理规范和监管角度完善了基础教育人工智能的相关政策。为了厘清国际组织推进基础教育人工智能伦理政策建设的发展,本研究对比四大国际组织于近5年发布的基础教育人工智能伦理政策,以目标导向和治理方案为重点,兼顾实施措施,以此剖析政策发展新动向,明晰其如何通过“数字保护”实现“规范技术”,进而“保护儿童”,赋能基础教育数字化发展与适应人工智能变革。

一、研究设计

(一)理论分析框架

国际上针对人工智能的“伦理”讨论,普遍使用“伦理”(ethics)一词,延伸出“公平性”(fairness)、“问责制”(accountability)、“透明度”(transparency)、“可解释性”(explainability)等相关概念。这些概念与“伦理”一词往往同时出现在政策文本中,虽然含义不尽相同,但是都强调人工智能系统应具备可理解、可预测和符合道德规范的特点,可以视为人工智能伦理的核心原则。[3]

关于以上概念的含混性和指向性,以及彼此间的区别和联系,可以在布朗芬布伦纳(Bronfenbrenner)的生态系统理论中找到合理阐释。生态系统理论认为,个体发展是在复杂环境系统中完成的。[4]作为环境系统的组成部分,伦理规范和道德准则会影响个体的伦理判断力和道德行为。具体到人工智能伦理领域,“公平性”“问责制”“透明度”等原则构成人工智能系统应遵循的伦理环境,并通过教育系统传递给学生。因此,需要关注各系统层面伦理环境的构建:在个体层面,须探讨教育者、学生和家长在人工智能应用中的角色、权益和参与度;在教育系统层面,须分析人工智能对教育制度、教学模式和学校管理的影响,以及伦理问题的产生和解决;在社会文化背景层面,须考察人工智能应用源自社会、文化和价值观的伦理挑战和影响。

公共政策理论认为,政策分析是评估和解释政策问题、目标和解决方案的过程。[5]基于此,基础教育人工智能伦理的政策分析包含四个层面:政策目标层面,识别数据安全、隐私保护和算法公平等伦理问题;政策措施层面,规划监管机制、实践指南和技术标准等边界问题;政策实施层面,关注政策执行过程中的角色分工和监管方式;政策评估层面,开展政策效果分析和监测。与一般政策分析不同,基础教育人工智能伦理政策分析强调“伦理性”。为融入伦理内涵,本研究整合生态系统理论与公共政策理论,形成更具体的维度面向,遵循“目标-方案-实施”三维度的政策与实践演进逻辑,涵盖目标阐释、伦理方案、实施框架三个层面。基于以上观点,本研究构建了基础教育人工智能伦理政策的综合性理论分析框架,并对各维度面向的意涵进行描述性阐释(见表1)。

表1 基础教育人工智能伦理政策理论分析框架

(二)政策文本来源

基础教育人工智能伦理政策是由多个政策文本综合而成的政策群,有的以单列主题政策形式,有的以综合性主题政策形式出现。当前,虽然全球范围内基础教育人工智能伦理相关政策数量有限,与其他教育政策相比,总量并不充足,但是已引发国际组织高度重视,逐步形成完整的政策体系。本研究选取的4个国际组织基础教育人工智能伦理政策文本(见表2),从不同角度和层面关注基础教育人工智能伦理的重要问题,涵盖了儿童权益保护、全球标准制定、伦理框架指导和决策者行动指南等方面,代表了近5年来全球范围内基础教育人工智能伦理政策发展的最新动向和趋势,对基础教育领域人工智能伦理政策的发展和实践具有重要指导意义。[6]

表2 国际组织基础教育人工智能伦理4项政策列表

二、导向与策略:国际组织基础教育人工智能伦理政策的目标阐释

(一)目标指向:从应用领域、施策对象和实施主体层面进行定位

政策目标是引导政策实施实现价值和效果的前置因素。基础教育人工智能伦理政策目标需要定位人工智能技术创新,并识别应用领域,同时促成多方履行职责,共同关注学生权益保护。[7]

首先,在应用领域层面,《人工智能一代》和《伦理框架》聚焦教育数据应用,围绕保障儿童权益,将数据隐私和信息安全作为人工智能技术应用的底线原则。《决策者指南》在课程设置和教学评估等教育实践领域,提出“将伦理教育融入教师培训,使伦理规范内化于具体的教学活动”[8]。

其次,在施策对象层面,《人工智能一代》关注儿童主体地位,不仅尊重儿童权利,而且鼓励儿童参与人工智能设计和评估等全过程。《伦理框架》强调需求导向,提高儿童认知,以规避技术风险。《决策者指南》重视公平参与,为儿童提供实践指导和法律保障,帮助其理解和应用人工智能。《政策指南2.0》出于尊重儿童主体性,提出“充分考虑儿童意见并与家长意见结合,确保儿童获得参与决策权”[9]。

最后,在实施主体层面,《人工智能一代》从产品“使用者”和“服务者”出发,通过开发政策指南和企业治理宪章,为不同主体提供伦理指导。《决策者指南》主要面向决策者,要求其承担人工智能政策和标准的“制定者”和“执行者”角色,同时规范多方主体责任。《伦理框架》强调教育决策者和管理者须“根据伦理标准,保障学习者权益”[10]。《政策指南2.0》要求政府加强儿童“个人隐私”“数据安全”以及“风险管理”等政策标准。

(二)价值导向:关注伦理性和交互性,倡导人才培育须人文与技能相结合

人工智能价值的实现需要技术创新和伦理规范的双向引领,强调两者协调统一。为了兼容人工智能的伦理性和交互性,基础教育人工智能政策在规范界定、人机合作和人才素养等方面进行了价值探索,显示出人文关怀与技能培养的双向逻辑。

首先,强化人工智能伦理规范。《伦理框架》进行了原则性阐释,即重视学生伦理素养的培养,加大数据隐私保护。《决策者指南》进一步强调“公平性”“可持续性”“人权导向”等核心价值原则,倡导“合理、规范地使用技术”[11]。《政策指南2.0》提出保护儿童隐私,强调促进人工智能应用的“包容性”和“公正性”,彰显以人为本的价值追求。

其次,培养人与人工智能系统合作和交互的必要技能。《伦理框架》开宗明义,提出掌握原理和算法技能,重视伦理选择判断力,使学生理解人工智能可能产生的伦理后果。《决策者指南》提出培养学生“批判性思维”“沟通能力”“协作能力”和“创造力”,学会识别人工智能系统中的伦理困境,进一步明确培养目标。《政策指南2.0》强调,通过“将人工智能技能纳入学校课程”,落实人才培养举措,帮助“学生在模拟情境中体验道德决策过程”[12]。

最后,实现人才培养的伦理性和创新性。一方面,强化观念引领。《人工智能一代》提出,“尊重权益”和“社会公正”是人工智能人才培养的基石,需要加强伦理规范以规避人才培育偏离轨道。《伦理框架》根据教育活动规律提出伦理要求,确保人工智能技术与教育价值观契合。另一方面,关注创新实践。《决策者指南》提出“伦理意识”“社会责任感”“创造力”和“批判性思维”等创新素质,对不同领域人才知识结构提出要求。《政策指南2.0》强调制定多领域合作的伦理框架,通过加强教育及培训促进创新思维与技能培养的统一。

(三)操作程度:厘清限定标准和核心议题,利用多元问责强化效果

虽然政策明确了标准和规范,但是若缺乏可操作性、约束性与问责机制,则难以转化为实际行动而流于抽象的原则和愿景。为此,各项政策凸显实践策略的重要性,从标准设定、议题设置、主体问责三个层面着手,确保各方主体在履行职责和义务时有章可循。

第一,从实践准则出发,对人工智能系统进行标准设定。《人工智能一代》基于商业伦理,提出“制定供应链模型”,强调“产品分配的规范性”[13]。《决策者指南》重视教育管理者行为规范,关注管理者是否遵循道德决策准则。《政策指南2.0》则偏重于工具性使用,运用设置算法标准,开发“智慧数据”(Data Smart)和“数据社区”(Data Community DC)等第三方工具包,提出“数据评估标准”和“风险管理标准”,为人工智能系统的规范应用提供支持。

第二,以儿童权益保护为核心议题,定义和识别儿童在数字环境中的参与度和互动性。《人工智能一代》将“儿童可获得性标准”(child accessibility standard)作为政策核心,强调儿童故事和案例研究的重要性,反映出儿童主体地位和技术发展的关系。《政策指南2.0》建议企业设计儿童人工智能产品,将儿童权益保障纳入核心战略。《伦理框架》强调在政策制定中加强儿童权益保护。

第三,敦促各方主体制定问责措施,确保人工智能技术和应用的合规性和安全性。各项政策主要推进了以下两方面要求。一方面,加强制度建设。《决策者指南》提出责任评估是确保决策透明度的关键,提倡跨部门协作制定相关措施,避免监管漏洞。《伦理框架》鼓励建立责任机制和监督平台,纳入多方主体“增益问责”(beneficence accountability)。另一方面,明确行为约束。《人工智能一代》要求相关机构承担保护责任,实现维护儿童权益和安全目标。《政策指南2.0》规定了从业人员资质,对不同违规行为制定了处罚标准。[14]

三、问题与解决:国际组织基础教育人工智能伦理政策的伦理方案

(一)伦理原则:塑造人工智能技术和应用的多维道德伦理标准

基础教育人工智能伦理原则关乎“儿童权益保障”这一核心问题。鉴于算法歧视和数据泄露等多方面风险,强化基础教育人工智能伦理原则的内涵指导意义重大,国际组织这4项政策明确彰显尊重权利、公平公正、问责明确等伦理理念和标准,以回应儿童发展需求。

一是“公平性”“透明度”和“可解释性”原则,旨在营造公正可信、可理解的人工智能教育环境。[15]《人工智能一代》提出在“算法设计”(algorithm design)方面增强透明度。《伦理框架》提出采用“可解释性算法”,通过提供用户反馈机制确保透明度。《决策者指南》要求向利益相关者提供决策行为的“可解释性”,确保教育人工智能系统公平性,不得偏袒任何学习者。《政策指南2.0》强调提升政策透明度,以确保人工智能应用的“公平性”与“安全性”。

二是“数据隐私”和“数据安全”原则,注重保护学生数据的隐私性与安全性。[16]《人工智能一代》提出采用新型隐私保护方法,加强数据认知。《伦理框架》提出增加匿名处理制度,强调限制收集是预防数据泄露的关键。与《伦理框架》和《决策者指南》侧重数据处理约束不同,《政策指南2.0》重视组织层面保障,提出构建专门的儿童数据安全机构。

三是“算法公正”原则,目的在于杜绝算法设计和应用中产生的偏见或歧视。[17]在认知层面,《伦理框架》要求避免算法歧视和不平等,《决策者指南》提出预防算法偏见风险。在对策层面,《人工智能一代》提出权衡利益和追究责任,《决策者指南》强调考虑算法偏见表现,《政策指南2.0》要求审查和更新算法。在监管层面,《政策指南2.0》提出制定算法监管框架,强调完善相关制度。《决策者指南》则聚焦隐患防范,强调关注数据伦理风险。

(二)伦理问题:引发权益保护、技术偏见和系统可解释性的挑战

基础教育人工智能伦理问题因素杂糅,引发“儿童权益”隐私和歧视问题,以及“公信力”及“监管”等诸多方面争议,需要平衡多方利益诉求。为此,基础教育人工智能伦理政策高度强调“包容性”,寻求技术手段和法律规范保护“用户权益”,探寻人工智能技术“透明性”和“可解释性”的内在规律。

一是“权益保护”问题,内嵌“技术应用”和“制度规范”两种逻辑。“技术应用”利用技术手段预防风险,侧重于具体措施。如《人工智能一代》提出程序和平台的应用安全问题,《伦理框架》强调采用加密和验证技术。“制度规范”支持立法和监管,体现系统性。如《政策指南2.0》提出针对不同使用者制定具体规范和监管机制,《决策者指南》强调将儿童权益作为立法目标,提出考虑使用者人权伦理问题。

二是“技术偏见”问题,包括“算法歧视”“性别平等”“数据泄露”等。《人工智能一代》提出避免种族、性别等偏见,将避免偏见定位为实现技术公平、用户权益与社会发展的和谐统一。《决策者指南》关注算法偏见和性别不平等,重视数据管理机构与个人数据泄露问题。《政策指南2.0》提出“儿童群体偏见”(child group bias)问题,提倡使用适龄语言讲授人工智能技术。

三是“可解释性”问题,可以从人工智能系统的解释内容、解释方式、解释程度和用户需求方面进行任务分解。如《人工智能一代》阐明解释内容包括基本原理、数字循证、数据和算法流程等。《伦理框架》重视采用“易理解方式”,如自然语言描述或可视化展示等。《决策者指南》强调详尽满足用户疑问。《政策指南2.0》提出用户需求视角推进算法解释,实现儿童及其看护者达到充分理解交互的目的。

(三)解决方法:基于风险管理的人工智能创新实践

基础教育人工智能涉及的伦理和道德问题具有复杂性和不可预见性,引发人们对“技术进步”和“社会公平”两者关系的反思,亟须重新审视如何实现人工智能的“可持续发展”。基础教育人工智能伦理政策须直面以上问题带来的风险后果,采取防范与化解的积极导向,促进人工智能创新与伦理规范的协调统一。

首先,加大社会影响评估和风险管理。在价值层面,《伦理框架》强调“共享伦理”(shared ethics)愿景,规避技术风险。在技术层面,《人工智能一代》提出通过开发数据集,消解偏见,支持弱势儿童。在方法层面,《政策指南2.0》提出风险识别方法,如关注隐私侵犯、就业问题、社会不平等问题,强调进行风险评估预判。在实施层面,《决策者指南》针对管理者推出风险应对措施。

其次,平衡技术创新和人权保护关系。《人工智能一代》将“权益保护”定位为“技术创新”基石,提出在学校开设相关课程,通过培训方案加强公众权利保护意识,更好地实现技术创新。为厘清人工智能创新边界,《伦理框架》提出人工智能开发和应用必须遵守人权法和伦理原则。《决策者指南》强调制定法律框架和监管机制,确保在尊重人权前提下创新应用。《政策指南2.0》强调人权保护是技术创新的基本前提。

最后,构建有效投诉机制和独立监管机构。主要涵盖以下两方面要求:一方面,突出监管重点。《人工智能一代》提出建立投诉和监管机构,鼓励公众揭发违规行为。《政策指南2.0》强调儿童包容性,提出优先出台针对儿童公平和非歧视的投诉和监管措施。另一方面,明确监管方式。《伦理框架》建议采用设计隐私方法,在群体层面进行儿童保护,并鼓励儿童投诉。《决策者指南》规定“跨部门协作义务范畴”,强调“治理机构承担相应责任,并执行监管权”[18]。

四、功能与措施:国际组织基础教育人工智能伦理政策的实施框架

(一)参与者角色:实现各方主体在政策全流程中的共享共建

在“目标-方案”的政策逻辑基础之上,基础教育人工智能伦理政策进入实施层面,从多元主体功能的视角出发,确保儿童“隐私保护”“公平性”“安全性”等方面的权益。

首先,决策者承担政策制定和实施的主导者角色。一方面,决策者具有政策决策权,是统筹规划的主导者。《人工智能一代》将“儿童互动安全”作为首要目标,要求决策者参与制定。《政策指南2.0》要求决策者切实履行角色,制定相关政策法规。另一方面,决策者应秉持开放和包容,与多元主体形成政策执行合力。《伦理框架》强调决策者应与利益相关者合作,共同推动伦理准则落实。《决策者指南》强调“决策者和多元主体协商共建”[19]。

其次,软件团队扮演整合儿童权利和需求的设计者角色。一是强调适应儿童需求。《人工智能一代》关注儿童权益“最大化”,强调软件团队在开发、应用和维护过程中应符合伦理标准。《伦理框架》要求软件团队深入了解儿童发展需求。二是强调发挥专业作用,参与政策决策过程。《决策者指南》提出软件团队应与决策者合作,为政策制定提供专业建议。三是强调保护数据隐私安全。《政策指南2.0》提出软件团队在儿童隐私保护、信息安全和数据使用等方面承担“首要角色”。

最后,公众担当推动政策落地的协商者角色。为拓展公众参与,这4项政策围绕以下两方面推进了相关举措。一是完善制度供给。《伦理框架》和《决策者指南》提出建立专家咨询组织。如,《决策者指南》强调建立协作平台,吸纳多元意见。《政策指南2.0》则强调发挥公众专长,提出“制定路线图”“开发工具画布”等措施加大制度供给。二是明确参与内容。《人工智能一代》要求公众承担政策制定等任务,包括“提供反馈、参与研讨会和听证会”[20]等。

(二)监督与管理:在教师培训、法律框架和学习者权益方面加强伦理规范

虽然政策确立了多元主体及其功能,但是若缺乏监督约束,那么将难以落实。从实践角度来说,针对教师培训、法律框架和学习者权益三个层面采取监管措施,督促各方履行职责,是保障政策落地的“防护墙”,可以有效遏制潜在伦理风险和不平等现象。

首先,升级培训手段,加强教师伦理素养规范。从专业发展来看,《人工智能一代》提出为教师提供专业能力发展机会,能够识别人工智能伦理挑战。从资源建设来看,《政策指南2.0》和《伦理框架》针对“支持教师使用工具和资源”提供培训和指导,推动教师遵循伦理规范。从管理实践来看,《决策者指南》提出开发教师能力建设计划,探索教师伦理规范管理机制。

其次,构建法律框架,加大伦理制度规范。一是在决策者层面,《人工智能一代》提出围绕数据保护和教育培训等议题,敦促政府制定相关法律法规框架。《决策者指南》要求管理者为教师和学生提供法律保护。二是在制度准则层面,《伦理框架》视法律约束为基本遵循,其伦理框架涵盖“反歧视”“知识产权”“数据隐私”等多个范畴的指导要求。三是在制度保障层面,《政策指南2.0》提出规范建设制度框架,以保障儿童数据隐私和安全。

最后,保障学习者权益,强化伦理权利规范。以学习者需求为视角,标识“透明度”属性,兼顾多方权益加强监管。一是保障知情权。《人工智能一代》和《伦理框架》强调须告知使用风险,以建立学生家长信任。二是确保获取权。《决策者指南》和《人工智能一代》强调提供适应性教育资源,以构建可信赖的人工智能教育环境。

(三)资源保障:构建“公平、应变、个性化”的资源体系

如果基础教育人工智能技术和应用缺乏伦理规范,那么将导致资源浪费和不公平利用,而这直接关乎儿童能否获得良好和公平的教育机会。因此,构建“公平”的资源分配机制,“应变”地防范外部影响,“个性化”地满足儿童发展需求,实现资源供给与价值引领统一是应有之义。

一是强化资源的合理利用和公平分配。首先,设立行动标准。《人工智能一代》强调采用信息共享和数据安全保护等技术手段。《伦理框架》要求“资源采购应具有道德规范性”[21]。其次,加强监管评估。《决策者指南》提出建立透明、公正、负责任的数据资源管理机制。《决策者指南》推出资源监管和评估措施。再次,突出应用导向。《政策指南2.0》聚焦教学板块,提出最大化利用课程资源。最后,推进具体措施。《伦理框架》提倡以教学导向进行资源设计,同时注意避免操纵用户行为、歧视学习者群体。

二是应对环境、社会和经济等外部影响。一方面,利用技术手段提高资源利用率。《人工智能一代》提出构建技术生态系统,提高资源利用效率。《决策者指南》提出建立收集、存储、处理和共享全流程的数据安全措施。另一方面,根据社会需求调整资源配置。[22]《政策指南2.0》提出关注制定者、管理人员、开发人员资源需求,确定资源优先等级和配额分配。《伦理框架》提出避免社会、经济、文化因素导致的资源不均,强调将环境变化纳入资源供给。

三是围绕儿童“个性化”发展,加强资源建设。《人工智能一代》在考虑儿童不同需求前提下,强调确保资源配置的合理性和公平性。《政策指南2.0》强调为儿童提供个性化发展机会,培养其数字素养和科技创造力。《伦理框架》强调数据设计要因材施教,针对不同背景的学习者调整优化。《决策者指南》以满足儿童个性化教育为宗旨,强调建立透明、公正、负责任的教育资源管理机制。

五、结语

纵深推进基础教育人工智能伦理政策建设是国际社会回应技术变革的必然选择。当前,相关政策的推出既反映了各国在基础教育人工智能协同共处中遭遇的数字隐私、信息茧房、道德失范和价值冲击等伦理风险挑战,也呈现出执政者努力为学习者谋福利的积极应变。[23]本研究分别从目标阐释、伦理方案和实施框架三个层面剖析国际组织基础教育人工智能伦理政策的新动向、新内涵。一是目标阐释层面。确立应用领域、儿童本位和主体责任的“三维象限”,定位“伦理性”引领人文价值取向,标识“交互性”把握技能培养方位,同时提出可操作的标准与机制,推进政策落地生效。二是伦理方案层面。通过明确“规范框架”构建人工智能伦理原则体系,“主动辨识”伦理风险,采取“管控措施”进行风险管理。三是实施框架层面。构建“三位一体”的制度运行机制,推动多元主体“协同参与”,建立监管体系,实现“规范运转”,为优化资源配置“提供动力”。在目标导向方面,国际组织相关政策秉持“公平与安全”理念,将保护学生权益、预防技术风险的价值追求转化为行动落实;在问题识别方面,相关政策推崇从“事后管控”被动应对到“事前评估”主动预防的转变,以“开放”态度防范技术潜在问题。在资源保障方面,相关政策强调“自治”引领下的创新发展,尊重地区差异,鼓励伙伴合作,共同推进监管体系建设。

综合来看,国际组织基础教育人工智能伦理政策以横纵交织方式推进。横向上,谋求多元主体支持协调;纵向上,强调决策者宏观调控,跨部门协同联动。可以预见的是,构建基础教育人工智能伦理政策体系是一个循序渐进的过程。一方面,各国政策在时间跨度上将呈现新的发展动向。国际组织在全球层面绘制了基础教育人工智能伦理发展的远景蓝图,各国政府、研究机构、企业等主体还须根据本地实际需求开展创新实践;另一方面,政策监管协同性和资源供给针对性仍须持续优化。有关业界标准、政策法规细则、制度体系建设等还将持续地对政策提出新要求。[24]虽然共建基础教育人工智能伦理生态环境终将是历史的必然选择,但是其发展道路还需要持续探索。

猜你喜欢
决策者层面指南
江阴市三个层面构建一体化治理重大事故隐患机制
热浪滚滚:新兴市场决策者竭力应对通胀升温 精读
“最关键”的施工力量——决策者、执行者与实施者
指南数读
健康到底是什么层面的问题
高三化学复习的四个“层面”
论碰撞的混搭指南
策略探讨:有效音乐聆听的三层面教学研究(二)
决策者声望寻求行为、团队努力与团队绩效
充耳不闻与从谏如流:建议采择研究述评