负责任的人工智能:技术伦理危机下AIGC的治理基点

2024-05-08 00:23陈建兵
关键词:解释性伦理人工智能

陈建兵,王 明

西安交通大学 马克思主义学院, 陕西 西安 710049

2022年底,人工智能技术在世界范围内迎来一次全新“发展期”——OpenAI公司旗下ChatGPT的问世备受瞩目,成为大型语言模型处理技术正式走向应用领域的里程碑。随着以ChatGPT为标志的自动化程度高且使用门槛较低的生成式人工智能(AIGC)技术的出现,其在自动驾驶、医疗诊断、金融分析等领域的某些方面的表现甚至超越人类,这让人类看到AIGC在诸多领域应用的巨大潜力和光明前景。然而,AIGC能在不经过人类监管的情况下自主生成大量文本和内容,可能会导致虚假信息传播、隐私泄露以及其他潜在的社会问题。谁该为AIGC造成的伤害负责?这是人类使用AIGC时的普遍担忧。

推进人工智能技术从“生成式”迈向“负责任”已经在全球范围内基本达成共识。发展负责任的人工智能需要重新为人工智能技术“立规矩”。那么,何时立负责任的规矩较为妥当?怎样兼顾AIGC技术的伦理规范与创新发展?各国学界、政府部门以及人工智能企业已经意识到监管的紧迫性,试图建立对AIGC的伦理治理框架。2023年3月29日,美国生命未来研究所发表公开信,呼吁所有人工智能试验室立即停止研发比GPT-4能力更强的人工智能系统,停止时长至少6个月,以便给予充分的时间进行安全性和伦理性评估。这份公开信得到了人工智能领域众多专家和企业高层的支持,包括人工智能“泰斗”级人物辛顿、曾是OpenAI联合创始人的Musk、StabilityAI首席执行官莫斯塔克等在内的1 000多人签署了这份公开信。此外,公开信还建议各个试验室和专家合作,针对人工智能的设计和开发建立共享安全协议,并由独立的外部专家监督,确保人工智能系统“安全、无可置疑”。2023年3月30日,联合国教科文组织发表声明,呼吁各国政府签署《人工智能伦理问题建议书》,旨在促进人工智能为人类、社会、环境以及生态系统服务,并预防其潜在风险。2023年6月14日,欧洲议会投票通过了《人工智能法案》授权草案,从人工监管、隐私、透明度、安全、非歧视、环境友好等方面全方位监管人工智能系统的开发和使用,详细规定了各个市场参与者的义务。这份授权草案的立法目的重在监管人工智能产品的开发者和提供者,从而减轻用户的使用风险。可见,加强人工智能技术伦理危机治理研究,对于促进人工智能技术从“生成式”迈向“负责任”,推进AIGC技术可持续发展具有重要意义。

一、人工智能技术伦理争论与“负责任的人工智能”的提出

人工智能技术迅猛发展,特别是AIGC技术的强大应用潜力以及带来的巨大经济效益,促使人工智能巨头企业争抢“技术”研发高地,不断推进技术迭代进步。然而,随着AIGC功能日益强大且使用场景逐渐增多,其造成的虚假信息传播、用户数据泄露、用户隐私侵犯、机器事故以及社会犯罪等一系列技术伦理风险也在增加,使得人们开始关注AIGC存在的潜在风险、产生的负面影响以及诱发的技术伦理危机。因此,人工智能发展史上关于人工智能技术是否中立的讨论再次进入大众视野。尤其随着AIGC负面影响的逐渐显现,人们对AIGC发展需要规制和引导的呼声越来越高,要求政府和人工智能企业对AIGC进行“负责任”治理。基于此背景,“负责任”成为AIGC技术伦理的治理趋势。

(一)人工智能发展中关于“技术是否中立”的争论

科学技术的发展以及由此引发的科技伦理问题的争论由来已久。当科学技术的发展进入到人工智能这一阶段时,关于人工智能“技术是否中立”也存在争议,主要有四种观点。

一是技术中立论。在人工智能问世初期,由于其智能程度有限,学者大多持“技术中立”态度,认为人工智能技术本身是中立的,只是设计者和使用者将个人目的施加于机器上。人工智能“技术中立”观点源于美国计算机科学家Bush,他于1945年发表了《我们的未来》,提出了科学技术的发展只是为人类服务,而不是为了谋取政治权力和利益。“技术中立”思想在相当长的时期内影响着人们对待人工智能技术的态度。例如,1984年美国环球影片公司(Universal Picture)诉索尼公司案、2016年“快播案”引发的“菜刀理论”之争,都是人工智能“技术中立”观点的体现。这些案例的立论基础是:技术本身是中立的,技术没有承担道德责任的义务。尽管“技术中立”的观点在当前人工智能领域仍然存在,但是随着人工智能技术的迅猛发展、人工智能伦理问题的日益凸显,人工智能“技术中立论”逐渐丧失说服力。

二是技术批判论。技术批判论者认为,人工智能技术不可能完全中立,因为技术的设计和应用都要受到人类价值观和利益的影响。人工智能技术批判论者的代表性人物是美国计算机科学家Lanier,他对“技术中立”的观点进行了批判。此外,美国学者Lessig的《代码2.0:网络空间中的法律(修订版)》以及Winner的《自主性技术:作为政治思想主题的失控技术》也对“技术中立论”进行了批判。他们认为人工智能技术并非完全中立,它可能受到开发者的偏见、数据的偏倚以及算法的设计等因素的影响,从而导致技术的偏向和不公平。

三是技术决定论。技术决定论者认为,人工智能技术的中立性是有限的,它可能会对社会造成不平等和不公正的影响,同时它的发展和应用会对社会产生深远的影响,从而改变社会结构和人类行为,持这种观点的代表人物是Kuzweil。2006年,Kuzweil在《灵魂机器的时代》一书中提出了“技术加速”的概念,在他看来,人工智能技术呈指数级增长会引发重大的文化转变和社会变革,甚至对社会和人类产生决定性影响。

四是技术规制论。技术规制论者认为,科学技术评价涉及伦理、道德和社会价值观等方面。人工智能技术的发展和应用应该考虑多种利益和价值观,并通过社会讨论和决策确定其应用的边界,对人工智能技术发展进行规制和引导。持这种观点的主要代表人物是Musk,他关注人工智能的潜在风险,并提出关于人工智能伦理和安全治理的观点。2023年2月13日,在迪拜举行的世界政府峰会上Musk重申了对人工智能安全检查的呼吁(1)2023年世界政府峰会在迪拜开幕[EB/OL].(2023-02-13)[2023-06-16].https://news.cnr.cn/native/gd/20230213/t20230213.。

(二)“负责任”成为AIGC技术伦理的治理趋势

21世纪以来,人工智能技术发展迅猛,但同时也暴露出许多潜在风险和隐患。各国政府部门以及相关组织开始意识到:人工智能技术的发展需要制定一个规范和可信赖的框架来保障人类免受伤害。在此背景下,人们开始对人工智能诱发的伦理问题进行反思。例如,2019年4月,欧盟发布的《可信赖的人工智能伦理准则》(以下简称《准则》)明确了“可信赖的人工智能”应满足的三个基本条件,即合法、合乎伦理、稳健。这为人工智能技术伦理问题的治理提供了具体的要求和指导。此外,《准则》不仅提出了人工智能技术发展需要遵循的四项伦理要求,即尊重人类自主性、预防伤害、公平性以及可解释性,而且还提出了七个关键要素,即人类能动和监督、技术安全性、隐私和数据管理、社会和环境福祉、问责制、多样性、无歧视,进一步加强了人工智能的要求和责任(2)欧盟抢先发布人工智能道德准则:AI要以人为本,负责任且无偏见[EB/OL].(2019-04-09)[2023-06-16].https://news.sina.com.cn/o/2019-04-09/doc-ihvhiewr4402597.shtml.。此外,《全球人工智能治理年度观察2019》(3)《全球人工智能治理年度观察2019》发布 共议AI治理[EB/OL].(2020-05-01)[2023-10-26]. https://tech.sina.com.cn/i/2020-05-01/doc-iircuyvi0844294.shtml.发现,人工智能领域的竞争已从技术和产业应用扩张到了国际规则的制定,尤其是人工智能伦理和治理规则的制定。例如,2019年5月,经济合作与发展组织(OECD)成员国批准了全球首个由各国政府签署的人工智能原则——“负责任地管理可信人工智能的原则”,包括以人为本、公平、透明、可解释、稳健、安全可靠、包容性增长、可持续发展、为人类提供福祉以及负责任原则(4)安全内参.经合组织发布人工智能原则评析[EB/OL].(2019-06-05)[2023-10-26].www.secrss.com/articles/11178.。整体而言,从欧盟明确可信赖的人工智能准则到OECD成员国批准全球首个由各国政府签署的人工智能原则,国际层面的人工智能技术伦理治理已进入实质性阶段,初步确立了以人为本、安全可信、创新发展、包容普惠等“负责任”治理的基调。

“负责任的人工智能”是AIGC技术伦理治理的趋势和方向。“AIGC对于智慧社会建设意义非凡”[1],这种自动化程度高的技术不仅可以独立完成图片分类和知识问答,而且在无人驾驶和人机对弈等方面取得了突破,它填补了人工智能从“可以用”到“很好用”的技术鸿沟。尤其是2022年11月OpenAI公司发布的大型语言模型系统——ChatGPT,引领了新的AIGC技术发展潮流。然而,AIGC的“双刃剑”效应在使用中才逐渐显现。虽然AIGC带来的正面效益令全世界欣喜不已,但是AIGC诱发的负面影响已经引发了全球范围内的高度关注。例如,2023年3月31日起,意大利禁止使用ChatGPT,并限制OpenAI公司处理意大利用户的信息数据。这一举措引起了加拿大、欧洲等国家和地区监管机构和企业的关注和效仿。2023年7月10日,中国国家互联网信息办公室发布了《生成式人工智能服务管理暂行办法》,该办法鼓励优先选择安全可信的软件、工具和计算数据资源,并划定了该办法的管辖范围、管理权限以及责任主体认定。2023年10月18日,中华人民共和国外交部发布的《全球人工智能治理倡议》中明确提出:“建立科技伦理准则、规范及问责机制,形成人工智能伦理指南,建立科技伦理审查和监管制度,明确人工智能相关主体的责任和权力边界。”(5)全球人工智能治理倡议[EB/OL].(2023-10-20)[2023-10-26]. https://www.mfa.gov.cn/zyxw/202310/t20231020_11164831.shtml.由此可见,推动AIGC迈向“负责任”,已经成为AIGC技术伦理治理的一种必然趋势。

二、AIGC技术伦理危机的诱发机制

尚未完善的“负责任”伦理规范以及治理举措导致AIGC在使用中已经诱发了一些技术伦理风险,主要体现在:AIGC沟通中的“不理解”、决策中的“不可控”、安全性的“不可靠”、合作前景的“不可持续”。

(一)算法运行透明度低导致的沟通“不理解”

AIGC技术虽然能够更好地收集信息并提取知识,但是其大型语言模型具有高度依赖数据训练、运行复杂度高、非线性关系复杂以及自适应强等属性,使得AIGC内部运行机制有时难以被理解和解释。搜索引擎通常向用户提供信息的来源即链接,并让用户决定他们信任什么。相比之下,很少有人知道大型语言模型训练了什么数据,是大英百科全书还是娱乐八卦[2]。AIGC技术生成的答案之所以有时难以解释,是因为其类似于创造了“新事物”。例如,用户向人工智能聊天机器人提问:销量最高的三种宠物吸尘器的优缺点是什么?人工智能聊天机器人给出的答案是:Bissell宠物吸尘器很吵,会吓到宠物,并且其吸力很有限……绳索也很短[3]。但是,当用户点开信息来源链接后发现Bissell是一款便携式手持真空吸尘器,它几乎无噪声。这里出现了答案与参考来源信息脱节的问题,因为人工智能聊天机器人类似于创造了新事物。

(二)缺乏主观善意导致的决策“不可控”

AIGC技术生成的内容基于大量数据训练,这些数据往往包含了人类偏见、歧视和负面情绪等因素,这些因素会被大型语言模型学习并体现在其生成的结果中,从而导致AIGC产生不当甚至有害内容。一方面,AIGC内部运行机制复杂且透明度低,增加了产生不当输出的可能。已经有案例显示,大型语言模型会从训练数据中学到一些隐藏的模式或关联,这些模式或关联与人类的价值观不一致,从而使得大型语言模型输出内容不当。另一方面,大型语言模型的自适性也可能会导致不当输出,因为模型会根据环境变化和输入数据进行自我调整和优化,从而产生新的输出。例如,2022年6月,谷歌浏览器因在无痕模式下追踪收集用户数据而遭到投诉。2023年上半年Nature发文称:“研究人员向ChatGPT和其他大型语言模型透露的信息可能会被纳入模型,聊天机器人在不确认原始来源的情况下将其提供给其他人”[4],与此同时,“人工智能聊天机器人会根据他们的训练数据嵌入偏见”[5],更为严重的是“那些让人类误入歧途的偏见,在对话式人工智能中被复制,甚至经常被放大”[6]。AIGC生成的答案是基于大型语言模型的数据学习和训练,这就使得答案质量由数据质量决定。目前,人工智能企业用以大型语言模型学习和训练的数据不足,导致这些人工智能企业对数据尚未经过严格筛选就用以投喂大型语言模型,有些存在缺陷的数据一旦被大型语言模型学习到,其生成的内容不但不准确,而且可能会造成人类安全感的缺失。例如,2023年2月,一位用户向New Bing提问:“《阿凡达:水之道》今天在哪里放映?”得到的回答是:“《阿凡达:水之道》目前还未上映。”在用户告诉New Bing其回答错误后,它不仅坚持自己的回答是正确的,而且要求用户向它道歉,否则就结束对话,甚至表示用户一直都是错误的、鲁莽的,不是一个好用户(6)Bing:“I will not harm you unless you harm me first”[EB/OL].(2023-02-15)[2023-06-12].https://simonwillison.net/2023/Feb/15/bing.。

(三)人工智能幻觉导致的安全性“不可靠”

在人工智能领域,“人工智能幻觉”指聊天机器人能够输出看似合理且连贯的信息,但这些信息可能与已知数据或现实完全不符合。有专家认为:不能相信ChatGPT可以正确获取事实或产生可靠资料,ChatGPT倾向于为它不知道答案的问题创造虚构的答案[2]。例如,2022年12月7日,知名的程序员问答网站Stack Overflow宣布,将临时禁止在Stack Overflow上发布由ChatGPT生成的文本。Stack Overflow官方表示,这是一项临时规则,旨在减缓使用ChatGPT创建的答案涌入。这一限制的原因是从ChatGPT获得正确答案的平均比率太低,如果发布ChatGPT创建的答案,对网站以及查询正确答案的用户来说是非常有害的(7)Stack Overflow临时禁用ChatGPT生成内容,网友:人类和AI快打起来[EB/OL].(2022-12-07)[2023-10-27]. https://www.thepaper.cn/newsDetail_forward_21047296.,那么,ChatGPT是如何为它不知道答案的问题创设虚构答案的?首先,ChatGPT基于大型语言模型对互联网海量文本数据进行学习。这些文本数据包含了各种来源的信息,包括新闻、维基百科、社交媒体等。然而,这些文本数据在尚未经过人工筛选和验证情况下参与生成答复,可能会生成带有错误、虚假和偏见内容的消息。其次,ChatGPT是通过自动生成的大型语言模型来产生回复的。目前,ChatGPT并不具备真正的理解和推理能力,它只是根据用户的输入提示和上下文语境来预测下一个合适的回复。这种自动生成的方式导致ChatGPT并没有对其回复的真实性进行验证或事实检查,可能会制造人工智能幻觉。此外,ChatGPT还存在其他问题,诸如它在回复同一问题时,可能会给出多个可能的答案,而不是提供一个明确的回答。这也可能导致用户对ChatGPT的回复产生误解或产生人工智能幻觉。综上,人工智能幻觉主要是因为其基于大数据训练而形成,而这些数据可能存在偏差或错误,AIGC也可能会受到模型数据结构、训练算法等因素的影响,导致输出的结果不准确。另外,AIGC还面临着缺乏常识和情感理解的问题,它无法理解人类的情感、价值和道德标准,导致输出的答案与人类的期望有偏差。解决这些问题,需要采取一系列措施,包括数据清洗、算法调整、建立监督和反馈机制,以确保模型输出的答案符合人类的标准和期望,同时,也需要加强对AIGC的监督和管理,以确保其安全和可靠。

(四)人机伙伴关系尚未建立导致的合作前景“不可持续”

AIGC扮演了“多领域深度应用者”的角色,其不限于能够在智慧农场、智能港口、智能矿山、智慧工厂、智慧家居等多个场景中应用,而且在医疗诊断中也有广泛应用,其应用场景越多,暴露的算法歧视与偏见也就越多。例如,一篇发表在Science上的研究表明,美国医疗保健系统使用商业算法来指导超过2亿人的医疗服务健康决策,对非洲裔患者实施了群体性歧视。由于输入数据中没有“种族”选项,开发者认为该算法是不分种族的,但对于与白人患病程度相当的非洲裔患者,该算法始终给予其较低风险分数,其未能识别出将近有一半非裔患者有可能产生与白人患者类似的复杂医疗需求,导致这些非洲裔患者无法参与改善健康的干预项目[7]。乔姆斯基是“人工智能不可持续”论的代表人物,他认为ChatGPT表现出某种类似邪恶的平庸,如剽窃、冷漠和回避,它以一种超级自动补全的方式总结了文献中的标准论点,拒绝在任何事情上表明立场,它不仅以无知为借口,还以缺乏智慧为借口,最终提供了一种“只是服从命令”的辩护,将责任推给它的创造者[8]。人工智能的出发点在于为人类生产生活提供便捷,技术需要助力于人类迈向更加公平、正义、温情之路。然而,AIGC有时表现出来的“剽窃、冷漠和回避”,是否与人工智能发明者的初心背道而驰呢?人工智能技术能否持续为人类社会创造福祉?人类采取何种态度对待人工智能技术也是决定这种福祉实现程度的重要影响因素之一。余明峰认为:“现代性的‘人类中心主义承诺’实有一种根本上的僭越冲动。这种僭越企图以现代技术的无限潜能超越自身生存之有限性。不是直面有限性,而是企图增强力量来达到有限性,基于人工智能和生物技术的各式人类增强技术正是这样一种现代方案的典型体现。可恰恰带着这种人类中心主义的妄念,现代人陷入了系统的无限支配。强力的另一面恰恰是无力。”[9]38因此,人类要摒弃无限支配人工智能技术的态度,要从技术研发、技术伦理遵循以及法律制定等层面构建人机可以合作的、可持续的伙伴关系,应用人工智能技术为人类创造更多福祉。

三、AIGC技术伦理危机的治理基点

AIGC的使用正在诱发技术伦理危机,人们越来越担忧AIGC的自主决策会带来不可预测的后果。为了避免AIGC自主决策伤害人类事件继续发生,加快AIGC监管和治理刻不容缓。AIGC技术伦理治理是一项系统工程,学界应推进人机协同中的可解释性研究、政府要加强对AIGC的审查和监管、人工智能企业应建立自治自律机制、用户要提升算法素养。唯有如此,才有可能制定既能推进AIGC可持续发展又能保障人类福祉的技术伦理监管和治理框架。

(一)学界推进人机协同中的可解释性研究:实现AIGC沟通的“可理解”

人机协同中的可解释性研究旨在提供机器决策的解释,使人类对机器的决策过程和结果可理解和可信任,以提高人机协同的效率。为此,2023年3月8日,中国国家自然科学基金委员会启动了“可解释、可通用下一代人工智能方法重大研究计划”,旨在研究并发展下一代可解释、可通用的人工智能方法,以提高人工智能技术在人机协同工作中的应用。这一计划将有助于增强人类对机器决策过程和结果的理解和信任,推动人机协同的发展。

1.以可解释性算法模型设计为基石

既要从技术伦理的视角出发,促进负责任人工智能本身的发展,推进AIGC治理,还要坚持“科学技术对人负责”的基本原则。2018年,欧盟发布了《通用数据保护条例》(GDPR),强制要求人工智能算法具有可解释性,要求算法模型的设计不仅要“事前解释”,同时也要“事后解释”。“事前解释”模型由“自解释模型”以及“构建具有内置可解释性模型”两部分组成。“自解释模型”包括线性模型、决策树、朴素贝叶斯模型等,其结构简单,本身可解释;“构建具有内置性的可解释性模型”通过特定方法使得模型自身可解释,设计方法是引入注意力机制、深化统计模型、基于物理定型。“事后解释”模型由“全局性解释模型”和“局部性解释模型”两部分组成。“全局性解释模型”针对整个模型,说明其整体的工作机制,其设计方法是激活最大化、概念激活矢量测试;“局部解释模型”针对单个输入样本,帮助人们理解模型对于输入样本的决策依据,设计方法是反向传播、类激活映射、局部近似、可解释机器学习模型(SHAP)。“事前解释”和“事后解释”两种模型各有优缺点,“事前解释”模型需要在模型训练之前进行,因此,需要花费更多时间和精力来构建特征模型;“事后解释”模型可以快速应用于已有模型,但需要对模型输出进行解释,难以准确地捕捉模型中的错误和偏差。因此,在算法模型设计中要将“事前解释”和“事后解释”两种模型结合起来,相互补充,共同推进AIGC可解释性研究。

2.以可解释性框架准则设计为指导

可解释性框架准则设计是为了确保人工智能系统的决策和行为可以被理解和解释。首先,在构建通用、系统的可解释性的指导框架准则的基础上,研发优化针对复杂度较高模型的“事后可解释性”技术,随后进行评估。其次,在指导性框架准则设计方面,对已有实践、政策、案例进行调研,将以人为本作为核心参考准则,围绕“公开性、辅助性、相对性”三项原则,提炼并制定指导框架与具体的执行准则。例如,微软、谷歌等公司和部分学者提出了“构建可持续交互式人工智能的参考标准/理论框架”。最后,在此基础上引入人类认知模型,对具体准则进行细化,聚焦人类认识与系统交互,助力可解释性人工智能。以Apple Watch为例,基于微软的参考准则,可解释的交互式Apple Watch应该满足以下要求:在人机初次接触时期,帮助用户了解Apple Watch能做什么,以及帮助用户了解Apple Watch能在多大程度上做好用户传达的任务;在渐入互动时期,提供当前任务的相关信息以及提供基于环境的及时指导;在系统发生错误时,能够明确告知用户出错原因,并可以改进或恢复;在深入协作时期,能够通知用户系统的有关更改以及告知用户其行为如何影响产品。

3.以满足用户的可解释需求为桥梁

用户对AIGC的可解释性需求主要包括透明性、解释性、可信度和可追溯,满足这些需求可以增加用户对人工智能系统的信任和接受度,改善用户体验。2019年,中国国家新一代人工智能治理委员会发布的《新一代人工治理原则——发展负责任的人工智能》就提出,人工智能系统应当不断提升可解释性。就目前而言,国内学界对于可解释性的研究包括但不限于:清华大学人工智能研究院智能信息获取研究中心,从用户需求与AIGC现有解释水平之间的差距、个体差异对AIGC的影响展开研究;武汉大学人机交互与用户行为研究中心吴丹教授团队,基于海量用户数据,着眼语音、手势、眼动交互及认知等,开展大规模、多情境的用户研究,分析个体或群体对AIGC的需求。

4.以可解释性评估为辅助

可解释性评估对于确保AIGC结果的可解释和准确性非常重要。由于AIGC的结果是由模型自主生成的,因此,需要对其结果进行评估,以确保结果的可解释和准确性。要提升AIGC可解释性评估性能,就要综合系统解释本身、开发者、用户三个视角,纳入应用情境、解释方法差异等指标,构建以用户为核心、以专家为参考、以技术模型为辅助的多层次、多角度的评估体系,助力实现全面有效的可解释性评估。从系统本身解释的质量出发,就要综合考虑解释的保真度(解释是否真实反映系统)、复杂度(解释的数量和长短)、忠诚度(解释能否根据用户的调试而改变)、鲁棒性(解释是否容易被干扰),纳入评估指标。从开发者的角度出发,就要综合考虑开发时的解释目标以及达成的解释效果,最终以解释是否实现其设计目标作为衡量标准。从用户的角度出发,就要综合考虑用户对系统的信任度、满意度、工作绩效、心理模型,最终以用户接受解释的效果和体验为评估指标。

(二)政府加强对AIGC的审查和监管:确保AIGC决策的“可控制”

加强对AIGC的审查和监管,是一项复杂但必要的工作。“生成式人工智能的革命性发展给现有法律责任体系带来了巨大挑战。”[10]为此,政府需要建立评估机制来对AIGC技术的可行性和安全性进行评估,同时还需要建立技术伦理规范,明确技术应用的道德底线和法律法规的界限,最重要的是要加强技术伦理监管力度,确保技术的合规性和安全性。三者协同运作,可以有效地预防引发AIGC科技伦理“不可控”危机,保障技术发展和社会稳定。

1.建立AIGC评估机制

AIGC评估机制是为了确保AIGC技术开发和应用的安全性、可靠性和公平性而建立的,该机制包括数据隐私保护评估、算法公平评估、模型准确评估和应对意外事件评估等方面。首先,数据隐私保护评估机制要求AIGC开发和应用确保用户的隐私得到保护,这意味着要有足够的安全措施确保用户的数据不被泄露或滥用。OpenAI公司已经采取一系列措施保护用户隐私。2023年4月5日,OpenAI公司发布了OurApproachtoAISafety,表示努力在可行情况下从训练数据中删除个人信息,微调模型以拒绝对私人信息的请求,而且能够响应用户在OpenAI的系统中删除个人信息的请求。这些措施最大限度地减少了AIGC生成包含个人信息内容的可能性。其次,算法公平评估机制要求AIGC算法透明、可解释以及公平。算法不能歧视任何人或群体,应该透明、可接受和公正,这样可以确保AIGC在开发和应用过程中不会出现歧视行为。再次,模型准确评估机制要求AIGC系统的模型具备高度的准确性和鲁棒性。模型需要在各种情况下正确执行任务,准确评估机制的作用是检查模型是否准确、鲁棒和可靠。最后,应对意外事件能力评估机制是为了确保AIGC具备应对意外事件的能力。例如,当输入数据与预期不符时,系统能够自动适应并做出合理决策,可以保证生成内容的质量和可行性。需要注意的是,评估机制应该是动态的,随着模型的使用和反馈进行不断更新和改进。此外,评估过程还需要充分考虑领域专家的判断和意见,以确保生成内容的可靠性和实用性。

2.建立技术伦理规范

随着ChatGPT在行业内外引发越来越多的担忧,政府部门一致认为,仅凭人工智能产品的开发者和提供者自我监督是不够的。因此,政府部门应对AIGC的开发和应用进行规范和限制,明确其应遵守的道德伦理标准和责任义务,以保障公众利益和社会秩序。首先,设立专门监管AIGC的机构,负责监管AIGC技术的开发和应用。这个机构由专门的人工智能专家团队组成,他们将参与AIGC的安全性、透明性和公正性的审查,同时审查AIGC是否符合技术伦理规范。一些国家在这方面已经取得进展。例如,2023年3月,意大利数据隐私监管机构以ChatGPT涉嫌非法收集个人数据、缺乏未成年人年龄核实等理由,下令禁止使用ChatGPT,直到其尊重隐私法规为止(8)涉嫌侵犯隐私 意大利数据保护机构对ChatGPT开发公司展开调查[EB/OL].(2023-04-01)[2023-06-12].http://world.people.com.cn/n1/2023/0401/c1002-32655784.html.。2023年4月,德国联邦数据保护专员也向媒体透露了在德国“封杀”ChatGPT的可能性(9)负面情绪正持续发酵 多国计划加强对ChatGPT监管[EB/OL].(2023-04-10)[2023-06-12].https://news.cctv.com/2023/04/10/ARTIlImrRNUIW2jg9OlZ79.。这些监管机构在确保技术伦理方面发挥了重要作用。其次,制定AIGC安全评估要求。开发者在发布AIGC系统前需进行安全评估,这些评估主要涉及数据隐私、安全性、透明度和公正性等方面。例如,2023年5月4日,美国总统拜登表示,人工智能是否具有潜在危险还有待观察,但是科技公司有责任确保他们的产品在发布之前是安全的(10)拜登政府会见企业科技龙头 讨论人工智能潜在风险[EB/OL].(2023-05-06)[2023-07-01].https://www.chinanews.com.cn/gj/2023/05-06/10002495.shtml.。再次,制定AIGC数据隐私保护法规,保障用户个人信息安全和隐私。这些法律法规应该规定AIGC应用开发者遵守的数据收集、使用和共享的规则,以及如何保护用户个人信息安全。最后,制定AIGC开发和应用的道德伦理规范准则。政府应本着透明、公正原则,要求AIGC开发者不歧视某些群体和用户,不得违反公共利益和社会秩序,同时也要兼顾考虑不同文化、信仰和价值观的差异,以防止出现偏见和不公平的结果,确保AIGC应用开发者不损害任何人的利益。

3.加强技术伦理监管力度

人工智能技术快速发展和扩张应用带来了人类对其潜在危害的担忧,这促使政府部门必须制定各种相关法规对AIGC进行监管。首先,制定相关政策及法律法规。美国民意调查显示,美国人普遍认为人工智能不可信,希望对其实施监管。2023年6月14日,欧洲议会投票通过了《人工智能法案》授权草案,旨在确保人工智能发展符合欧洲的价值观和权利。然而,该法案引起了一些异议,Encord的联合创始人兼总裁Hansen表示,该法案缺乏灵活性,未考虑到人工智能的快速发展。2023年7月10日,中国国家互联网信息办公室发布了《生成式人工智能服务管理暂行办法》,这一举措受到学界的高度评价。昆山杜克大学电子与计算机工程教授、大数据研究中心主任黄开竹博士认为,在大量AIGC技术应用和系统涌现后,算法背后的安全性、公平性、可信性、隐私保护和风险等方面的引导和规范相对滞后,但中国的《生成式人工智能服务管理暂行办法》出台非常及时,从技术角度审视非常专业,为AIGC的开发者和使用者加上了“护栏”。因此,在制定人工智能法律法规时,应该找到创新与监督之间的平衡,为其发展提供指导和框架,鼓励创新和研发。其次,制定技术标准。制定AIGC的技术标准旨在对其研发和应用进行指导,确保技术的安全性和可靠性。人工智能技术安全性和可靠性是社会的重要关切,政府制定技术标准可以提升AIGC系统的安全性和可靠性,降低风险。随着OpenAI和微软的结合,加上谷歌内部的DeepMind,美国保持了技术领先地位。在制定技术标准这一领域,美国走在了世界前列。2023年1月26日,美国商务部下属的国家标准与技术研究院发布了其第一版《人工智能风险管理框架》(AIRiskManagementFramework),旨在指导人工智能企业在开发和部署人工智能系统时降低安全风险,避免产生偏见和其他负面后果,提高人工智能可信度,保护公民的公平自由权利(11)NIST AI risk mangement framework(AI RMF 1.0)launch[EB/OL].(2023-03-30)[2023-06-12].https://www.nist.gov/itl/ai-risk-management-framework.。

(三)建立企业行业自治自律机制:实现AIGC安全性的“可信赖”

在意大利、加拿大宣布对OpenAI公司展开调查以后,德国、法国、爱尔兰等国数据监管机构纷纷跟随。作为对此次事件的回应,OpenAI公司于2023年4月5日发布了OurApproachtoAISafety,详细介绍了该公司如何确保人工智能系统的安全性。OpenAI公司的这一企业自治举措只是人工智能行业展开自治的一个缩影,说明人工智能行业已经意识到AIGC诱发的技术伦理风险并且展开自治自律。Insight Enterprise公司的一项调查研究发现,81%的人工智能大公司(员工超过1 000人)已经在围绕AIGC制定或实施类似政策或策略。

1.完善AIGC使用规范

人工智能企业扮演着AIGC系统的研发者、使用者和监管者等多重角色,在研发和使用AIGC系统时必须明确自身角色定位,对系统研发程序、使用范围进行伦理规范,防止AIGC技术被滥用,确保AIGC技术本身遵守社会伦理规范、符合社会价值观。OpenAI公司也采取了一系列措施来保障用户权益,他们在OurApproachtoAISafety中规定,用户必须年满18周岁,或年满13周岁在父母批准下才能使用人工智能工具,此外,他们也明确表示不允许其技术用于生成仇恨、骚扰、暴力或成人类别的内容(12)Our approach to AI safety[EB/OL].(2023-04-05)[2023-06-12].https://openai.com/blog/our-approach-to-ai-safety.。显然,生成仇恨和暴力内容违背了社会的价值观和道德准则,这种内容可能会导致仇恨犯罪和暴力行为的增加。人工智能企业有责任确保技术的使用不会对社会造成负面影响。与此同时,仇恨和暴力内容对用户的安全和心理健康同样会构成威胁,这些内容可能引发仇恨言论、骚扰、恐吓和暴力行为,对个人或群体造成伤害。因此,限制此类内容有助于保护用户安全和增加社会福祉。

2.建立AIGC透明机制和可解释性机制

如果一个AIGC系统不透明或者不可解释,那么其决策就会缺乏信任度和可靠性,用户就无法理解其决策的依据,这会导致用户对AIGC信任度降低。透明度代表AIGC系统的数据和算法是否可以被公开,以便用户了解AIGC内部工作方式,用户希望知道AIGC系统是如何处理数据的,其使用了怎样的算法和模型,这样用户才能够信任该系统。可解释性意味着AIGC系统的决策过程是否可以被解释清楚,以便用户可以理解为什么AIGC会做出特定的决策。用户希望能够理解AIGC系统背后的逻辑和推理过程,而不仅仅是接受系统的结果。提升AIGC系统的透明度和可解释性,可以帮助用户发现潜在偏见和歧视并及时解决,可以增加用户对AIGC的信任,并使AIGC更加可靠实用。因此,为了增加用户对AIGC的信任,并使其更加可靠实用,需要在研发过程中提升AIGC系统的透明度和可解释性,确保用户可以理解系统内部的运作方式和决策过程。

首先,建立AIGC系统透明机制。这种透明机制是指在人工智能应用中,确保系统的运作过程对用户是透明的。为了达到这个目的,需要从以下几个方面进行落实。第一,人工智能企业公布AIGC数据集和算法,使用户了解AIGC系统是如何运作的,从而增加用户的信任。第二,保护用户数据隐私也是建立透明机制重要一环。人工智能企业需要使用技术手段脱敏、差分隐私等来保护用户数据隐私,确保用户的个人信息和敏感数据不被泄露或滥用。第三,人工智能企业还要与用户沟通,解答用户对AIGC系统的疑问,通过提供相关信息和技术解释,帮助用户深入了解AIGC系统的运行原理和决策过程。第四,人工智能企业应及时回应用户的反馈,并根据用户反馈问题来增强AIGC系统的透明度,通过不断优化和改进,使系统更加符合用户的期待,这样AIGC系统能够更好地为用户服务。

其次,建立AIGC可解释性机制。第一,可视化是一个重要步骤。人工智能企业可以通过数据可视化方式,将AIGC系统的决策过程呈现给用户,让用户更容易理解AIGC的行为,明白其为什么会做出这样的决策。第二,解释模型也是一种可行的途径。人工智能企业可以使用可解释模型,例如决策树逻辑回归等,这些模型可以提供可视化和更多的可解释性,同时也能够以可视化的方式展现出来,使用户更容易理解AIGC的工作原理。第三,解释特征也非常重要。人工智能企业可以解释AIGC系统是如何使用输入数据特征来做出决策的,这样的解释可以帮助用户更好地理解AIGC决策行为,并对其结果有更深入的认识。第四,解释误差是一个可以考虑的方向。人工智能企业可以解释AIGC系统的误差来源,比如特定的输入数据或模型参数,这样的解释可以帮助用户更好地理解AIGC系统的弱点和极限,从而提升对其决策结果的信任度。

3.建立AIGC安全风险管理机制

AIGC广泛应用于金融、医疗、化学、采矿等特殊领域,或许会涉及大量的敏感信息和国防安全信息。如果人工智能企业不能有效管理和预防这些安全风险隐患,AIGC可能会发生数据泄露、隐私侵犯、恶意软件、黑客攻击等情况,从而违背技术伦理,对人类造成伤害。因此,必须建立AIGC的安全风险管理机制。首先,企业需要建立AIGC使用前的安全风险评估机制。这一评估机制包括对系统数据安全、算法安全、模型安全、网络安全等方面的评估。通过使用前的安全风险评估,企业可以发现AIGC存在的技术漏洞和安全隐患,并制定相应的补救措施。例如,OpenAI公司强调他们在发布任何新系统之前都会进行严格测试、聘请外部专家提供反馈,以建立普遍适用的安全和监控系统。OpenAI公司还表示,GPT-4在发布之前已经经过了为期6个月的安全测试。其次,建立AIGC使用中的安全风险管理机制。这一机制包括实时的安全监控、强化的数据保护和网络防御措施等,以应对可能出现的安全风险。例如,OpenAI公司强调,公司会根据ChatGPT在现实中的使用情况,制定更加详细的措施防范风险。再次,建立AIGC的应急响应机制。这一机制的建立旨在一旦系统出现风险隐患,能够及时响应和处置,减少风险事件对系统本身以及用户的影响。此外,构建与第三方安全机构的合作机制非常重要,与第三方安全机构合作的意义在于定期对AIGC进行安全测试和安全审计,及时发现和解决AIGC系统中存在的安全隐患问题,并进行及时修复。

(四)用户提升算法素养:实现人类与AIGC合作的“可持续”

“人工智能正成为推动人类进入智能时代的决定性力量”[11],用户提升算法素养对于人工智能可持续发展至关重要。它可以保护个人数据隐私和安全、降低算法不公平和偏见、促进社会对话和监管、促进技术的接受和应用。这些方面的改进将有助于人工智能技术更好地为人类社会带来福祉。

1.提升认知AIGC算法缺陷的素养

在计算机科学和信息技术领域,算法是解决问题的一种方法或步骤的描述。算法素养是指对算法的理解和掌握程度,包括对算法的基本概念、原理和应用的了解,以及对算法的设计、分析和优化的能力。AIGC算法在很大程度上受人类算法工程师个人价值观的影响,这就使得AIGC算法缺乏公正客观。对于用户而言,提升认知AIGC算法缺陷的素养对于其在使用AIGC过程中减少算法偏见和歧视十分关键。因此,用户提升认知AIGC算法缺陷的素养需要采取以下两方面的措施。一方面,用户要了解AIGC运行的基本原理,认识到AIGC本身存在的技术局限性和算法缺陷,这样能够更好地理解AIGC的运作方式以及预防可能出现的问题。另一方面,用户在使用AIGC时要比较多个来源的内容,以便更好地判断生成内容是否准确,如果多个来源的内容不一致,用户需要进一步调查和研究,以确定最终结论,避免单一来源信息的偏见和误导。

2.提升防范AIGC可能诱发的技术伦理危机的能力

用户应该培养隐私保护意识、确认信息来源的可靠性、提升安全防范意识以及积极参与反馈和监督,以保护个人权益,促进人工智能的透明和负责任使用。第一,培养隐私保护意识。用户在使用AIGC提供的服务时,应该妥善保护个人信息不泄露给他人,并且使用强密码来保护账户的安全。第二,确认数据来源的可靠性。在使用AIGC提供服务时,用户要仔细判断确认信息来源的真实性和可靠性,避免被虚假信息误导,以免做出错误的判断和决策。第三,提升安全防范意识。用户要时刻保持警觉,避免成为钓鱼、诈骗等攻击手段的受害者,要警觉各种欺诈行为,避免在不安全的环境下使用个人数据和信息。第四,积极参与对AIGC的反馈和监督。用户在使用AIGC提供的服务时,如果发现存在不准确、有偏差或错误的地方,可以通过平台提供的反馈机制进行报告,以帮助平台改进算法。例如,OpenAI表示,它将向报告其人工智能系统漏洞的用户提供高达2万美元的奖励。此外,用户也可以参与到人工智能社区的讨论和交流中,与其他用户共同发现错误并纠正偏差,如果用户发现AIGC存在不当、有害甚至违法信息,可以通过平台提供的举报机制进行举报。

四、总结与展望

人类历史上每一次技术变革与进步都会引发人类对技术的深刻反思。2022年底OpenAI公司ChatGPT的出现备受瞩目,这种AIGC技术与以往传统人工智能技术相比较具有“压倒性”优势:AIGC使用门槛更低、应用场景更加广泛、创新力更强且自动化程度更高。因此,AIGC一经面世就具有造福人类社会的巨大潜力。然而,AIGC在使用过程中因算法透明低导致的沟通“不理解”、缺乏主观善意导致的决策“不可控”、人工智能幻觉导致的安全性“不可靠”、人机伙伴关系尚未建立导致的合作前景“不可持续”的问题已经诱发了技术伦理危机。AIGC在引爆人工智能技术前进“海啸”的同时也诱发了技术伦理危机。因此,亟须对AIGC进行负责任监管和治理。这种监管和治理需要利益各方协同发力。学界要坚持对技术负责的原则,推进人机协同中可解释性研究;政府要坚持对社会负责的原则,加强对AIGC的审查和监管;人工智能企业要坚持对用户负责的原则,建立企业自律自治机制;用户要坚持对自己负责的原则,提升算法素养。只有这样,才有可能实现AIGC沟通的“可理解”、确保AIGC决策的“可控制”、实现AIGC安全性的“可信赖”以及AIGC发展的“可持续”。

人工智能技术进步的脚步不会停歇,AIGC向前发展已势不可挡。国内外学界许多知名学者和人工智能领域的“翘楚”人物已经认为AIGC是迈向通用人工智能(artificial general intelligence,AGI)时代的雏形。在将来,AGI很有可能被发明并广泛应用。AIGC作为迈向AGI的前奏,其诱发的技术伦理危机已经向人们敲响了警钟:人类必须正确处理与人工智能技术发展的关系。问题的关键是,当AGI时代真正到来时,人类如何才能确保AGI技术对人类是安全有益的。因此,紧跟AIGC技术发展“更新迭代”脚步,不断对其“负责任”地治理将永远在路上。

猜你喜欢
解释性伦理人工智能
《心之死》的趣味与伦理焦虑
论行政自由裁量的“解释性控权”
护生眼中的伦理修养
2019:人工智能
人工智能与就业
英汉互译中的认知隐喻翻译探究
数读人工智能
融媒体时代解释性报道的发展之路
下一幕,人工智能!
非解释性宪法适用论