生成式人工智能治理的法律回应

2024-04-06 18:11
关键词:人工智能算法

袁 曾

(上海大学 法学院,上海 200444)

一、引 言

ChatGPT(Chat Generative Pre-trained Transformer)已于2023 年5 月18 日上线苹果手机程序商店(AppStore),标志着生成式人工智能正式投入商业化应用。生成式人工智能(Generative AI),是指通过各种机器学习技术(Machine Learning,ML)从数据中学习要素,进而生成全新的、原创的、真实的内容,其生成的内容(AI-Generated Content,AIGC)与训练数据可以保持关联性,但绝非复制。[1]生成式人工智能综合利用人类反馈强化学习、深度学习技术、全域数据挖掘技术,已将智能生产力水平提升到了新的阶段,人类正式进入通用人工智能(Artificial General Intelligence,AGI)时代的奇点。[2]18例如,操作者可使用Mid-Journey 程序,快速通过输入单词指令的方式,要求生成式人工智能在极短的时间内输出符合操作者要求的全新图像,不具备任何绘画基础的人也可以在生成式人工智能的帮助下生成高水准的图像“作品”,其强大的图形渲染能力、理解能力与内容产出效率,已经开始改变插图绘制行业生态。在传统人工智能时代,人工智能的模糊性、复杂性、自主性和无法预测性等特征,已经带来诸多风险和问题。[3]而生成式人工智能具有的颠覆性生产力可能对社会生产关系产生重大系统性改变,也将引致重大治理风险。现行法律调整规制人工智能的框架与范式,很难充分应对技术迭代发展的现实,需要在考量技术能力与实际变量的基础上,重新建构生成式人工智能治理的基本架构,以规则制定引领技术变革的正确发展方向。

二、生成式人工智能引致的治理风险

(一)生产工具已具备人类能力特征

劳动,对人和人类社会的形成和发展具有根本的决定意义,也是人与动物的本质区别。马克思在《资本论》中指出,劳动首先是人和自然之间的过程,是人以自身的活动来引起、调整和控制人和自然之间的物质变换的过程。生成式人工智能投入规模化应用后,传统劳动的概念与形态受到了现实挑战。以ChatGPT 在教育领域的应用为例,以往学生修改毕业论文需要付出较为繁杂的劳动以满足论文重复率要求,但现在操作者可以直接将论文内容输入至程序中,明确指示ChatGPT 按照相应要求进行复写,在数分钟内完成论文的重新编写。在此行为模式下,ChatGPT 的重新加工、输出内容可否被定义为劳动,直接关涉其法律地位等一系列复杂问题的认定。从与传统人工智能技术的区别分析,生成式人工智能已经在图片等信息识别与人类自然语言的理解上实现了突破,在“理解能力”与“行为能力”上,具备了人类能力的基本特征。在使用Whisper、Boomy、BeatBot 等音乐类生成式人工智能程序时,操作者简单告知其需要的曲风与词意,人工智能即可自动生成符合乐理与听众习惯的歌曲。在此维度下,很难从客观上否认生成式人工智能具备了推理能力。更为震撼的是,若操作者不满意此类程序的交互界面或生成效果,就可以在生成式人工智能的帮助下,在按日计算的短时间内自行重新搭建一套程序,完成以往中小型互联网公司级的烦琐工作。另外,生成式人工智能技术使得环境态势感知不再成为计算机识别的障碍,自动驾驶汽车利用实景摄像头在人工智能的计算下实现真正的实时无人驾驶已成为现实,若汽车在生成式人工智能负责驾驶的状况下造成人员伤亡等侵权事故,其驾驶的行为能否被定义为法律上的“行为”,这将直接引发整个汽车行业保险责任的颠覆性变化。生成式人工智能在当前阶段仍属于为人所使用的工具,但这种生产工具所具备的技术能力及发展能力过于强大,已经在部分行业替代了人类的劳动与工作,改变了社会生产生活的形态。

(二)新生问题超出法律规制范围

生成式人工智能的规模化应用已经形成了较多亟待法学研究厘清的重大现实问题。一是从著作权领域分析,生成式人工智能涉及的知识产权问题极为复杂。生成式人工智能的操作者仅需键入几个关键词,机器就足以实现独立于预设条件的内容产出。[4]在此情形下,该种产出是否可以界定为作品?若界定为作品,其作者是操作者还是人工智能本身?特别是在生成式人工智能输出的内容已具备现行著作权法下的作品特征的客观状况下,由于生成式人工智能生成内容潜在的利益巨大,由生成式人工智能的研发者、提供者还是操作者享有内容背后的财产权益均会对未来知识产权的治理产生关键性导向。二是从刑事领域分析,由于生成式人工智能具备相对独立的行为能力,若将生成式人工智能作为犯罪手段将无法直接适用现行的犯罪构成要件、罪责刑相适应等基础理论。利用AI 换脸等深度伪造技术实施诈骗的案例已经出现,其真正的犯罪主体难以追踪确定。生成式人工智能可以批量注册社交账号,操控相关程序规模化地在信息网络上跨境发布大量的煽动性信息。若生成式人工智能被自动设定用于“网暴”“造黄谣”“抹黑”特定对象,则其很可能造成当事人自杀、自残等严重后果,但查证犯罪将极为困难。[5]三是从数据治理领域分析,生成式人工智能对于数据具有极强的依赖性,造成了隐私侵权、数据滥用的现实治理风险。由于使用全域互联网数据作为训练样本,ChatGPT等生成式人工智能在挖掘、使用数据的过程中,并不能准确辨析所利用的海量数据的权利状态与知识产权状况,潜在的数据权利人也无从知晓、无法辨析自身数据信息被大数据模型爬取利用,这留下了极大的治理空白。[6]四是从人类文明的传承分析,当前生成式人工智能的底层数据以英语数据为主,作为国际互联网基础的英文数据库确实具有较高的数据质量,但生成式人工智能输出的内容也就天然具有了技术研发者与数据库拥有者暗含的主观价值观、世界观。与传统算法定点推荐给用户的被动接收信息的方式相比,操作者自行设置变量产生的AIGC具备主动感知的更高信任度。各国民众在长期接受含有价值偏向的统一标准信息后,很有可能直接改变当前多样性文明的意识形态。

(三)私人技术资本成为数字空间的权力掌控者

权力可以被解释为若干预期结果的产生,是一个量的概念,假如有两个具有相似欲望的人,其中一人除实现了另一人的全部欲望外,还实现了其他一些欲望,则他就比另一人具有更多的权力。[7]“代码即法律”意指数字空间权力,已经成为法学界探讨数字生态与现实社会交互发展中最主要的忧虑。生成式人工智能加大了私人技术资本在数字空间乃至社会空间中的系统重要性,并逐步趋于技术垄断的地位,掌握了数据流向渠道、大模型算法排他性专利、技术发展方向等多领域的实际权力。[8]生成式人工智能规模化应用以后,私人技术资本的权力进一步扩张,其独立于传统政府公权力与公民私权力之外的“第三极”权力地位进一步突显。

一是生成式人工智能的技术开发投入需要的资本极大,已非一般规模的市场主体乃至中小型国家可以承担。自2019年以来,微软公司对OpenAI 公司至少投资了30 亿美元以训练ChatGPT 的初代模型,2023 年1 月,OpenAI 公司又宣布获得微软公司数十亿美元的多年期投资。高昂的长期投入成本与巨大的现实回报,加强了高端技术领域研发与应用的“马太效应”(即强者恒强),使得数据鸿沟不仅在不同发展程度国家间的公民个体中形成,更在国家与国家、国家与私人技术资本间产生。二是对于生成式人工智能提供者的监管手段与能力匮乏。生成式人工智能使用互联网全域数据样本进行运算训练,又实时提供各类AIGC反馈至操作者处,每时每刻在全球网络上均有海量的内容输出产生,目前仍无有效的监管工具可以实时监测与存储生成式人工智能所产出的全部内容。监管的缺位又反向固化了私人技术资本的实际权力地位。[9]三是私人技术资本在数字空间中已居于事实上的领导者地位。无论是前期炒作火热的元宇宙、还是喧嚣甚上的WEB3.0,科技前沿的发展概念与理念均由私人科技资本提出,并由此影响国家科技投入与发展的具体技术路线。由于掌握了新型数字基础设施建设的硬件标准与大模型算法,私人技术资本已可以从算力、算法等多维度控制全球数字产品的供应并确定技术的发展方向,逐步侵蚀、挤占甚至取代传统公权力的地位,为社会发展带来不可预测的风险变量。

三、现行治理范式无法涵盖治理需要

社会治理已经迈入人工智能时代,相关法律、伦理、社会问题的研究氛围也相当活跃。[10]2023 年8 月15 日,国家互联网信息办公室等七部门共同发布的《生成式人工智能服务管理暂行办法》生效,对隐私保护、数据训练、不公平竞争等内容提出了规范性意见。但由于生成式人工智能所具备的颠覆性技术能力,导致其带来的社会变量,可能远超现行控制机制与规范框架的调整范围。结合技术迭代发展的实际,统筹发展与安全,从数字治理的高度推动生成式人工智能的法律规制,已经成为一个现实而紧迫的重大研究命题。但是,当前对于人工智能的治理聚焦于算法规制,忽视了生成式人工智能发展模式与调整框架的整体建构,无法适应技术发展的最新需要,而数字法学的方法论集中于概念创造却又忽视了法学的实践应用标准,导致目前的治理范式无法适应于生成式人工智能的未来发展,因而法律规制的引导、调整作用不强。

(一)忽视责任的整体建构

当前学界与实务界对于人工智能的治理基本以算法规制为核心展开,特别是以算法的可解释性为核心展开了包括透明性要求、推荐要求、分级监管要求、备案要求等系列的规则建构。[11]客观地分析,以算法为规制调整中心的领域场,符合传统人工智能的技术水平。在进入生成式人工智能以前,人工智能以深度学习、大数据计算为核心建构底层技术,算法的控制者可以通过设置相应条件实现算法输出结果的目的。人工智能的控制者在使用算法时,应使人类能够理解算法的决策、运行过程和结果。[12]若控制者无法合理解释其决策过程和输出的结果,则应当承担相应责任。例如,媒体曾经报道“携程”“去哪儿”等行程预订程序,可以根据用户使用手机品牌的不同实现“同房型不同价”的差异化定价,消费者在使用过程中发现了隐藏的算法欺诈,即向监管部门举报要求算法控制者予以回应。可解释的算法规制核心,实际是将算法的解释与侵权损害等结果之间建立了实际的因果关系,当出现了控制者无法解释的情形时,就应承担相应责任。[13]但是,生成式人工智能是在操作者输入的限定条件下进行运算并输出要求的内容,其运行模式直接割裂了算法可解释与结果间的因果关系。例如,操作者使用Mid-Journey 程序,通过特定的表述方式绕过程序的基本限制,生成了有关儿童色情或明星“换脸”色情图片,在此条件下继续要求生成式人工智能的控制者承担严格的责任显然有失公平。由于生成式人工智能已经被广泛商业化应用,ChatGPT声明其不会存储普通操作者使用该程序时的记录。①事实上,要求生成式人工智能的控制者对全球范围内同时进行的海量操作进行存储以备审查,也不符合客观规律。在此情形下,如何确定损害结果与控制者算法义务间的关系,已成为无法辨明与调和的现实矛盾。现行人工智能的治理规则过于集中在算法规制,实际上将技术发展的风险完全加于算法的研发者与控制者这两类主体之上,技术的持有者具备了事实上的“天然原罪”。从经济收益与风险的角度分析,并不利于技术领域的再投资与创新发展。[14]而生成式人工智能除了涉及操作者这一重要主体以外,还至少牵涉硬件供应商、底层数据提供者、大模型设计者、跨境监管者等多层次的参与主体,从整体着手建构完善的风险调控机制与相应的结构化责任体系,才有可能适应数字技术治理的逻辑基础。

(二)无法回应技术发展现实

如前所述,生成式人工智能已经具备了信息识别能力、逻辑推理能力、自然语言理解能力与行为决策能力,结合实际确定生成式人工智能的法律地位是解决生成式人工智能治理无法回避的关键性问题。但是,当前法律规制与法学研究对于进阶到新生产力水平的特殊智能体并无统一的地位共识,导致无法建构完整的、符合人类共同利益的人工智能道德规范和行为准则体系。随着人工智能时代的到来,各行各业的决策特别是关系民众日常生产生活的决策已经大部分由机器自动作出,信用评价、就业准入、医疗服务、学位摇号这些传统由人作出的重大决策已经实现由人工智能自行处理,资格认证系统、排名算法和风险预测模型决定了何种主体是否可以获得高度的信用值、获取正确的对症治疗方法以及受教育的权利。[15]生成式人工智能的技术能力强化了机器决策在社会治理中的重要性,由于人口结构老龄化的趋势以及生产关系的客观改变,在可预见的时期内,技术治理将在社会治理中不可避免地占据更为重要的地位。面对技术替代人类的客观实际,应当通过何种标准、模式给予生成式人工智能的身份以法律层面的回应,实际体现的是人类自身的反身性,即人类是否可以通过规则设定以真正掌控技术的发展。这也正是美国前国务卿基辛格反复强调高阶人工智能对人类的威胁远超核武器的论点基础。[16]

(三)法哲学方法论不足

得益于学界对于人工智能法治理念的前瞻性探索与技术发展的时代潮流,当前数字法学的研究成果涌现,但由于缺乏对于数字治理系统工程的高位建构,导致当前的数字法学研究过于集中在某一特定领域的单独规则建构,特别是高度重视概念辨析而忽视了理论指导实践应用的真实价值。[17]一是需要引入交叉学科改造法哲学方法论。方法论是人类认识、改造世界的方法和理论,法学属于社会科学,其研究与应用需要方法论的指引。[18]例如,生成式人工智能的运用涉及算力、算法与数据这三项主要要素,对其任何单一要素的集中规制均无法解决生成式人工智能发展过程中面临的整体问题。这就需要引入工程学中系统治理的概念,从体系化规制的思路重新着手调整人工智能规则治理的基础架构。[19]二是当前的数字法学研究集中于法教义学研究,从已有经验研究固有问题的解决办法,显然无法高效追踪、及时调整大量的新生问题。[20]2023 年5月23日,武汉市一小学男生谭某在校内被该校教师驾车碾轧致死,6月2日孩子母亲从高处坠楼身亡,根据有关报道,孩子母亲跳楼与意外事件发生后的网络评论暴力之间存在高度关联。在介入此类重大舆论的引导时,若有人或势力恶意使用生成式人工智能发表规模化的暴力言论,则极易引发超出事件本身的不利后果,而这种行为是否属于犯罪、犯罪行为如何查实、犯罪量刑如何把握、由何种主体承担惩戒后果等均需要法律予以现实调整,而非试图从法教义学角度着手予以解释或回应。三是当前理论研究成果集中于概念再造,但解决实际所需的价值较弱。[21]例如,国内学界对于数据的研究主要从数据权属等基础性概念方面进行展开,对数据权利的类型、含义、内涵进行了大量的创设性论证。[22]但是,生成式人工智能需要使用全域数据样本进行模型训练,其直接涉及的是数据规模化应用问题。对某一主体所属的数据单独区分权属,意义着实不大。过于微量的数据样本既无法解决数据定价、交易等价值交换的现实需要,也对利用数据设定了过高的单独标注、单独利用标准,无法发挥数据集中利用的规模效应。[23]从理论联系实际、解决实际问题的角度出发,有关生成式人工智能治理的法哲学方法论仍需进一步补强。

四、生成式人工智能的治理原则、方法与架构

“法律是行为的规则和标准,人们借此实施行为或限制行为。”[24]面对生成式人工智能强大生产力水平带来的社会治理现实问题,法律特别是相关规则研究应靠前一步,以前瞻性、战略性、实用性思维建构完善治理范式,确保技术的发展为人类所掌控。

(一)治理原则

一是风险控制首要原则。安全稳定是推动高质量发展的重要保障,也是衡量高质量发展的重要标尺。关于生成式人工智能有效利用、规模化利用、安全利用、可控制利用的系统性、框架性法律法规,需要从总体国家安全观的高度出发建构完善。[25]针对生成式人工智能的立法,必须强化底线思维、极限思维,有效防范化解因生成式人工智能的规模化应用形成的系统性重大风险。因此,传统人工智能以算法规制为核心的“可解释”规范体系应逐步转向以各要素风险“可控制”为核心展开的规范体系。二是全面监管原则。由于生成式人工智能的参与主体众多,对于单一主体的限制与控制无法涵盖生成式人工智能运行过程中产生的绝大多数风险,因此,可以将对生成式人工智能发展具有系统重要性的相关主体均设置相应的规制内容与明确的评价标准,通过结构化控制实现总体可控制。[26]将原有单一的算法义务主体扩展至所有参与主体,每一主体均具有自身的责任义务要求,确保发展“负责任”的人工智能。三是技术收益与责任风险对应的技术治理原则。根据唯物辩证法的基本观点,任何事物都具有两面性。客观分析,即使生成式人工智能带来了极大的治理风险与发展的不确定性,但其对于人类生产力水平的迭代提升作用是明显的,人工智能依然是未来科技发展的主要方向。因此,在控制生成式人工智能等新科技风险的同时,更需要同步建立更为适应新技术进步与现实发展的规则框架与法治生态,确保投资有益的技术可以获得相称的价值回报,避免因为法律法规的过重限制而造成技术研发者与投资者承担过强的责任义务,以鼓励智能技术的再投资、再回报、再应用。

(二)结构化的体系治理方式

生成式人工智能将改变社会形态的方方面面。当前,生成式人工智能领军企业OpenAI 公司已经将ChatGPT 的发展目标调整为发展与部署负责任的人工智能(be developed and deployed responsibly)。结合技术发展的底层逻辑,对生成式人工智能予以结构化调整规制,是控制人工智能负责任发展的关键路径。[2]30生成式人工智能需要算力、算法、数据三大类要素共同实现,对于单一要素的特别规制无法涵盖其带来的全局性挑战,需要从系统性工程的维度出发,统一调整、明确标准、综合控制,从总体国家安全观的站位系统性建构覆盖全要素的结构化治理体系与能力。

一是在算力方面,从集中力量办大事的传统优势与制度优势出发,重点调配规模化算力资源,抓紧推动开发关键硬件技术、建设新型数据基础设施。当前法律对于新科技的调整并未将重点放在算力布局优化等硬件领域,而是聚焦于算法备案等软件规制领域。ChatGPT、Mid-Journey 等生成式人工智能底层建构均需要使用美国英伟达公司(Nvidia)所生产的显卡(GPU),其创始人兼CEO 黄仁勋提出,加速计算和生成式人工智能是计算机行业正在经历的两大巨变,全球数据中心已经安装的万亿美元数字基建将逐步从通用计算过渡到加速计算。新一代硬件研发与应用的标准将成为争夺新科技领域标准制定权的关键,疏于对算力等底层技术设施的管控能力与渠道建设,将丧失对于未来生产力提升与发展先发优势的管控。当前,我国的算力总量居于全球前列,但分布分散,对于引入国外新一代数字基础设施与研发自主知识产权替代品的标准与应用范围应提前规划,既要考虑避免重复投资,也应避免盲目跟风、匆忙更新引发的系统性架构风险。

二是在数据方面,聚焦数据规模化应用的定价、交易、监管等关键领域,形成数据规模化应用的新标准,丰富数据高频流动、高效配置、高速增值的权属体系。数据是新科技革命时代的矿产资源,生成式人工智能的训练与深度学习需要使用规模庞大的基础数据资源。单一个体所产生的数据对于生成式人工智能所需的数据资源作用不大,应注重将数据利用与个人信息保护相区分。个人信息属于隐私,其法益受到民法与刑法的明确保护,若利用个人信息自然涉及敏感信息保护等法律的强制性要求。而数据无时无刻不在产生,全球网络实时同步使用ChatGPT 等程序的用户达到千万级规模,操作生成式人工智能必然产生数据,但绝大多数作为字节存储的数据对于普通用户个体而言并无区分或厘清权属的客观意义。只有在数据被高密度化、大规模化使用后,才能形成相应的决策依据、情势感知与内容输出等实际价值。在确定个人信息与数据的概念与范围差异后,法律应着重从加强个人信息的保护与促进数据规模化利用这两个维度分别建构其使用与发展的差异化技术路线,并完善配套规则。否则,我国具备的数据规模优势将因过于严苛的数据权属保护等人为限定条件,导致数据交易等规模经济始终无法成形。数据规模化应用并不意味着放弃对数据的保护或摒弃生成式人工智能操作者的潜在经济利益,可以通过数据利用透明度要求,制定生成式人工智能使用数据时的侵权损害赔偿规则,引入数据规模化交易税收等方式支付利用规模化数据的对价,实现数据的有效保护与高效优势,助力我国数据资源体量优势转化为数字技术发展的基础优势。

三是在算法方面,重点评估建构符合客观规律与风险管控的应用办法,用主流价值导向驾驭生成式人工智能的底层“算法”,全面提高利用的效率与安全性。[27]《新一代人工智能伦理规范》第十二条规定,要在算法设计、实现、应用等环节,提升人工智能的透明性、可解释性、可理解性。但如前所述,对于算法的单独规制实际是在算法无法解释与侵权损害赔偿间建立了人为的因果关系,而非基于事实上的考虑。生成式人工智能的出现凸显了单独规制算法的理论弊端,由于生成式人工智能已经具备了类似人类大脑神经元计算的运行模式,其在操作者的介入下输出的内容往往超出生成式人工智能的研发者或提供者所预设的范围。这就类似于研究者均可以使用经济学公式,但因为输入数据变量的不同而得到不同的结论是极其正常的现象,若因此去苛责公式的发明者无法实现统一的结果,明显属于责任错配。此类规制路径除了加大投资者责任以外,并无法真正地解决人工智能在真实社会运用中的实际问题。技术手段本身并不能回答原因问题,将结果混淆为原因是一种谬误。[28]需要基于对收益与责任风险合理的考量,逐步调整算法的规制路径与方法,推行算法研发与使用的负面清单制度,明确算法使用中不得调用的数据库、不得违反的伦理、不得侵害他人个人隐私等强制性要求,若违反并被查实,则必须承担相应的严格责任。2023 年5 月,新西兰信息专员办公室(OPC)发布《生成式人工智能指南》,指出生成式人工智能对新西兰公民个人信息的使用应遵守其《隐私法》。除要求保证一定范围内的算法透明责任之外,应创设较为宽松的算法管制生态,为鼓励技术投资孕育良好的法治营商环境。算法的规制与算力、数据的规制必须从实现一致目标着手建构整体治理框架与体系,并结合生成式人工智能的技术特点与演进规律,逐步形成清晰完整的系统性治理体系。

(三)链式责任治理架构

在明确对于算力、算法、数据三大要素结构化治理的体系性方法后,实现发展负责任的人工智能的关键路径就在于人工智能的发展有主体负责并且具备负责的能力。应基于技术应用所需的底层要素资源以及生成式人工智能发展引致的伦理风险,从责任的角度构建覆盖完整产业链与应用链的生成式人工智能深层次治理架构,明确相应归责路径,通过完善的法律法规和行业标准约束生成式人工智能的责任主体,形成可预期的风险责任制度,通过各部分的控制达到总体控制的目的,实现对生成式人工智能的全链条监管。[29]在治理架构上,将涉及生成式人工智能使用与发展的所有重要主体均纳入责任控制范畴。生成式人工智能的使用不仅涉及算法规制所调整的智能研发者、持有者,还涉及数据供应者、数据生产者、智能操作者、智能监管者等多类型主体。每一类主体均应设定相应的强制性规范与伦理红线。在责任承担的机制上,基于损害结果与事实原因确定因果关系,当无法溯源具体致损原因时,由违反强制性规范的主体承担严格责任。[30]在治理的过程中,需要将收益分配制度与责任风险紧密结合在一起。义务主体可能承担的责任风险应与其可以获取的收益尽可能匹配,并尽可能避免单一主体承担无限责任的情形产生。[31]

其一,在研发者责任上,参照算法研发的强制性要求,设定明确的不可突破的伦理底线。例如不得要求机器杀死人类、不得设定歧视性计算模型等,以明确的禁止性规定对应其有限范围内的严格责任。另外,设定相应技术开发管理过程标准,要求研发过程中的关键性环节数据必须在一定期限内保存,以便确定责任原因时可以溯源。其二,在控制者责任上,要求其不得传播颠覆政权、未经甄别的信息等强制性义务,特别是注重生成式人工智能输出内容的特点,要求控制者对AIGC 强制覆盖底层水印以溯源,以便其他主体可以准确辨明内容来源并判断是否属于人类作品。在其他情形下,若其可以满足合规并主动保持接受监管治理,可给予其相对宽松的发展环境。但若其违反强制性规定,则对其予以严格的惩戒与追责。其三,在数据责任方面,数据供应商与数据生产者负有提供高质量数据的义务,例如中文数据供应商应确保建立高质量的中文数据库以优化以中文为主的大语言模型训练。若数据供应商与数据生产者使用他人作品涉及侵权或利用数据传播虚假信息(煽动暴乱)被查实,则应承担相应的损害赔偿等责任。其四,在监管者责任方面,由于生成式人工智能的研发涉及众多产业链条与互联网全域样本,任何单一国家或企业均无法建立起覆盖全球的监管链条。在生成式人工智能的监管上,应从国际、国内两个维度着手建立覆盖其发展应用全链条的监管机制。在国际层面,可考虑由人工智能主要技术强国共同参与设立人类人工智能监管议事机构,吸纳大型私人技术资本、中小技术企业、普通民众等多样化主体共同参与强人工智能的监管框架制定。①2023 年5 月,OpenAI 公司CEO 山姆·奥特曼在美国国会就人工智能技术的潜在危险参加听证,呼吁政府对生成式人工智能进行监管和干预,开发减少人工智能潜在危害的框架,提出可以建立类似于国际原子能机构(IAEA)的人工智能监管机构,对极其强大的AI训练系统形成全球监管。在国内层面,应着眼国家安全设定统一的监管目标并完善相应的监管手段、标准与能力,从促进生成式人工智能乃至通用人工智能发展的角度,营造适应技术发展的完整行业生态。对于链上的不同参与主体设定相应的监管内容,例如,对于智能的研发者与控制者,设定相应治理底线,要求其不得主动识别操作者生物资源信息、不得推广含有人群歧视的内容等。再如,对人工智能的模型设计、训练与应用明确相应的准确率阈值,开展生成式人工智能市场产品的定期与不定期动态评估等。另外,监管者需要特别注意生成式人工智能对于人类知识传承体系与模式的改变,高度重视生成式人工智能对教育的深刻影响,积极介入生成式人工智能与教育的深度融合,确定生成式人工智能在教育领域利用的标准、机制和模式,以应对生成式人工智能可能造成的意识形态领域风险。

五、余论——以治理规则优势巩固扩大制度优势

党的二十大报告指出,要加快建设网络强国、数字中国。加快发展新一代人工智能是我们赢得全球科技竞争主动权的重要战略抓手,是推动我国科技跨越发展、产业优化升级、生产力整体跃升的重要战略资源。法律是保障人工智能可信向善、负责任发展的关键因素与主要手段,《数字中国建设整体布局规划》明确提出“建设公平规范的数字治理生态”的要求。在我国已经基本形成人工智能产业高地与理论高地的基础上,需要继续深化治理规则研究,运用法学理论研究成果,为发展负责任的生成式人工智能创造一流生态环境。[32]当ChatGPT 规模化应用以后,有关“ChatGPT 为什么没有诞生于中国”的讨论日益增多。法律无法直接发明生成式人工智能技术,但却可以为技术的发展奠定扎实的制度基础与合适的生长环境。[33]当前,各国均极为重视对于生成式人工智能相关规则的研究。2023 年4 月,欧盟提出了针对生成式人工智能的新的版权规则。2023 年5 月,美国国家科学基金会与其他联邦机构、高等教育机构以及相关者合作,宣布投资约1.4 亿美元建立七个新的国家级人工智能研究所,致力于将人工智能实践从主要由技术创新驱动的实践转变为由伦理、人权以及曾经被边缘化的群体的投入和反馈驱动的实践。

为确保下一代人工智能技术可以在中国得到最优的应用与发展,法学研究应当为技术迭代提升做好前瞻性准备。一是需要强化有组织科研与前沿基础研究,抢占生成式人工智能理论研究高地。特别是聚焦生成式人工智能技术、生成内容、主体责任、数据源和数据处理、隐私保护等领域,形成有价值、可利用、可转化的规模化研究成果。通过增加适应生成式人工智能发展的基础服务理论供给,加强人工智能伦理道德、法制保障和社会问题研究,全维度建立保障生成式人工智能健康发展的制度规范和伦理道德框架。二是需要以前瞻法治引领推动关键核心技术自主创新实现突破。除了正视当前国内在数字技术能力上的不足,还应坚持系统观念、整体思路,通过规则创新优化调动要素优势。[34]同时应加大对人工智能新技术、新业态和新模式的知识产权保护力度。[35]加强符合生成式人工智能发展实际的标准制定及测试认证,支持企业等多主体参与生成式人工智能综合标准、基础共性技术标准制定,更好服务建设以实体经济为支撑的现代化产业体系。三是法学研究需要增强紧迫感与使命感,加快生成式人工智能领域的创新立法步伐以解决实践问题,努力健全数字治理需要的必备法律制度。[36]将法律规制融入生成式人工智能发展全过程,在重组全球要素资源、重塑全球经济结构、改变全球竞争格局中,形成人工智能法治的“中国方案”,贡献新一代人工智能发展的学术智识。

另外值得深入思考的是,生成式人工智能的诞生并不是人类历史上第一次实现生产工具质的提升。数千年来的人类历史产生过浩瀚的颠覆性技术,有些直接导致了国家与区域文明的灭亡,但古老的中华文明未曾中断,我国古代法学家、政治家在面对新事物时所遵循的价值态度与具体做法需要深入研究,并提炼思想为现今治理所用。此观点并非臆想,美国安德鲁·马歇尔基金会提出,人工智能是中美两国未来在军事及其他方面竞争的主要领域,其资助的研究报告从美国、苏联两国的传统文化对待新技术的差异推导了美国取得冷战胜利的思维逻辑,而受传统观念影响,中国与美国在面对新生事物上的差异极有可能体现在竞争优势与战略方法上。[37]习近平指出,“在五千多年中华文明深厚基础上开辟和发展中国特色社会主义,把马克思主义基本原理同中国具体实际、同中华优秀传统文化相结合是必由之路”。[38]面对生成式人工智能引发的新问题与挑战,探究传统法治文化在新技术时代的现实治理意义,也是可以研究并一定能够取得重大实践成果的新型法哲学方法论。

(特别感谢李伯阳、任梦远对部分观点的贡献。)

猜你喜欢
人工智能算法
我校新增“人工智能”本科专业
基于MapReduce的改进Eclat算法
Travellng thg World Full—time for Rree
2019:人工智能
进位加法的两种算法
人工智能与就业
算法初步两点追踪
数读人工智能
基于增强随机搜索的OECI-ELM算法
下一幕,人工智能!