学术出版行业生成式人工智能作品相关责任与风险分析研究综述

2023-02-06 22:24杨亚红余党会
中国科技期刊研究 2023年12期
关键词:出版单位开发者伦理

■杨亚红 孙 岩 余党会

海军军医大学教研保障中心出版社《海军军医大学学报》编辑部,上海市杨浦区翔殷路800号 200433

2023年,以ChatGPT为代表的人工智能(Artificial Intelligence,AI)生成式预训练Transformer(Generative Pre-trained Transformer,GPT)模型凭借其突破性的文本生成方式和强大的语言表达能力,在学术出版行业中引起热议。已有许多研究人员使用GPT模型处理数据、撰写论文、修改论文,如Adesso[1]使用ChatGPT撰写了一篇论文,文中指出GPT可以利用内置的数学和统计能力来模拟和分析物理定律和现象,甚至为了测试其自身的语言能力,还作了一首关于自身的打油诗。此外,研究者使用GPT-3生成了可直接使用的学术论文,认为GPT-3是一个很有潜力的学术写作工具[2]。

在当前的出版模式下,未经审查即出版作品的情况越来越普遍,提示出版界没有足够的能力处理正在产生的数量庞大的科学作品,AI或许能够通过寻找审稿人、创建自动评价、自动分析已出版作品等方式,提高出版作品的质量和效率,并快速识别出没有履行责任的出版组织[3]。近年来,出版单位逐渐借助GPT模型进行选题分析、出版决策、同行评审、抄袭与伪造数据等学术不端行为的甄别及文字编辑等[3-4]。

文献[2]指出,GPT-3可能无法产生新想法或观点,建议研究人员使用GPT模型时密切监测写作过程,以减轻潜在的负面后果。生成式AI模型输出作品(以下简称“AI作品”)还可能对科学研究的透明度和可信度等造成危害,随之而来的侵权问题、伦理道德问题、社会风险等日益严重[5-7]。

2023年,我国通过的《生成式人工智能服务管理暂行办法》提出,采取有效措施鼓励生成式AI创新发展,对生成式AI服务实行包容审慎和分类分级监管[8]。因此,未来AI技术在学术论文创作中的应用会越来越多,而学术出版单位将如何应对以及如何履行社会责任值得思考。本研究通过调研国内外AI作品相关文献资料,讨论AI作品有关责任主体(包括作者、AI模型开发者、出版单位等)面临的法律、伦理道德与社会责任和风险问题,并初步提出应对与管理策略,以促进生成式AI在学术出版行业的合理应用和健康发展。

1 法律问题

1.1 著作权归属问题

不少公开发表的AI作品如实验小说1TheRoad[9],以及科研论文预印本“Can GPT-3 write an academic paper on itself, with minimal human input?”“Open artificial intelligence platforms in nursing education: Tools for academic progress or abuse?”等[2,10]将AI或GPT列为作者。尽管部分科研论文在正式发表时均将GPT从作者列表中删除,但是仍引起了人们对AI作品著作权归属的思考。

AI作品是计算机大型语言模型通过在大量数据中“学习”和“训练”后再生产和再创作的“组合”作品,其体现的观点来源于他人已经生产或创作形成的文献资料,并无“独创性”。全世界多个国家的著作权法均规定,享有著作权的作品须有独创性[11-13]。作者作为著作权人之一,是完成作品创作且能够为其作品承担直接责任的个体或组织[14]。《中华人民共和国著作权法》规定著作权属于作者,而作者仅有以下2种情况:(1)创作作品的自然人;(2)创作作品并承担责任的法人或者非法人组织。此外,AI具有明显的工具属性,无法成为真正的法律主体、承担相应的权利和义务[15]。因此,从法律角度,AI不能成为著作权人。

国际高水平学术期刊Science和Nature均不赞同将AI列为作者:Science主编Thorp[16]认为,科研成果发表过程中AI模型或许发挥了重要作用,但它仅是研究者为提出假设、设计实验和解释结果而使用的工具,最终的研究发现必须来自并通过人类头脑的奇妙表达;Nature主编Magdalena Skipper也认为,作者身份决定了其对作品的责任,很显然AI模型并不适合成为作者[17]。因此,从学术研究角度,AI也不能被列为作者。

既然AI不能成为作者,那么在作品创作中还能使用GPT等AI模型吗?若使用了AI,又该如何在论文中定义AI的贡献?针对这一问题,Science特别强调,不能在论文中使用由GPT等AI模型生成的文本,包括各类插图,如果违反将构成科研学术不端[16]。然而,2023年2月3日,荷兰阿姆斯特丹大学的多名教授在Nature联名发表文章,认为在学术出版中禁止GPT等AI模型是行不通的,当前重要的是抓住机遇和管理风险[18]。Nature也明确规定,论文创作时作者可以借助GPT等大型语言模型,但是关于论文是如何形成的以及使用了什么工具均需要透明;同时规定,如果在论文创作过程中使用过GPT等大型语言模型,作者需要在“方法”或“致谢”等部分说明具体的使用情况[17,19]。出版Cell和TheLancet等国际高水平学术期刊的出版商Elsevier认同Nature的做法,但同时提出AI模型生成的文本不能代替原本应该由作者完成的关键工作,如解释数据和获得科学结论[20]。

综上所述,在AI作品中,无人监督的GPT等AI模型仅决定了研究内容的大数据倾向,真正的研究成果与观点应当完全由人类的思维决定[3]。对于AI作品,AI不能成为著作权人,在论文发表时AI也不能被列为作者。在论文创作过程中是否允许使用AI模型,目前多数出版单位的观点是支持使用AI模型。

1.2 侵权问题

GPT生成的文本和插图是基于互联网上海量数据产生的,不是由程序员指定的,GPT行为方式的确切原因及生产机制对其开发者来说都是未知的,何况是GPT的使用者,这导致其输出结果具有不确定性和不完整性[21-22]。正是如此,借助GPT等AI模型创作的作品侵权风险很高,不仅侵犯他人的著作权,还可能侵犯他人的人格权,甚至造成市场垄断或不正当竞争行为。首先,GPT可能会直接复制现有的学术论文或其他相关材料,这种行为违反了著作权法,侵犯了原创作者的著作权[23]。其次,GPT可能会以某研究者的名义生成论文,生成的论文可能包含了该研究者的观点和研究成果,而该研究者实际并未参与其中,这种情况会导致虚假研究成果,给该研究者的名誉带来伤害,从而侵犯其姓名权、名誉权、荣誉权等人格权,甚至将该研究者的个人简介等信息写入论文,侵犯其隐私权[24];相关作品可能会在市场中流通,导致原创作品的市场价值下降,对原创作者和出版单位著作权中的经济权利造成不良影响。此外,GPT还可能通过合成、改写、重组等方式将多篇论文的内容组合在一起,导致多人或多个组织的权益同时受到侵犯。最后,GPT如果通过研究分析其他出版单位的选题或价格策略等信息,并披露、利用这些信息,可能会导致市场垄断和不正当竞争行为,影响出版市场的公平竞争和消费者权益[25]。

AI作品发表时,著作权人及相关的出版单位可能存在侵权问题。对于侵权问题,ChatGPT的开发者OpenAI特别声明,其不为任何使用ChatGPT可能发生的知识产权侵权行为承担法律责任[26]。AI语言模型文心一言也在用户协议中声明,用户在使用文心一言时若侵犯他人的知识产权、肖像权、名誉权等,由用户承担侵权风险和责任。出版单位是将AI作品推向市场的中介,出版的AI作品如果存在侵权行为,若事先未明确合同责任范围,出版单位需要承担相应的法律责任。因此,对于GPT等AI模型生成的作品,著作权人和出版单位都应坚持人工验证与内容审查,以避免因使用AI模型而造成的潜在侵权行为。

1.3 法律问题防范策略

如果AI作品侵犯了他人的著作权、人格权等权益,首先需要确定侵权责任的归属。这可能涉及AI模型的开发者、训练数据的提供者、AI模型的使用者等。

1.3.1 加强开发者监管

GPT等生成式AI模型的相关法律法规还不完善,我国《生成式人工智能服务管理暂行办法》[8]及欧盟《人工智能责任指令》(AILiabilityDirective)[27]、《人工智能法案》(TheAIAct)[28]都没有对AI模型在训练期间是否使用个人数据和信息作出规定,因此在未来一段时期内,AI作品引发的法律问题将是相关著作权主体面临的挑战。为了降低潜在的侵权风险,生成式AI模型的开发者需要完善技术监管机制,制定相关的技术服务标准,加强GPT生成文本和插图的来源追溯与验证,以降低盗用他人原创作品的可能性;应当建立有效的投诉处理机制,若出现使用者侵权投诉事件,必须及时响应并进行调查和核实,然后根据情况采取合理的补救措施,如联系训练数据原创作者获取授权或删除、修改相关内容。除开发者自我监管外,《生成式人工智能服务管理暂行办法》还规定,国家互联网信息办公室、国家发展和改革委员会、教育部、科学技术部、工业和信息化部、公安部、国家广播电视总局等部门应当依据各自职责依法加强对生成式AI服务的监督管理,以促进生成式AI健康发展和规范应用,维护国家安全和社会公共利益,保护公民、法人和其他组织的合法权益[8]。

1.3.2 加强训练数据授权管理

作为一种新兴技术,生成式AI引发了多起严重的法律与安全问题,例如意大利曾发布消息,ChatGPT开发者OpenAI违反了意大利相关的隐私规则和数据保护法,导致用户数据丢失且未向用户告知[29]。意大利、德国、法国、西班牙等国家的数据保护监管机构对AI模型如ChatGPT的使用表达担忧或发起调查。生成式AI模型确实为人们的生活带来了方便,但也带来了真正的风险,为了建立日益安全的AI系统,训练数据的授权管理必须严格。当前,生产式AI模型的训练数据主要来源于公共语料库、社交媒体、学科数据库等平台,这些数据提供平台应建立更严格的数据管理机制,采用必要的措施以确保只有经过授权的人员才能使用数据;AI模型开发者在获取训练数据时,也应当审查相关数据的授权情况,明确是否为限制访问或未公开的资料,还必须明确是否为保密资料,确保训练数据合法、合规及避免泄密。数据提供者还应制定敏感个人信息的使用原则,如使用这些信息必须进行匿名化和去标识化处理等;AI模型开发者也要完善产业链中敏感个人信息的保护要求,规范AI模型合法使用这些信息。

1.3.3 用户风险防范

用户应提高自身的安全意识,谨慎使用GPT等AI模型。作者创作时若使用GPT,须始终坚持人工验证,对重要的观点进行溯源并引用原创资料,对插图进行仔细核实并确保获得原创作者授权。对于AI作品,出版单位需要设置规范且合理的人工验证步骤,要求作者明确哪些内容使用了GPT和如何使用,甚至要求作者提供插图的产生过程及相关授权说明性文件[18]。出版单位收到AI作品时,需仔细核查论文中所有引用材料、案例、文献的来源,以保证科研信息透明、可信和出版单位的合法权益。为充分保护用户权益,各国立法部门正逐步完善AI作品相关法律法规,我国《生成式人工智能服务管理暂行办法》[8]和欧盟《人工智能法案》[28]都对AI模型开发者的训练数据来源、规模、算法机制及透明度和风险评估等提出了要求,OpenAI、谷歌和微软等AI模型的开发商需要声明是否使用受版权保护的材料来训练模型。随着法律法规的完善,用户对AI模型生成的文本进行研究观点、原创资料溯源将越来越容易。

2 伦理责任与风险

2.1 伦理失范问题

AI作品可能触及一系列伦理失范问题,如伦理权利问题、伦理困境、伦理冲突、伦理风险等。论文评审工具StatReviewer的开发者之一deVoss[3]认为,GPT等AI模型自动化创作的过程充满了伦理困境,GPT生成的作品会传递什么价值观需要人类保持警惕。首先,AI是否可以拥有与自然人同等的伦理权利和地位?我国学者蓝江[30]认为:就目前来看答案是否定的,由于波拉尼悖论的限制,AI无法真正做到实践伦理学的完备层次;将伦理规范和道德律令植入到AI模型中,也会遭遇到例外状态下的波拉尼悖论。JournalofHealthcareManagement编辑Ford[31]尝试使用GPT-3模型回答编辑针对投稿论文提出的问题,他对GPT-3考虑人类状况的能力评分较低(F级)。这些结果表明,目前AI无法达到与自然人相等的伦理地位。其次,借助AI模型也可能产生含有虚假研究成果、误导性信息等不良信息的作品,其产生的有害结果责任归咎于谁?是AI模型的开发者、数据提供者,还是用户?这是一个复杂的伦理问题,相信随着AI相关伦理准则的完善,其答案将逐步明确。

GPT等生成式AI模型的创作机制可能导致伦理冲突。首先,生成式AI模型在创作时需要对大量数据进行训练和改进,这涉及个人隐私与数据的保护问题,而用户也担心他们的个人信息会被滥用,如用于广告或政治目的。其次,GPT等AI模型因受到训练数据提供者价值观和偏见的影响,生成的作品可能带有相应的偏见和歧视,甚至会放大性别歧视和种族主义等社会文化偏见[19]。如果AI模型生成的带有偏见和不良信息的文本被读者传播,将会对社会安全、经济、文化、政治等产生严重影响[32]。

AI作品导致的伦理风险也不容忽视。AI作品是AI模型通过学习和模仿已有资料生成的新作品,其信息来源于他人的原创作品,这也说明AI作品缺乏真正的创造性和原创性,其可能影响学术出版行业的创造力和创新性。人类的创造力是社会进步的重要动力,AI模型的使用可能会对人类的创造力产生不良影响。研究者如果过分依赖GPT等AI模型,将可能导致自身的创造力衰退和创新能力减弱。北京大学新闻与传播学院胡泳教授认为,AI原本应该极大地帮助人类提升创造力,但非常吊诡的是,由于可以依赖生成AI,人类的创造力或许会进入一个低谷[33]。有鉴于此,人们应当主动利用生成式AI帮助其发挥潜力,而不是被动地使用AI作品,因为生成式AI不能替代人类的智慧和洞察力,GPT等AI模型的研发始终依赖于人类开发者输入的训练数据。

2.2 伦理评估框架

目前,生成式AI在论文创作与出版过程中的应用越来越多,从而引发一系列伦理道德问题。为了解决AI可能导致的伦理道德问题,需要建立相应的伦理评估框架。

2.2.1 坚持人工验证

Else[34]研究表明,ChatGPT生成的文章绕过了传统的剽窃检测方法。因此,对于AI作品,作者需要对内容进行真实性和可信度验证,并保存相关验证资料,投稿时提交给出版单位审查。出版单位必须坚持只向公众传播经过人工验证的AI作品,并制定实施在学术论文中使用AI的严格审查制度[35]。

2.2.2 完善AI伦理道德规范

2021年9月25日,我国发布了《新一代人工智能伦理规范》,该规范充分考虑了社会各界有关隐私、偏见、歧视、公平等伦理关切,出版单位与作者使用AI时应遵循相关伦理指引[36]。出版单位、AI模型开发者、政府部门等机构应共同构建GPT等AI模型参与创作的作品的学术诚信与出版伦理规范,从标准、政策、法律法规等维度完善AI学术伦理的约束、问责和反馈机制,并明确禁止使用AI模型生成含有激进、极端及歧视性内容的作品[37]。

2.2.3 注重创造力培养,鼓励原创性输出

通过教育和培训等方式,促使科研人员理性认识和正确使用GPT等AI模型,避免科研人员过分依赖AI。通过采取奖励机制或创作支持等措施来激励原创性输出,鼓励科研人员在学术论文创作中发挥其自身的创造力和创新能力。

3 社会问题与责任

3.1 社会接受度

AI作品应该负有传播健康信息和价值观的社会责任。生成式AI作品在出版领域的社会接受度是一个相对较新的问题,不同读者和社会群体的态度各异,国际高水平学术期刊Nature和Science即对AI作品保持不同态度[16-17]。部分读者对AI作品持开放态度,认为这是一种新鲜有趣的阅读体验。也有读者考虑到AI模型会产出含有“以事实形式呈现错误信息”[38]的作品,这可能会对学术界的科研诚信造成负面影响,因此对AI作品保持拒绝的态度,一些组织机构已经禁止使用生成式AI工具ChatGPT撰写论文[39]。总之,公众对AI作品的接受度受很多因素影响,但随着时间的推移和技术的发展,公众对于这种新型创作方式的接受度可能会提高,关键在于AI作品能否充分考虑伦理、法律和社会价值观,以及满足读者的期望与需求。

3.2 社会问题及防范

尽管AI作品为作品创作和出版模式带来许多创新,但其存在的社会问题必须予以重视。GPT等AI模型具有的技术性和工具性优势,有可能被有不良动机的人利用,他们利用生成式AI产生虚假信息、文字和图像,制造虚假新闻、谣言、虚假广告等,进行欺诈、造假等不正当行为[38],这将对社会公平造成负面影响。如果生成式AI系统被黑客入侵,获取敏感数据或篡改模型的行为,或将涉密内容产出,这会给社会和出版单位、研究机构造成威胁,产生严重的负面社会影响[25]。因此,在使用GPT等生成式AI模型的过程中,需要保持警惕和理性。

AI模型生成的虚假信息和偏好性内容可能会对科学研究权威性和社会公信力造成影响。GPT等AI模型只能作为辅助工具在科学研究中发挥作用,所以科研部门需加强AI模型的应用监督,确保科学研究观点的原创性与真实性。出版单位应采用更严格的审稿流程,对学术论文进行仔细审查,以保护科学研究的权威性与可靠性。AI模型可以提供定制化的服务体验,其生成的偏好性内容尽管可以满足研究者的需求,但其社会信任度仍受质疑,相关职能部门应当积极开展公众教育和宣传,向广大读者普及AI模型的局限性,呼吁公众理性认识AI创作。合理使用生成式AI、促使其健康发展或将产生显著的社会效益,如它可以帮助研究者更快速地获取文献资料、解决问题、提高科研工作效率等,还可以为出版单位、读者等提供更加智能化、高效化的服务平台,从而推动社会的进步和发展。

4 出版单位将以新的模式履行社会责任

未来人与机器之间的关系更加密切,出版单位在使用AI生成的作品时需承担相应的社会责任。出版单位将通过AI技术与人类实践相结合的出版模式发挥其社会职能作用:(1)出版单位制定AI作品相关的审查标准和流程,以避免不当、违法或误导性信息的传播;(2)出版单位向读者指出其出版作品中AI生成的内容,使读者在阅读过程中对内容有更加客观的认识;(3)出版单位借助AI技术了解读者喜好与反馈和市场需求等信息,辅助选题策划,实现个性化出版,提升读者的满意度[4];(4)编辑人员借助AI技术进行学术论文的编辑和校对,如纠正语法和拼写错误等,提高编辑的工作质量和效率;(5)出版单位通过AI技术使数字化出版平台更加智能化,实现出版内容的即时更新与定制化传递,使科研成果的传播更加迅速与精准;(6)通过虚拟现实、增强现实技术设立虚拟编辑角色,在出版流程中个性化指导作者、审稿人完成投审稿操作,并创造沉浸式阅读环境或为图书智能添加音频、视频等多媒体元素,使读者获取更丰富的阅读体验[40]。

5 结论与展望

AI作品的出现必将引导科研创作和出版产业发生变革,这涉及一系列法律法规、伦理准则问题。无论是法律角度还是学术研究角度,AI均不能成为AI作品的作者。多数出版单位认为可以在学术论文创作过程中使用AI,但必须在正文适当部分说明是否使用以及如何使用AI。AI作品由于其自动化的生成过程,存在严重的著作权、人格权等侵权风险,出现伦理困境、伦理冲突等伦理道德失范行为的可能性也较高。为了避免这些法律与伦理问题,未来GPT等AI模型的开发者必须建立更完善的技术监管机制,相关部门应当依法加强对生成式AI服务的监督管理,出版单位与作者也应重视AI作品的人工验证与内容审查,从而共同促进生成式AI的健康发展和规范应用,保护用户和相关法人的合法权益。

不同读者和社会群体对AI作品的态度各异,AI作品的社会接受度受到读者阅读体验与需求、伦理、社会价值观等因素影响。AI作品可能引发社会不公、不良社会影响等社会问题,也可能对学术权威性和社会公信力造成威胁。这需要我们在使用GPT等生成式AI模型时保持警惕和理性,只有合理使用生成式AI才可能对社会产生益处。出版单位也应当承担相应的社会责任,未来或通过AI技术与人类实践相结合的出版模式发挥其社会职能作用。

需要特别强调的是,人类的创造力是社会发展、技术进步的基础。无论AI技术发展到何种程度,科学研究的原创性不容忽视,而且人类也始终是AI产品的责任主体。出版行业应始终坚持人工验证与内容审查,鼓励原创性输出,维持科研秩序,促进科研成果优质出版。

猜你喜欢
出版单位开发者伦理
《心之死》的趣味与伦理焦虑
山西医学期刊社荣获我国新闻出版领域最高奖
——第五届中国出版政府奖先进出版单位奖
护生眼中的伦理修养
刘慈欣科幻作品年表
中国最美的书
16%游戏开发者看好VR
iOS开发者调查
iOS开发者调查
栝楼产业开发者谢献忠
医改莫忘构建伦理新机制