人工智能和社会科学研究

2024-04-24 06:13刘刚李响李沁倩刘捷
理论与现代化 2024年2期
关键词:社会科学人工智能

刘刚 李响 李沁倩 刘捷

摘要:人工智能属于通用目的技术,不仅能够引发产业变革,而且能够催生新科学研究范式。随着以生成式人工智能为代表的通用人工智能的发展,人工智能的应用成为社会科学研究范式创新的前沿。数据的高维度、编程语言的强结构性和长程关联性、以参数形式表征的隐式知识库和预训练的结构重整带来新知识和模式发现,为社会科学研究创造出新的发展空间。同时,数据隐私、价值观和研究结论的“黑箱”化带来了人工智能在社会科学应用中的新挑战。如何把大模型的知识发现和基于研究者实践经验的探索式研究相结合,形成人机共生演进的知识生产方式,是社会科学研究中人工智能应用的方向。

关键词:人工智能;大模型;社会科学;对齐问题;隐私安全

中图分类号:TP18     文献标识码:A     文章编号:1003-1502(2024)02-0080-12

基金项目:2023年中国工程院战略研究与咨询项目“场景创新驱动的人工智能技术升级和产业发展”,项目编号:2023-HY-11;教育部哲学社会科学实验室专项基金研究项目,项目编号:H0122702。

作者简介:刘   刚(1965—),男,南开大学经济学院教授、博士生导师。

李   响(1996—),男,南开大学经济研究所博士研究生。

李沁倩(1998—),女,南开大学经济研究所博士研究生。

刘   捷(1992—),女,中国新一代人工智能发展战略研究院研究员。

一、引言

近年来,生成式人工智能的兴起和发展,使人们看到了通用人工智能(AGI,Artificial General Intelligence)的火花[1]。随着多模态大模型的开发和轻量化部署技术的发展,生成式人工智能成为人工智能技术创新和商业化落地的前沿。与传统的机器学习相比,生成式人工智能大模型具有强大的学习和推理能力,不仅能够提高人们获取、处理信息和数据的能力,而且能够广泛运用于包括智能制造、智慧城市、智能医疗和智慧教育在内的经济社会领域,加速了人工智能和实体经济深度融合的进程。

科学技术是第一生产力,创新是第一动力。人工智能在科学研究和技术服务领域的应用,为科技创新注入了新的活力。中国新一代人工智能发展战略研究院发布的《中国新一代人工智能科技产业发展 2023报告》显示,人工智能在三次产业中的应用最广泛的是第三产业,其中科学研究和技术服务业在第三产业人工智能应用细分行业中排名第二。随着生成式人工智能的发展,人工智能和科学(AI for Science)成为人工智能创新应用的关键领域。例如,在生命科学领域,人工智能参与分子生物学研究的范围覆盖从基因到表型的关键过程与机制研究[2];在材料科学领域,通过对已知化合物和材料数据库的学习,人工智能被用于预测新材料特征和探索聚合物材料结构,成为获得材料成分——结构——工艺——性能关系的关键工具[2]。除此之外,人工智能在包括粒子物理学、核物理学、凝聚态物理学、宇宙物理学、地球演化史、气候变化评估、灾害事件预测、自然资源计算和环境治理等在内的物理科学和地球科学领域的科学研究中,发挥着日益重要的作用[3]。

人工智能不仅适用于自然科学研究,而且同样适用于社会科学研究。人工智能的应用能够提高社会科学研究工作的效率。尤其是借助人工智能强大的搜索、分类和信息处理能力,可为研究者提供更加可靠的数据。同时,依托文本加工和生成能力,人工智能能够减少知识生产过程中的重复性工作。更加重要的是,大模型的应用能够加速社会科学研究中新知识的发现和新模式的识别。在人工智能的帮助下,社会科学研究者能够快速掌握不同学科的海量知识,有利于突破研究领域壁垒,推动学科交叉研究和新知识的发现。同时,通过知识生产过程中的相互反馈和验证,人与机器之间的协同演进能够创造新的知识生产方式。

与自然科学研究不同,无论研究数据、方法还是研究过程,社会科学研究都深受隐藏其中的社会价值观影响。人工智能在社会科学研究领域的应用可能面临严重的社会伦理风险。例如,训练数据中存在的固有偏见和歧视会影响模型的内容生成。同时,在研究者价值倾向诱导下,人工智能可能生成不符合人类社会伦理道德规范的内容等等。随着生成式人工智能的快速发展和更新迭代,如何把大模型的知识发现和基于实践经验的人类研究者的独立研究相结合,形成人机共生演化的社会科学研究范式,是人工智能在社会科学研究中应用的方向。

人工智能尤其是生成式人工智能在社会科学研究领域的应用刚刚开始。本文首先在文献梳理的基础上介绍生成式人工智能知识学习、输出和创造的基本原理,进而探讨人工智能在社会科学研究中的应用前景及其可能存在的问题与挑战。

二、人工智能的知识生成原理

与1.0阶段人工智能不同,2.0阶段的人工智能是基于网络空间、物理空间和社会空间互动的数据智能。在数据智能发展中,以ChatGPT-4为代表的大语言模型已展现出令人惊叹的文本生成能力,但其背后的运行原理和逻辑却并不复杂。大语言模型只是通过新的神经网络算法根据用户的输入文本预测接下来的词元(token),让输出文本看起来完整且通顺。算法模型既不关心输入内容,也无意解答人们提出的问题。

(一) Transformer——简单的架构

循环神经网络(RNN)和卷積神经网络(CNN)在处理序列数据和自然语言任务中取得了显著的成效。它通常沿输入和输出序列符号的位置进行计算和预测,顺序的固化阻碍了样例内训练的并行化,限制了样例之间的批处理,难以捕捉到长距离依存关系。2017年,谷歌大脑团队和多伦多大学提出了一种新的简单神经网络架构——Transformer,允许模型在处理每个元素时,能够关注序列中的其他元素,进而捕捉全局性上下文信息,展现出并行计算方面的巨大潜能[4]。自注意力机制和位置编码与解码是新神经网络架构的两大创新。

1.自注意力机制

Transformer架构摒弃了循环递归和卷积神经网络算法,完全依赖自注意力机制绘制输入和输出之间的全局依存关系,无须考虑它们在输入或输出序列中的距离[5]。Transformer在处理较长文本输入时,不仅注意关键词本身及其周边词汇,还会注意输入序列里其他单词与关键词之间的相关关系并给予每个词不一样的注意力权重①。因此,Transformer能夠理解当前词和其他词之间的相关性强度,能够关注到输入序列中真正重要的部分。

2.位置编码与解码

除了自注意力机制,Transformer的另一项关键创新是位置编码与解码。在自然语言处理中,即使输入序列中所包含文字相同,顺序上的差异也可能导致意思大相径庭,因此在对文本序列建模时,单词的顺序很重要[6]。Transformer在处理输入序列时,除对词汇进行嵌入转换成向量外,还会对词在句中位置进行编码并添加到输入序列的向量表示。词汇向量组成维度数以亿计的向量空间,经过多层神经网络处理,模型可以更好地理解词义和不同词之间的顺序关系②。

位置编码与解码的另一个作用是使模型具有并行计算能力。过去RNN对输入序列按顺序依次处理,串行结构造成训练速度瓶颈,无法同时学习到所有信息。借助位置编码,Transformer可以同时处理输入序列里的所有词元,而不需要像RNN那样依次处理,大大提高了训练速度,为训练出具有“大参数”和“大数据”特征的生成式人工智能模型奠定了基础。

自注意力和位置编码机制使得Transfomer能够将较长文本输入转换成高维度数据集来理解词元本身与词元之间的关系。两大创新使大模型表现出数据的高维度、编程语言的强结构性和长程关联性特征。

(二) Pre-trained——从简单到复杂

自注意力机制和位置编码与解码技术只是人工智能内容生成能力的基础,复杂预训练过程是模型结构从简单到复杂,进而具有超强内容生成能力的真正原因。

1.学习文本——无监督学习

生成式人工智能亮点之一是可以理解人类的自然语言。人类自然语言非常复杂,在许多情况下,一种意思可用多种形式表达,即使同一个表达方式在不同语境中也可能存在不同含义。为使机器理解人类语言,需要通过预训练让模型看到尽可能多和丰富的语言样例,进而掌握语言规律。

2.模板规范——监督学习

模型通过对大量语料的学习可以理解各种词语搭配和语法规则,能够学会自然语言和编程语言,甚至是不同语言之间的关系。但是完全基于自发学习过程的能力增强却可能导致大模型的回答形式和内容不受约束。

与人类思维的成熟依赖长期学习类似,大模型同样需要用优质的对话范例和对话模板不断修正在自然学习过程中形成的不良“习惯”。例如,当被要求回答涉及种族和性别歧视方面的内容时,通过模板规范大模型应当拒绝回答或者给出正确的答案。

3.创意引导——强化学习

经过上述两个阶段的训练之后,结构“简单”的模型能力因参数持续增加开始变得强大。模板式规范训练可能导致机器回答问题时过于模板化,缺乏创造力。在这种情况下,需要在创意引导阶段通过强化学习使模型提供某些超越模板且符合人类对话模式和价值取向的创造性回答。强化学习强调不通过现有模板限制模型内容生成,允许模型自由回答,依据回答效果给予奖励或惩罚,从而反馈和调整模型的回答能力。

通过预训练阶段的学习文本、模板规范和创意引导阶段,大模型理解自然语言表达和内容生成的能力得以实现,参数得以确定,能够实现优质且稳定的输出[7]。以参数形式存在的隐式知识库,预训练的结构重整为新知识和新模式的发现及社会科学研究发展新空间提供可能。

(三) Generative——创意的输出

Generative是指人工智能大模型能够创造出原本不存在的全新内容,从而赋予人工智能一定的创造性。如Adobe推出的通过文字描述就能自动生成和修图的AI模型集Firefly,Runway发布的视频生成模型Gen-2,微软推出的能在Word、Excel、PPT之间随意切换生成的Microsoft 365 Copilot等等。

1.大模型的涌现能力

所谓“涌现”,是指当一个系统的复杂性达到一定程度时会产生超越系统元素简单叠加的整体特征。例如,大量无生命的原子组合可以产生活细胞;大量功能单一的免疫细胞组合可以形成智能的免疫系统;大量结构简单的神经元组合可以形成能够产生意识的人脑。大模型之所以具备类脑的强大推理和知识创造能力,可能的原因之一是它是一个参数规模足够大的复杂神经网络系统。

表1列出了ChatGPT参数规模的变化情况。GPT-3之前的GPT系列大模型尚未展现出足够强大的学习和推理能力。在模型参数足够大和训练数据足够多的情况下,大模型的涌现能力开始出现。例如,能够理解人类的情感变化。谷歌的研究表明,只有当模型参数超过大约1000亿个时,创造能力才会出现。但是大模型如何完成推理过程及其机制,目前尚无法做出科学的解释。

2.语境内学习和思维链

在超大模型使用中,除了涌现能力,研究者还发现大模型的另外两种重要能力:

第一,思维链(CoT)。当生成式人工智能模型无法答对一个综合问题时,如果分步提问,它可以通过一步步连续推理使最终答对的可能性大幅提升,即“思维链”能力[8]。“思维链”能力存在的可能性解释是,模型通过对编程代码的学习和理解产生了链式推理能力。

第二,语境内学习(IcL)。生成式人工智能模型掌握了如何通过例子进行学习的能力。例如,通过学习数个英文转换成中文的例子,大模型能够理解“翻译”这一指令的具体含义。这种自我更新进化的能力被称为“语境内学习”[9]。

正是因为涌现、语境内学习和思维链3种能力的叠加,生成式人工智能模型能够表现出惊人的推理和编程能力。随着算力提升和大模型复杂度的进一步增加,可以预期人工智能将具有更加强大的创造性,从而助力科学研究的发展。

三、人工智能在社会科学中的应用

每一次重大科技创新都会带来科学研究范式的变革。自1956年达特茅斯会议提出人工智能概念以来,把人工智能应用于科学研究一直是学术界努力的方向。早在2007年,图灵奖得主吉姆·格雷(Jim Gray)发表了题为“第四范式:数据密集型科学发现”(The Fourth Paradigm: Data-Intensive Scientific Discovery)的演讲。在他看来,科学研究的范式分为4类:实验范式、理论范式、计算范式和数据密集型范式。其中,第四范式是指数据密集型范式。与前三种研究范式不同,数据密集型研究范式从海量数据计算中得出未知的理论。

生成式人工智能为数据密集型研究范式的发展奠定了基础。一方面,人工智能大模型不仅可以把研究人员从烦琐的计算、模拟和测试活动中解放出来,而且能够化解因数据维度增加带来的维数计算的灾难;另一方面,通过密集数据的计算能够发展新的理论和识别出新的研究问题。尤其是生成式人工智能可以帮助研究者学习和掌握不同学科的知识,能够从整体视角探索新的问题解决方案。

首先,以大模型为代表的人工智能本身正在成为社会科学研究的重要对象。大模型应用带来的社会影响越来越显著,对生成式人工智能本身的研究和评估变得越来越重要。作为社会科学新的研究对象,识别和研究大模型的能力、行为、决策、推理机制和伦理道德的“机器心理学”“机器行为学”和“机器伦理学”等应运而生[10]。同时,可交互大模型模糊了虚拟和现实世界的边界,导致网络空间、物理空间和社会空间的交叉融合,新的社会形态催生新的社会科学研究内容和方法。例如,以研究人工智能对社会影响的“智能社会科学”正在兴起为一门新的学科。

其次,人工智能大模型正在改变数据的收集和处理方式[11]。人工智能大模型已被应用于调查数据、文本数据和关系数据的采集和分析,促进了包括社会学、经济学、政治学和新闻传播学在内的社会科学研究领域的数据密集型研究范式的出现。例如,人工智能大模型可以在研究者的引导和提示下,扮演人类研究者的角色与研究对象进行交流以获取研究数据;人工智能大模型能够模拟生成社会科学研究数据,这些数据经过校正后可以成为开展研究的有效数据集,成为社科研究的重要数据来源。在执行信息提取任务时,大模型可从互联网文本数据集中学习语言模式和风格,同时大模型还能进行关系提取、文本摘要、命名实体识别、事件提取等信息提取任务。

再次,人工智能大模型正在改变社会科学的研究方法。大模型在经济学中的应用使基于人工智能辅助的经济决策更加贴近传统经济学中的完全理性假设,弥补了人类经济行为的有限理性甚至预期偏差的后果[12]。同时,大模型支撑的数据密集型科学研究能够从高维数据中发现新理论。面对“大数据”及其研究方法带来的挑战,经济学需要方法论变革[13]。

最后,大模型的应用支撑新的理论体系的形成和发展。随着经济全球化,尤其是新技术革命的快速发展,科技驱动的经济社会发展日益呈现出高度复杂性和不确定性。大量的资讯、广泛的链接、海量数据和持续更新的知识使得传统经济理论中的市场和政府配置资源的理论框架难以解释新的经济发展规律。例如,具有广泛技术供给能力的新型平台正在成为人工智能时代新的资源配置方式。在大模型协助下,创建新的理论范式解释正在变革中的经济和社会,将成为社会科学研究新的发展方向。

四、人工智能大模型在社会科学研究应用中可能带来的挑战

人工智能具有技术和社会“双重”属性。人工智能在社会科学中的应用同样面临严峻的挑战。例如,数据质量、隐私安全、伦理道德和价值对齐等问题。厘清这些问题是应对挑战、保证人工智能在社会科学研究中发挥积极作用的必要条件。

人工智能大模型在社会科学研究应用中的首要问题是数据质量问题。首先,人工智能大模型内容生成的质量和能力取决于训练数据的质量[14-16]。以ChatGPT3为例,基础模型的参数达到1750亿,训练模型包含45TB的文本数据,接近8000亿个单词。质量较差的训练数据,例如不完整的数据、错误的或不平衡的数据、陈旧的数据等,能够限制系统的学习能力、增加系统错误率。其次,由于现有的人工智能大模型均属于基础模型或通用模型,应用到社会科学研究中时需要进一步专用化,而专用化的水平取决于相关领域与知识图谱关联的高质量数据。

人工智能大模型在社会科学研究领域应用面臨的另一突出挑战涉及隐私、安全和知识产权问题。研究者在使用大模型开展社会科学研究的过程中,通常依赖包含个人信息及其行为偏好的数据,数据采集、存储和使用过程往往涉及个人隐私[17]。同时,研究中使用的数据可能涉及个人和公共安全问题,当我们使用这些数据进行研究时,可能妨害个人隐私和公共安全。此外,社会科学研究者引用生成式人工智能的创作内容可能会引起版权纠纷[18-19]。例如,在使用ChatGPT从大型语料库识别模式生成论文[18]的过程中,可能涉及对别人知识成果的侵权。

与自然科学研究不同,社会科学研究存在立场和价值观念问题,而具有立场和社会价值观的数据同样是人工智能大模型的基础。大模型可以生成虚假内容[15]或者有害内容,缺乏辨识能力的使用者常常受到人工智能生成的错误内容潜移默化的影响[20]。因此,如何分辨大模型的生成内容,避免形成错误的认知是研究者需要关注的问题[21]。

人工智能大模型的内容生成存在“黑箱”问题。人工智能依赖复杂的算法,这些算法以人类不易审查或理解的方式内化数据,缺乏足够的透明度和可解释性[22]。其中的主要原因包括:一是算法结构的复杂性。例如,深度神经网络中数千个人工神经元以分散的方式对从数据中提取的多样特征进行编码,编码内容常常是人类无法理解的。二是数据的高维性。人工智能正在使用的深度学习、强化学习算法可能依赖于人类无法可视化的几何关系,如计算机使用向量机(SVM)来区分数据时可以理解超多维的空间及其分割“线”,而人脑却难以想象和理解人工智能构建的多维空间和分割“线”是什么样子,无法根据众多特征来区分数据和样本。考虑到并非所有SVM都使用直线来划分数据——即SVM使用的数学方法允许非线性(即曲线)划分,人与人工智能在空间理解上的鸿沟就更难跨越。

正是由于这种人类不能理解的抽象思维能力,人们在使用大模型处理数据时无法确定大模型是如何处理数据的。用户难以解释和理解大模型的输出结果[15],也很难发现输出中的潜在错误[23]。它使用的数据来自哪里?网络上的数据是真实的还是虚假的?它删除了哪些数据?它为什么如此理解文本?这种不透明和不可解释性就导致了大模型“黑箱”属性。

人工智能大模型的输出结果可能存在伦理道德问题。大模型依赖算法设计和数据训练,可能包含性别、种族或宗教等偏见。研究者在使用大模型时有可能重复这些偏见,从而影响结论的公正性。例如,由于训练数据的不平衡③导致ChatGPT绘制的英美人物图像更加细致、富有美感和形象正面,而绘制的亚洲人图像则相对粗糙和怪诞。语料信息的不均衡同样导致ChatGPT对英文语料理解程度强于中文语料[24]。在社会科学研究领域,由于训练数据的不均衡和算法设计的不完备,ChatGPT对不同国家或者不同法系的法律条文、不同地区不同民族的文化[15]、不同宗教不同派别、不同国家的哲学社会科学以及不同社会体制下的社会经济运行情况等有着不同的理解和认可程度。

此外,伦理歧视问题还来源于日益严重和扩展的“数字难民”或“数字鸿沟”问题[25]。一方面,大模型的训练和推理所需的算力成本非常高,好的大模型如ChatGPT-4和Claude-2收费标准较高;另一方面,大量围绕着大模型衍生出的相关应用需要复杂的操作才能部署到个人电脑上并需要配置高级的硬件才能使用,较高的技术门槛和设备条件阻碍了人们对大模型的应用。

人工智能大模型的发展带来的“价值对齐”问题受到前所未有的关注。在人工智能系统的目标与人类价值观存在偏差的条件下,大模型可能作出与人类价值观相违背的决策。随着人工智能能力的不断增强,如何评估或者监管人工智能系统,避免因“人工智能价值观与人类价值观未对齐”带来的风险正变得日益困难和急迫[26]。其中的主要原因包括:一是评估需要花费大量时间和专业知识。想要评估人工智能撰写的文章质量,需要聘请相关专业的审稿人;想要评估人工智能起草的法律文件,需要聘请律师和社会学家。随着人工智能系统执行更复杂的任务,这个问题会变得更加难以实现。二是人类评估者难以避免地产生错误反馈,将激化人工智能系统“价值未对齐”问题。ChatGPT的输出经常看上去专业且自信,因此人们可能会被“欺骗”去选择看上去正确但实际上错误的输出,如果直接使用错误或有偏见的人类反馈来“优化”人工智能系统,最终会使模型更具“欺骗性”。

令人高兴的事情是上述问题正逐步被研究者的最新成果解决。例如,用于解决数学和计算机科学问题的FunSearch模型,通过迭代程序和进化算法发展和保留最优秀的创意想法,在上限集问题和装箱问题上做出了新发现[27]。FunSearch将一个预训练语言模型与自动“评估器”结合,实现了既能提出创造性代码解决方案,又能过滤错误输出、防止大模型的幻觉风险。此外,FunSearch还揭示了解决方案的构建过程和代码,简洁可解释的程序有利于研究者更好地复现、验证和解释新发现过程,同时也为研究人员提供可操作的程序,有利于其产生新启发和新想法,进入“改进—发现”的良性循环。

尽管现有技术在规避和解决上述风险领域展现出了深厚潜力④,但在社会科学领域上述风险和挑战尚未得到很好解决,如何克服可能存在的风险和取得更大的成功需要多学科交叉和共同努力。例如,在社会科学研究过程中,研究者需要与大模型之间进行有效协作,持续推动一项社会问题的研究。同时,大模型在参与社会科学研究的过程中,得出的结论需要人类研究者进行评估和验证[21]。因而,人工智能时代社会科学研究的重要方式是人类研究者与机器的相互比较和验证。一方面,通过人类基于实践经验的独立研究使人工智能生成和创造的知识被实证;另一方面,人类基于实践经验的独立研究成果由人工智能大模型进行验证。人工智能和人类知识生成创造的内容和知识的相互比较和验证,将成为智能时代社会科学研究的常态;人机相互依赖共同演进的知识生产和创新方式,将带来社会科学研究的新范式。

五、结论和建议

随着生成式人工智能的创新应用,人工智能正在变革科学研究范式。其中,人工智能在社会科学研究领域的应用在引发研究方法变革的同时也带来了挑战。总体上看,大模型的应用能够提高社会科学研究的效率和水平,尤其是数据的高维度和算法的复杂化能够使社会科学更深入地研究复杂社会现象和问题,属于数据驱动的研究范式。同时,如何克服人工智能在社会科学研究应用中存在的数据隐私安全、伦理道德和价值观对齐等问题,需要我们做出深入思考。

需要强调的是,尽管人工智能已经具备强大的推理能力甚至是知识创造能力,但是仍然难以替代人类的独立探索性研究。人类的知识生产和创新来自对自然和社会现象的有目的编程。同时在长期积累过程中形成的人类常识性知识是人类认识和解释世界的前提和基础。由于与人类知识生产和创造机制存在差异,人工智能可能创造出新的知识和模式。通过比较和验证,机器和人类的知识生产和创造的共生演进,将成为人工智能时代社会科学研究的新范式。

大模型的创新应用将带来社会科学研究范式的创新。人机协同的知识生产方式,将使人类对经济社会运行规律的认识达到新的高度。同时,鉴于大模型在社会科学研究中运用的特殊性和潜在网络,需要对此加强评估和监管。

第一,鼓勵支持大模型在社会科学研究领域的广泛应用。只有在社会科学研究领域广泛应用,才能真正了解大模型的原理、使用方式和可能存在的风险。当我们充分掌握了大模型的重大风险点时,才能通过技术创新和治理进行有效控制和防范。到目前为止,大模型在社会科学领域的研究尚未全面展开,缺乏如何有效使用大模型进行科学研究的指南、教材和课程。通过教材编写和课程开发加快大模型在社会科学研究中的应用,是当前需要开展的重要工作。

第二,鼓励对大模型“黑箱”问题的可解释性研究。可解释性是指人类能够理解模型在决策过程中做出选择的过程、机制和因果关系。现有大模型的训练方式主要分为两种:一种是传统fine-tuning范式;另一种是基于prompting的范式[28]。

基于传统fine-tuning范式的模型解释包括对单个预测的解释(局部解释)和对模型结构级别组分如神经元、网络层等的解释(全局解释)。基于prompting范式的模型解释,需要对基础模型和助手模型分别解释以区别两种模型的能力,从而探究模型学习的路径和方法。这些研究工作的开展将为模型少样本学习(few-shot learning)甚至是无样本学习(zero-shot learning)能力提供解释,有利于理解涌现现象的根源和思维链能力的来源。同时,利用专用化数据语料库训练出可输出推理结果和推理过程的专用大模型,将有利于研究者的验证和复现工作的展开,进而降低模型“黑箱”属性带来的风险。

第三,推进人工智能大模型价值对齐工作。通过人类反馈的强化学习(RLHF)已被证明是一个有效推进人工智能大模型价值对齐的方法,它包括指令微调(SFT)、奖励模型训练(RW)、人类反馈强化学习(PPO)三个过程[29]。虽然RLHF原理清晰,但是由于众多开源框架处于持续更新迭代之中,如何利用有限的计算资源训练强化学习模型是未来努力的方向。

为促进价值对齐从低效的“人类监督”转向更高效的“规模化监督”(scalable oversight),美国Anthropic公司提出了“宪法性AI”(constitutional AI)的方法,即研发主要用于评估主模型输出是否遵循特定“宪法性”原则的从属模型,根据评估结果来优化主模型。

第四,通过评估划分大模型的风险等级。一方面,对大模型的应用领域进行风险评估,将涉及国家安全和社会歧视方面的研究划分为高风险领域,实施更加严格的管控;另一方面,通过对大模型涉及的研究问题和对象进行风险评估,进行分类管控和治理。在两个方面的风险评估和分类管控的条件下,积极推动人工智能在社会科学研究领域的应用,为繁荣社会科学研究作出贡献。

注释:

①注意力权重来自大模型训练过程中大量文本无监督学习。

②如理解男孩和女孩、男人和女人、国王和女王这几组词,不仅需要指出性别、年龄、地位信息,还需要描述男孩与男人、男人与国王的关系类似于女孩和女人、女人与女王的关系。这很难用一个数字表示,但在多维度的向量空间里,向量距离可以清晰描述这些信息。

③训练数据中不同类型的样本占比不合理,如训练数据仅代表总体的一小部分时,易出现模型错误归纳规律和错误输出。

④在社会科学领域,尚未出现可避免大模型幻觉或“黑箱”问题的模型,但根据这一思路对应用于社科领域的大模型进行改造是可能且有益的。

参考文献:

[1]《GPT-4,通用人工智能的火花》论文内容精选与翻译[EB/OL].[2023-12-20]. https://orangeblog.notion.site/GPT-4-8fc50010291d47efb92 cbbd668c8c893.

[2]CAUDAI CLAUDIA,GALIZIA ANTONELLA,GERACI FILIPPO, et al. AI Applications in Functional Genomics[J]. Computational and Structural Biotechnology Journal, 2021, 19.

[3]POLLICE ROBERT,DOS PASSOS GOMES GABRIEL,ALDEGHI MATTEO, et al. Data-driven Strategies for Accelerated Materials Design[J].Accounts of Chemical Research, 2021(4).

[4]李建會,杨宁. AI for Science:科学研究范式的新革命[J]. 广东社会科学,2023(6).

[5]ASHISH VASWANI, NOAM SHAZEER, NIKI PARMAR, et al. Attention is All You Need[EB/OL].[2023-10-20].http://arxiv.org/1706.03762.pdf.

[6]LIN TIANYANG, WANG YUXIN, LIU XIANGYANG, et al.A Survey of Transformers[J]. AI Open,2021,3.

[7]OUYANG LONG, WU JEFF, JIANG XU, et al. Training Language Models to Follow Instructions with Human Feedback[J]. Neural Information Processing Systems, 2022, 35.

[8]WEI JASON, WANG XUEZHI, SCHUURMANS DALE, et al. Chain-of-thought Prompting Elicits Reasoning in Large Language Models[J].Neural Information Processing Systems, 2022, 35.

[9]DONG QINGXIU, LI LEI, DAI DAMAI,et al. A Survey for In-context Learning[J].arXiv:2301.00234v3, 2022.

[10]RAHWAN IYAD, CEBRIAN MANUEL, OBRADOVICH NICK, et al. Machine Behaviour[J]. Nature,2019,568.

[11]政光景,吕鹏. 生成式人工智能与哲学社会科学新范式的涌现 [J]. 江海学刊,2023 (4).

[12]杜麗群,程俊霞. “经济人”假设与人工智能时代[J].北京大学学报(哲学社会科学版),2021(6).

[13]崔俊富,邹一南,陈金伟.大数据时代的经济学研究:数据驱动范式[J].广东财经大学学报,2016(1).

[14]SU JIANHONG,YANG WEIPENG. Unlocking the Power of ChatGPT:A Framework for Applying Generative AI in Education[J].ECNU Review of Education,2023(3).

[15]DWIVEDI YOGESH, KSHETRI NIR, HUGHES LAURIE, et al. "So What if ChatGPT Wrote It?" Multidisciplinary Perspectives on Opportunities, Challenges and Implications of Generative Conversational AI for Research, Practice and Policy[J]. International Journal of Information Management, 2023(5).

[16]GOZALO-BRIZUELA  ROBERTO, GARRIDO- MERCH?魣N EDUARDO C. ChatGPT is Not All You Need. A State of the Art Review of  Large Generative AI Models[J]. arXiv:2301.04655v1, 2023.

[17]FANG WEI,WEN XUEZHI, ZHENG YU,et al. A Survey of Big Data Security and Privacy Preserving[J]. IETE Technical Review, 2017(5).

[18]DAVID GEFEN,ORAKWUE(BAY) ARINZE. ChatGPT and Usurping Academic Authority[J]. Journal of Information Technology Case and Application Research, 2023(1).

[19]ISKENDER ALI. Holy or Unholy? Interview with Open AI's ChatGPT[J]. European Journal of Tourism Research, 2023(34).

[20]ANJANA SUSARLA,RAM GOPAL,JASON BENNETT THATCHER,et al. The Janus Effect of Generative AI:Charting the Path for Responsible Conduct of Scholarly Activities in Information Systems [J].Information Systems Research, 2023(2).

[21]VAN DIS EVA A M,BOLLEN JOHAN,ZUIDEMA WILLEM,et al. ChatGPT: Five Priorities for Research[J]. Nature, 2023(7947).

[22]ASHLEY DEEKS.The Judicial Demand for Explainable Artificial Intelligence[J].Columbia Law Review, 2019(7).

[23]CYNTHIA RUDIN. Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead[J]. Nature machine intelligence, 2019(5).

[24]LAURA WEIDINGER, JOHN MELLOR, MARIBETH RAUH, et al. Ethical and Social Risks of Harm from Language Models[J].arXiv:2112.04359v1, 2021.

[25]BOZKURT ARAS, SHARMA RAMESH C. Challenging the Status Quo and Exploring the New Boundaries in the Age of Algorithms: Reimagining the Role of Generative AI in Distance Education and Online Learning[J]. Asian Journal of Distance Education, 2023(1).

[26]JI JIAMING, QIU TIANYI, CHEN BOYUAN, et al. AI Alignment: A Comprehensive Survey[J]. arXiv:2310.19852v3, 2023.

[27]BERNARDINO ROMERA PAREDES,

MOHAMMADAMIN BAREKATAIN,ALEXANDER NOVIKOV,et al. Mathematical Discoveries from Program Search with Large Language Models[J]. Nature, 2023(7995).

[28]LIU XIAO, JI KAIXUAN, FU YICHENG, et al. P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks[J]. arXiv: 2110.07602v3, 2021.

[29]SONG FEIFAN, YU BOWEN, LI MINGHAO, et al. Preference Ranking Optimization for Human Alignment[J]. ariXiv:2306.17492v1, 2023.

Artificial Intelligence and Social Science Research

LIU Gang, LI Xiang, LI Qinqian, LIU Jie

Abstract: Artificial Intelligence (AI) is a general-purpose technology, not only sparking off industrial transformation, but also ushering in a new paradigm in scientific research. With the development of general AI, represented by generative artificial intelligence, the application of AI has become the forefront of innovation in the paradigm of social science research. The high dimensionality of data, the strong structural nature and long-range correlations of programming languages, the implicitly existing knowledge repository in parameterized form, and the structural reorganization through pre-training bring novel insights and pattern discoveries, thereby creating new developmental dimensions for social science research. Concurrently, the application of AI in social science encounters a series of challenges arising from data intricacies, value perspectives and the "black box" nature of research findings. How to address the amalgamation of data mining with large models and exploratory research grounded in practitioners' experiences, and establish a knowledge production mechanism for symbiotic human-machine evolution is the direction of AI application in social science research.

Key words: artificial intelligence; big models; social sciences; alignment issues; privacy security

責任编辑:邓   喆

猜你喜欢
社会科学人工智能
我校新增“人工智能”本科专业
《云南社会科学》征稿征订启事
《北京科技大学学报》(社会科学版)
《河北农业大学(社会科学版)》2021年喜报
2019:人工智能
人工智能与就业
数读人工智能
下一幕,人工智能!
下一幕,人工智能!
数学在社会科学中的应用