离身认可与具身恐惧:人脸识别公众态度研究
——基于微博数据的情感与主题分析

2023-12-16 08:30
湖南师范大学社会科学学报 2023年6期
关键词:争议性消极情绪积极情绪

杨 正

引言

人脸识别(Face Recognition Technology, FRT)是指能够识别或验证图像或视频中主体身份的数字技术[1]。近年来,随着以人工智能、物联网等为代表的新一代信息通信技术的普及应用,人脸识别技术已经成为最为常见且应用最为广泛的生物识别方法之一[2]。这一技术的使用,一方面确实让人们的身份识别更为便利及更具安全保障;另一方面也暴露了各种潜在的和现实的风险[3]。且随着人脸识别技术的进一步推广,应用人脸识别而引发的隐私安全等相关问题进一步凸显,公众对其应用的担忧也进一步加剧[3]。2021年7月,中华人民共和国最高人民法院颁布了《关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定》的司法解释,进一步将人脸识别的公共应用推向公共舆论的热点。感知其利益,但担忧其风险成了当下公众面对人脸识别技术的复杂情绪状态。公众对待人脸识别这一争议性科技的具体态度与情感,目前学界尚未出现全面而深入的探讨。部分研究通过问卷调查的形式对影响公众人脸识别态度的可能因素进行了探究与分析[2,4],但在全面展现我国公众人脸识别技术的情感与态度,以及展现其正负面情感的相关维度方面的研究尚显不足。在此背景下,深入描绘并探讨中国公众人脸识别的态度认识与情感偏向将对进一步合理推广与应用该技术具有重要意义。对此,本文以微博大数据为资料,采用情感分析、语义网络分析以及LDA主题模型分析的方法,以技术的具身体用及离身认知为切入点对该问题进行分析,以期探讨我国公众对人脸识别技术的态度认知产生路径及其原因。

一、人脸识别的公众态度及认知研究

基于人脸信息以及人脸识别技术的相关法律背景,目前国内对于人脸识别技术的研究对象主要分为数据提供者、数据控制者、数据使用者与监管者[5]。过往国内的研究大多是从“数据控制者”视角出发,强调通过风险评估与技术优化来提升人脸识别技术产品的合规性以及其服务的透明性,例如不断更新人脸识别背后的算法模型以及持续关注该技术识别过程中个人信息的整合与计算方式等[1,6];或是以“监管者”视角,强调调整更新人脸识别技术的诸多使用规则的兼容性与动态性,以此提升人脸识别技术准入场景的适配性[2,7,8]。上述视角均是以技术优化为核心导向的人脸识别技术治理方案,试图以规范技术及其使用场景来不断提升人脸识别技术的规范应用与合理发展,而从数据提供者,即公众主体角度出发的人脸识别技术治理的相关研究则略显不足。Ada Lovelace Institute(2019)[9]指出:其实很少有公众对人脸识别技术有深入或知情的了解,很少有受访者知道面部识别技术被用于警务和机场之外的场景,仅15%的受访者了解面部识别技术被广泛应用于一些工作场所、商店和商业场所。公众作为信息数据的提供者,以及技术最直接的使用者和感受者,技术的风险会直接作用于公众,那么公众对技术的开发和应用也应该有直接的发言权[10],但在探索相应技术发展与治理的路径时却很少将公众对于该技术的真实感受与态度认知纳作参考因素。

公众对待技术的态度对于技术的应用、发展与治理具有重要意义,且这些态度在网络时代更加容易被表达与激化。在国内的互联网语境中,公众会更多地去评议与自身生活、经验息息相关的事件,以其自身个人化的表达参与相对宏大的议题与政策的讨论之中[11]。社交媒体更是为公众参与提供了更加广泛的讨论空间,并进一步建构出中国公众关于争议性科技议题的公共话语空间[12,13]。而从社交媒体的信息内容来看,随着互联网的普及以及网民数量的增加,诸多争议性的话题在技术迭代发展的催化下被进一步“社会化”与“极端化”[14],从而呈现出更为复杂且多元的表征。例如,当转基因技术越来越受到社会关注时,微博中关于转基因的讨论会充斥大量的比较、猜测乃至阴谋论,其争论的社会意义甚至已然超越其技术意义[15]。因此,把握社交媒体环境下公众对于特定技术,尤其是争议性技术的话语表征与情感倾向不仅有助于我们了解公众对该技术的认知与态度以及进一步推动该技术的社会治理与发展,还有利于我们就相应技术建立更加健康与合理的公众舆论空间提供丰富的证据资料。在这一研究方向上,已有不少学者在相应的争议性科技领域,以建立能够与公众对话并能实现公众参与的治理模式为目的,将公众的技术态度作为主要的关注点展开具体研究,例如转基因、核能等,并发现若意图提升技术普及的速度,扩大技术应用的广度,则将公众接受度作为评判决策优劣的重要标尺十分必要[16]。

回归到人脸识别技术,其作为搭载互联网与人工智能的标杆性技术,由于具有生物信息获取、识别以及利用等技术特征而饱受争议。信息技术的接受度和信任度一直是信息系统研究和实践的优先问题之一,终端用户的感知和行为反应同样是相关技术优化的重要考虑因素[17]。因此,早期的研究多是以公众态度作为直接研究对象来调查人脸识别技术的公众使用意愿。如A. Krupp等采用问卷调查对德国公众对于人脸识别的接受度进行代表性调查,发现仅有不到三分之一的人认可人脸识别技术,于是呼吁加强德国公众关于人脸识别知识的普及[18]。随着人脸识别技术的发展及其应用场景不断深化,后续的态度研究多以建立公众感知、使用情境等因素与技术使用行为之间的关联为主。在公众对于人脸识别技术的基本态度与使用意愿及进一步的公众感知的影响因素的研究中,学者们发现公众对待人脸识别的态度与情感是高度情景化且具有人口统计学偏向的,例如相较于其他国家,中国公民对于人脸识别技术的接受程度是最高的[4,19],且公众对于人脸识别技术的支持态度在很大程度上来自对于该技术用途认知及具体使用或政府信任[20]。

然而无论是对于公众人脸识别态度的直接调查还是间接的影响因素分析,所有的研究都指向一个方向,即在当前人脸识别技术对公众生活的渗透已经到了不得不考虑公众意见的态势下[18],将“公众声音”纳入实时人脸识别技术应用的监管决策与场景应用是具有重要意义的[21]。国外对于人脸识别技术公众态度的研究已经从基本的公众态度调查过渡到技术使用场景的态度预测,如此的研究转向能够更好地实现人脸识别技术发展决策中的公众参与。但以中国公众作为研究对象的态度研究并不多见,且大多停留在基本态度的描述上,缺乏更为全面且深入的描绘与分析[2,4,22]。普及技术并确保技术的使用长期处于可控的风险范围之内,有必要了解公众对于技术的实际感知与意愿,提升公共决策空间的开放性。但在人脸识别领域内,公众态度及认知方向并未得到相应的重视,更未在技术治理与发展的重大决策中纳入公众态度这一影响因素。因此,有必要就此问题展开更为全面且深入的研究与分析。

二、技术乌托邦与具身体认:争议性技术的公众态度与情感

公众对于新技术,尤其是AI、人脸识别等具有一定争议性的技术的态度总是被发现具有明显的两极分化[23]。不同的技术态度对于其技术的最终接受与社会使用有着明显的差异性影响。其中,影响公众技术态度的因素被发现是极其多元的,包括公众的教育水平、科学素养、生活经验、信息接触、媒体引导、社会文化背景、社会网络关系等[16,24]。其中,对于技术的“使用”被发现是其中一个重要的维度。

自20世纪80年代以来,随着第二代认知科学——具身认知(embodied cognition)科学的兴起,“思维来源于身体经验”的认知逐渐被证实[25,26]。学者们认为人的身体是在世界上独立存在的媒介物,人们对于世界的认识并非世界的镜像,而是身体构造和身体感觉运动系统塑造出来的[27]。因此,对于技术的“使用”或身体介入被认为是塑造公众技术认知的重要维度。对技术的认知与身体体认之间被认为存在不可割裂的关系[28]。这进一步被总结为对待技术的“体验认知”[27]或“认知的涉身性”。总之,“使用”场景下的具身体认被认为会显著影响公众对待所体认的技术的态度。

但身体介入或具身体认对于公众技术态度的影响目前尚未有定论。部分学者认为技术的发展让我们的肉身器官在对技术的使用中产生器官功能的转换与异化,从而产生对于技术的使用恐惧。尤其是肉身器官的原有功能被技术遮蔽,而又在另一维度去蔽的情况下[29]。回归到人脸识别技术,人脸作为人原本的感觉识别器官在技术作用下转换、异化为被识别的对象,在识别与被识别的对象转换中实现了技术身体的去蔽与遮蔽,从而导致了公众具身体认中的不安与恐惧。但也有研究指出,对于具有争议性的技术而言,身体介入或具身体认是消弭其技术恐惧的灵丹妙药[30]。在具体使用的过程中,公众可以获取关于技术的确定性感知,从而消除其对于特定技术的不安感[31]。例如,就转基因技术而言,试吃转基因食品、参与转基因生产,以身体介入转基因技术的成果转化被认为是转变公众关于转基因态度的重要渠道[32]。但身体介入到底在何种程度上影响公众对特定争议性技术的态度,目前依旧尚未存在统一的回答。

除了具身化的体认外,对待技术,尤其是争议性技术的态度被认为还受到公众对待技术控制与社会赋权的想象与期待的影响[33]。而这种想象与期待在社会中集中表现为一种崇拜技术力量的技术乌托邦主义(techno-utopianism)[34]。这种技术乌托邦主义幻想技术可以帮助人类构建未来乌托邦式的美好社会,且呈现出明显的社会集体性[35]。研究指出,中国社会常常对一系列高新技术,如5G技术、人工智能等抱有集体性积极技术想象[36];且这样的一种集体性的积极想象往往会与对国家的身份想象相纠合,进一步成为对民族或国家骄傲的想象来源[13]。这样一种集体性的积极想象同时被认为是一种基于对技术的非个体性身体介入的远程幻想[36]。公众以集体性的身份被引入关于这些技术的宏大叙事中,从而在非具身的体认下被建构出对于特定技术的积极认知。例如,Zeng等人(2022)指出,中国媒体对于AI技术的叙事及中国公众对于AI技术的认知与基于技术的“中国梦”的宏大政治叙事紧密相关,频繁接触此类宏大叙事的公众更易于产生对于AI技术的集体性积极想象[36]。全球的调研结果也指出,中国公众在“对待科学技术使得人民生活更加健康、简易和舒适”的认可上在49个受访国家中排第二名;即便中国公众对于相关技术的知识、素养排名靠后[37]。这类框架与技术乌托邦的积极幻想被发现也同样存在于中国公众对于人脸识别技术的认知中:中国公众在集体性身份下普遍期待着人脸识别技术可以给社会带来更加稳定与安全的保障[11],即便他们认为自己并没有主动使用或介入过此类技术。

身体的介入或远离对于公众技术态度的影响目前仍处于不甚明朗的状态。身体经验与认知程序之间的范式、路径方面也缺乏统一的回答[28]。身体的介入到底是更容易带来主体性回归基础上的技术恐惧还是体用后的风险消弭?身体的疏离是会带来远程乌托邦式的集体关照还是缺乏使用的技术陌生?这些问题尚未得到充分回答。加之身体介入本身就是高度情景化的[26],对于不同技术的具身体认及其认知影响必定有所不同。因此,在面对精细度不断发展、应用场景不断深化、公众讨论日益高涨的人脸识别技术,我们当前还没有相应准确的回答。但可以肯定的一点是,“具身”或“离身”对于公众技术态度的影响是巨大的。因此,结合前文所探讨的公众态度对于技术推广与治理的重要影响,我们提出了如下核心研究问题:

RQ1:中国公众对于人脸识别的态度及情感如何?

RQ2:中国公众对于人脸识别的正负面情感分别围绕哪些维度展开?

RQ3:具身或离身在中国公众人脸识别态度与情感建构中发挥着怎样的作用?

三、研究方法

(一)研究数据采集与描述

目前,微博已经成为中国公众参与社会性事务的重要平台。相关研究也已指出微博平台已然建构出了中国公众面对一系列争议性科技议题时的公共话语空间[11];大量的有关争议性科技议题公众态度的研究也以微博数据为资料进行分析与探究[38,39]。因此,本文也选取了微博平台作为中国公众人脸识别技术的态度与情感分析的数据来源平台,并以“人脸识别”为搜索关键词,通过GooSeeker大数据采集工具爬取了2021年1月1日到2022年10月31日这22个月期间有关人脸识别的相关微博数据。在进行去重及数据过滤后,最终得到168 570条有效微博文本数据,数据总量与Guan &Chen(2023)研究中所采集的数据总量较为匹配(2020年11月1日至2021年4月30日,6个月共45 768条)[11]。这些数据将成为后续研究的分析对象。

(二)情感分析

针对研究问题1与研究问题2中的情感问题,本文主要采用了基于大数据的情感分析方法。情感分析(sentiment analysis)又被称为情感或观点挖掘(emotion/opinion mining),是指使用自然语言处理、文本分析、计算语言学等方法对带有情感色彩的文本进行统计、分析、归纳、处理的研究方法[40]。随着社交媒体的发展,目前已有大量研究开始着手于推特或中文微博的情感分析问题[41]。通过将文本中的词汇定义为积极、消极或中性,情感分析可以有效地帮助我们衡量社交媒体用户对于某一特定事件的态度。这一研究也被大量应用在探讨公众对于某一特定争议性科技议题的态度认知与情感偏向的分析上,如转基因[42]、气候变化[43]等。

本文通过使用ROST-CM6.0软件中的中文语言情感分析功能,分析每条微博中的正负面情感情况。该软件基于情感词典匹配与加权计算的方法得出每一条微博最后的情感得分情况,并对其从-100至100进行赋值。分值越高则表明情绪越倾向于正面,反之则表明更倾向于负面。通过对所收集的168 570条有效文本数据进行情感分析,可以初步得出中国公众对待人脸识别技术的基本态度倾向。此外,我们还进一步以每10天为一个单位,统计该时间单位内具有正负面情感微博的占比情况,并进一步对其进行历时性分析,以期窥探在近2年的时间内,中国公众对待人脸识别技术的变化态势。

(三)语义网络分析与LDA主题模型分析

针对研究问题2的后半部分与研究问题3,我们主要采用语义网络分析方法。语义网络分析(semantic network analysis)是指用网络化形式来定义词与词之间的语义关系的分析方法,其在1973年由美国学者司马贺所提出。其基本原理是以句子为基本单位,以句子中的词的概念为网络中的节点,以沟通节点之间的有向弧来表示概念与概念之间的语义关系,并最终构成一个彼此相连的网络,以理解文本的语义[44]。这种方法目前被广泛地应用在自然语言处理、情报分析、文本理解等领域。“从术的角度来说,语义网络分析实现了传播学研究探求文本的表意、修辞与社会动因的研究目的。”[45]尤其是在面对大数据环境下的超出传统人工编码能力范畴的语义理解与分析时,“语义网络分析不仅可以客观地呈现文本生产者认知中的表意,还可以帮助展现认知产生的逻辑推理过程”[45],因此可以帮助我们更好地理解中国公众对待人脸识别的态度是如何展开的。他们对待人脸识别技术的正负面情绪又是聚焦于哪些方面?针对后一个问题我们结合情感分析的结果,分别对所得到的正面情感文本与负面情感文本进行语义网络分析。

在具体操作步骤上,本文采用python语言中的Jieba包的中文分词功能进行处理,并在剔除标点以及emoji等符号后,通过Excel中的分列功能自动将分词后的文本设置成语义网络分析所需的以句为单位,以词为节点的数据形式。通过导入Gephi0.92并使用ForceAtlas2的布局(layout)功能,最终生成中国公众人脸识别技术讨论正负面情感的语义网络。最终,在删除网络中虚词、助词等无实在意义的节点后,网络中节点中心度排名前100的词将会被显示标签与统计。但仅仅使用Gephi的节点中心度计算难以有效度量文本中的主题呈现情况,对此,我们进一步引入了LDA主题模型分析方法。

LDA作为非监督的机器学习模型,是通过一系列主题以服从多项式分布的形式生成每个文本,再从这些主题中同样以服从多项式分布的方式抽样出每个单词,由此构成该模型围绕主题生成文本的过程。其在具体的分析过程中使用词袋模型进行文档的主题分布推测,从而可以集中每篇文档的主题,并以概率分布的形式给出主题聚类分布结果。本文在使用Jieba进行分词后,通过IF-IDF算法对分词结果进行优化,获得更为精确的主题词进行LDA词袋模型构建,最终通过Pysql库进行数据筛选,并使用Gensim库进行话题模型建构[46]。

四、数据分析

(一)稳定的态度与更为积极的假象

整体稳定而正面的态度倾向表明两个主要结论。第一,从整体而言,公众态度的稳定与缺乏面向积极或消极的历时性变化,表明目前尚未存在有力的外部干预力量改变中国公众对待人脸识别的整体态度,如政策介入或科普介入。虽然大量研究与政策文本均强调“要加强人脸识别技术的科普和宣传力度,打消公众不必要的顾虑”,以期通过科普介入的手段提高公众对人脸识别技术的接受度与积极情感。但就微博的历时性数据而言,公众态度在近两年的时间内并没得到有效改善。第二,虽然微博数据呈现出积极情绪高于消极情绪的结果,但由于微博自身的审核机制、删除机制以及政府、企业等所主导的大量宣传、软文类文本数据的介入,微博场域中文本的情感较之公众真实的情感容易呈现偏向正面或积极的误区。因此,虽然情感分析的结果表明中国公众对待人脸识别的态度可能呈现出更为积极的态势,但这一结果的准确性并不适宜高估。不过,稳定的态度表征表明公众对待人脸识别技术的关注点可能存在较为一致的连续性,可以为我们后续进行基于积极情绪和消极情绪的分类主题研究提供更为稳健的数据来源。

(二)不同的情绪表达,不同的主题关切

为了回应研究问题2:中国公众对于人脸识别的正负面情感分别围绕哪些维度展开?我们将所有文本数据中积极情绪数据(87 355条)和消极情绪数据(37 092条)从总文本中提取出来,并对其进行语义网络分析及LDA主题模型分析,以期更为全面地探究中国公众对于人脸识别的正负面情感的关注点。

在去除一系列无意义虚词、连词、数量词等停用词后,我们通过语义网络分析的节点中心度计算方法,统计出积极语义网络与消极语义网络中节点中心度最高的30个关键词(见表1)。从关键词表中可以发现,除了一系列相同的基本主题词,如“人脸识别”“手机”外,关于人脸识别技术的积极语义与消极语义呈现了显著不同的主题关切。具体而言,在积极语义中,大量高频关键词如“华为”“手机”“智能”“苹果”“系统”“微博”“智慧”“科技”等,大多是围绕人脸识别技术本身及其软硬件载体展开;而在消极语义网络中的大量高频关键词,如“今天”“最近”“现在”“每次”“刚刚”“昨天”“早上”等,则大多围绕人脸识别技术在日常生活中的应用场景展开。据此,我们可以推断公众对于人脸识别技术的积极态度大多建立在一种脱离日常生活的技术感知上,关注点大多聚焦于技术知识与软硬件载体上;而对待人脸识别技术的消极或担忧情绪则更多建立在个人日常生活与人脸识别技术的碰撞上,是技术落地于具体生活中而造成的影响。正如以下积极与消极微博的案例:

表1 微博公众人脸识别技术积极情绪与消极情绪语义网络关键词

积极情绪案例:“2021年的愿望:希望能出一款能让百姓说实话,不会被封号(的)视频APP,让上面的领导能更直接的了解底层百姓的真实情况。(登陆APP需真实信息,实名认证,人脸识别,以免有人捏造事实,无法查找)”

消极情绪案例:“前段时间小区物业突然在楼下贴了张告示通知要装人脸识别门禁”(小区居民开始质疑询问)“有没有更加安全的方法使我们进门?”“没。”“隐私问题怎么解决?”“可选,非强制。”“就你事多。”……

为了进一步验证与补充语义网络分析的结果,我们进一步通过LDA主题模型方法对积极情绪文本与消极情绪文本分别进行了处理。根据Perplexity主题数量确定方法,发现积极情绪文本与消极情绪文本的最佳主题数量分别为3个与2个(见图1)。但为了保证两种情绪文本主题的比较准确性,在此向下取2个主题单位,并依照2个主题单位数量对两种情绪文本进行LDA主题模型分析,最后得出表2的数据结果。根据LDA主题模型自动统计出的每一主题的30个核心关键词,可以将得到的4个主题归纳为:积极情绪主题1:技术载体与宣传,主要围绕人脸识别技术的软硬件载体及相关商业宣传展开;积极情绪主题2:元技术认可,主要围绕人脸识别技术本身、应用原理及相关功能展开;消极情绪主题1:应用场景恐惧,主要围绕银行、学校、游戏等具体的人脸识别应用场景及其应用风险展开;消极情绪主题2:负面新闻感知,主要围绕一系列有关人脸识别的负面新闻报道展开,例如“sky光遇黑市”“男子远程刷脸转走238万”等。

图1 微博公众人脸识别态度积极情绪(左)与消极情绪(右)主题模型数量

表2 微博公众人脸识别态度积极情绪与消极情绪主题及关键词

LDA主题模型分析与语义网络分析呈现了较为一致的结果,即在微博场域下我国公众对于人脸识别技术的积极情绪认知大多围绕远离日常生活场景的技术知识、功能及相关软硬件载体方面展开。“智能”“智慧”“科技”成为其感知并称赞人脸识别技术应用及相关宣传的核心落脚点。但落实到具体的生活场景则相对较为缺乏,且仅集中呈现在微观“门锁”与宏观“疫情”两个主题上。而反观消极情绪的展开,则更多围绕着个人的日常消费及娱乐生活的场景与行为,如“身份证”“客服”“银行”“学校”“小区”“游戏”“物业”“认证”“微信”“QQ”等。即使是关于负面新闻的感知,也大多围绕社会生活类新闻展开,而非积极情绪中的“技术突破类”新闻或“商业宣传类”新闻,如“人脸识别技术助力‘智慧战疫’”“德施曼锁定迪丽热巴每一面”等。因此,就技术-生活关系而言,中国公众对待人脸识别技术的积极情绪较之消极情绪呈现更为遥远、离身的特征,而消极情绪则呈现一种更为生活场景导向的、具身化感知的特征。

对此,回归本研究提出的三个研究问题,目前我们已经初步得出相关回答:在微博这一公共场域中,中国公众对待人脸识别的态度可能偏向于积极且较为稳定的态势,但这一积极情绪的准确性不宜高估。中国公众对待人脸识别技术的正负面态度分别围绕不同的主题展开,具体而言,正面情绪更多围绕技术本身、技术功能及其软硬件载体展开,同时附带一定的商业化宣传;而消极情绪则更多围绕有关人脸识别的生活应用场景与使用体验,以及相关的负面新闻展开。在积极情绪与消极情绪主题建构的差异中,具身与离身分别发挥着十分重要的作用,即呈现出中国公众对待人脸识别技术的远离生活应用场景的“离身认可”与以生活化场景应用为导向的“具身恐惧”之间的区隔。

五、讨论:争议性技术的离身认可、具身恐惧及身份想象

情感分析和主题模型分析的结果表明,在感知争议性技术,并对其生成相应情感时,公众对于技术的身体介入或远离,切实地产生着显著且深刻的影响。具体就人脸识别技术而言,具身的技术使用与体感正如学者所言,会将人脸作为人原本的感觉识别器官在技术作用下转换、异化为被识别的对象,从而在技术身体的去蔽与遮蔽之中,导致了公众的不安与恐惧[29]。这种“越使用、越恐惧”的心态也被发现普遍存在于公众对于一些具有伦理缺陷或使用黑箱的技术态度上,例如武器[47]、基因生物技术[48]等。伦理道德上的不完满及对技术内嵌逻辑的不了解,都使得公众在使用或体感这些技术时倾向于同时产生对于技术本身现实效用的惊叹及可能滥用的恐惧[48]。放置在人脸识别技术上就着重体现于公众在生活应用场景中具身体感该技术的便利时,会进一步诱发其对于这种“便利”应用在自身上的恐惧及技术一旦出现漏洞的担忧。而相反,当这种技术处于某种遥远的时空时,公众对其的认知则更多来自相应的知识普及与技术宣传。而无论是知识普及还是技术宣传,其技术本位都是基于一种赞扬的基调。“更好地保障安全”“更有效地追责犯罪”都是人脸识别技术获取公众认可时使用的口号。但这种宣传大多是以一种集体性的幻想,建构一种崇拜技术力量的技术乌托邦主义(techno-utopianism)的形式出现的[34]。在这种乌托邦主义中,个体无需知晓或具身体感这种技术的细节,只需沉浸于关于这种技术的宏大叙事中,建构关于这种技术可能带来美好生活的远程幻想。而“安全”“犯罪”,乃至“智能”“科技”以及“科学技术使得人民生活更加健康、简易和舒适”到底与其具体的生活之间可能存在什么具体的勾连,这种非个体性身体介入的远程幻想并没有给出具体答案。但事实情况就是,公众是容易陷入这种基于宏大叙事的远程幻想中的。这种技术乌托邦主义的叙事也确实能够有效挑起公众对该技术的积极想象与情绪。尤其是面对人脸识别技术时,“用科技的力量服务生活”多次出现在人们对于该技术的积极想象中,虽然如何使用,如何服务的路径公众似乎并没有进行细致讨论。

这也就导致了其实公众对于人脸识别技术的情感生成机制是存在差异,乃至是割裂的。我们对于人脸识别技术的积极情绪与消极情绪是沿着两条完全不同的路径生成的(见图2)。也即,我们无法通过提升积极情绪来消弭消极情绪。公众对于人脸识别,乃至其他争议性技术的技术乌托邦幻想以及具身使用恐惧可能是同时发生与存在的。我们可能会赞扬“人脸识别技术推动国家防疫政策的实施”,但同时也担忧或拒绝“人脸识别应用在我自己的小区里”。其实这种情绪的割裂背后进一步透露出了公众在面对相应技术时的“身份想象(identity imagination)”。赫兹伯格(Hertzberg)在《想象与身份认同》(ImaginationandtheSenseofIdentity)一文中指出,关于身份的想象就是个体在面对外界信息输入时关于“我是谁”这一问题的想象与回答,而这种想象是存在不对称性的(asymmetries)[49]。我们在面对同一认知客体时,可能会因为输入的信息不同,而对该客体产生不同的自我身份想象。例如,在面对人脸识别技术时,当我们被输入的信息是基于技术乌托邦主义的知识普及或技术宣传时,我们其实就已经被赋予了一种无差别的“公众”身份。在这种身份想象下,个体的身体介入变得无关紧要。由技术民族主义催生的去个体化的认知确实如学者所言,会带给公众更为普遍的对于人脸识别技术会带来更加稳定与安全的保障的期待[17],从而呈现出更为积极的情感表征。而当人脸识别技术具体出现在我们的生活场景中,需要我们以身体介入去体认时,我们关于自我身份的想象就从宏大的“我们”具体到了个体的“我”。拉琳娜(Larina)等人总结了“我文化(I-culture)”和“我们文化(we-culture)”之间的区别,并指出当个体以“我(I)”的身份思考时,他们会遵循一种更加谨慎、深思熟虑乃至消极的思维模式;而当以“我们(we)”身份思考时则容易陷入一种极端乃至狂热的集体主义思绪[50]。当我们不得不以身体介入的方式、个体化地接触并使用人脸识别技术时,“我(I)”的身份想象就会压倒来自技术宣传或知识普及所建构的“我们(we)”的身份想象,从而敦促我们以一种更加审慎乃至消极的视角看待人脸识别技术。当这种技术存在伦理缺陷及操作黑箱时,则更可能带来偏于负面的消极情绪。

图2 公众人脸识别技术态度情绪生成路径

基于这种技术/知识性认知和生活应用性体感在公众人脸识别技术态度生成中的功能割裂,我们可以推断传统基于技术科普与宏观宣传的方法在改善公众人脸识别态度上的作用可能是有限的。这一结论也与我们情感分析推断出的结论相匹配。具体而言,当人脸识别这一争议性技术被置于较宏观的宣传体系之中时,公众的关注点多聚焦于技术知识与软件载体等落脚于技术本身的内容上,并通过知识性和技术性的特征构建起公众对于人脸识别的技术积极图景的想象。而在相关情感生成机制的差异性,乃至割裂性的背景下,这种想象只能在积极层面放大公众对于人脸识别的赞扬,而并不能有效消弭公众对待人脸识别技术态度的使用恐惧。而真正阻碍公众对于争议性技术接纳的核心要素,其实并不在对技术的赞美,而在于对技术的恐惧。传统认知频繁指出的基于离身知识普及的“越了解,越不恐惧(the more you learn, the less you fear)”或许在人脸识别等争议性科技议题的公众接受中并不十分有效。这样一种内嵌着科普“缺失模型(deficit model)”的,认为公众只要获取足够多远程的科学技术知识与信息就自然而然可以消弭其对技术恐惧的认知极大忽略了公众的技术情感生成的割裂路径。其实,这一观点的缺陷在多年转基因科普的公众劝服“失败”中已经得到了总结。我们在大量转基因技术科普与宣传的努力下,已然倾向于做出认可转基因技术对于国家农业食品安全、对于农业技术进步的积极图景想象,并在相关量表中做出“支持转基因技术”的自我表达,但这种积极想象与技术支持并不妨碍我们在具身体感中拒绝购买及食用转基因食品[51]。因此,在技术情感生成机制的差异性背景下,想要真正降低或消弭公众对于人脸识别等争议性科技的恐惧及其他负面情绪,真正的身体介入、试用与使用或许是更加有效的途径。改变原有的“越了解,越不恐惧(the more you learn, the less you fear)”的技术宣传策略,向“越使用,越不恐惧(the more you use/try, the less you fear)”的体用策略转向,或可为争议性技术的公众接受提供新的发展路径。当然,具身与离身对于人脸识别以及其他人工智能技术的态度生成,可能存在更为复杂、多元且交互的机制。简单的“割裂”并不能全面地覆盖所有的机制特征。更为“黑箱化”的情感运作还需要后续更为深入且多样的研究予以补充。

结语

本文通过对人脸识别技术微博公众讨论大数据的情感分析及主题分析,发现了我国公众对于人脸识别技术认知情感影响因素的割裂性,其具体表现在公众对于人脸识别技术的积极情绪与消极情绪是沿着两条完全不同的路径生成的。公众对于人脸识别技术的积极情绪更多源自集体性技术乌托邦主义的对于技术本身及其社会功能的离身想象;而其对于人脸识别技术的消极情绪则更多源自生活化场景中的具身使用体验。这种情绪生成机制的割裂进一步透露出公众在面对相应技术时关于“我”和“我们”的不同身份想象。这一结论首先表明了“身体介入”对于公众技术情感生成的重要影响,并进一步提醒我们在进行相应争议性技术的公众推广时,传统基于家国叙事或技术知识普及的方法或许只能进一步放大公众的积极情绪,而不能有效地消弭公众的使用恐惧。想要有效降低公众的技术恐惧或其他负面情绪,强调身体介入的试用与使用或许更为有效。

这一研究依旧存在一定的缺陷:微博平台虽然为我们研究公众的技术态度提供了绝佳的空间环境,但由于使用者的人群偏向,相关结论上升到真正权威的“公众态度”层面依旧存在一定的漏洞;在数据范围上,本研究只涉及了人脸识别较为火爆的近两年数据,缺乏更为宏观、历时的数据集;相关结论也缺乏跟其他争议性技术公众态度研究的深入对话。这些不足将在后续的研究中予以考虑及探究。

(苏州大学传媒学院硕士研究生黄渊渟对本文亦有贡献)

猜你喜欢
争议性消极情绪积极情绪
休闲运动的争议性反思:从时间到生活方式
静心
测试
中小学生积极情绪现状特点及其影响因素
积极情绪助力更好记忆
试论积极情绪对中学生的创新力的影响
争议性的产生
积极情绪相关研究综述
帮孩子化解消极情绪的绘本
道格?里曼的“个性化”电影