社交媒体时代的“信息污染”特征及治理路径研究

2022-01-10 02:07商超余罗庆文
新闻前哨 2021年10期
关键词:谣言社交污染

商超余 罗庆文

信息污染”一词最早是由雅各布·尼尔森在2003 年提出,用于描述无关,冗余,未经请求和低价值的信息。随着移动互联网的普及、社交媒体的泛滥及在线信息社会的崛起,“信息污染”指涉“信息被武器化以实现传者的恶意动机,使用户产生对国家、种族、个人、事件或公司的偏见”。

根据 《2019 年全球数字报告》,全球总人口76.76 亿中,有34.84 亿社交媒体用户,每秒钟会有数百万的人在社交媒体上进行互动,从而创建大量的数据。社交媒体上传播的数据已成为分析人士和评论家关注的重大话题,因为它反映了人们的社交行为、选择、看法和心态。全世界有相当一部分人使用社交媒体作为新闻等信息来源,来自社交媒体的新闻等信息直接或间接影响他们的观点和行动。大量未经核实和未经证实的信息通过在线社交媒体传播,误导了大众。互联网的连通性被一些个人和机构滥用,旨在传播宣传、完成他们设置的议程。在数字连接的世界中,假新闻、谣言等虚假信息构成的“信息污染”因其复杂性和规模,给在线信息社会系统的正常运转造成极大的危害。“信息污染”的形成不能简单归因为带来社交媒体骤增和信息过载的互联网技术,透视“信息污染”的表征形态,折射的是数字传播生态下传播主体(传者、受众)异质多元的信息生产、消费的功能目的和认知心理。

一、“信息污染”的表征形态和生成逻辑

(一)“信息污染”的表征形态

“信息污染”通常指以文本、图像、视频、博客、消息、故事、突发新闻等形式出现的虚假信息,其表征形态的格式并不相互排斥,同时也具有某种异质性。常见的表征形态有谣言、假新闻、不实信息、点击诱饵、舆论垃圾宣传和阴谋论。假新闻被定义为“有意误导读者,经证实是虚假的新闻文章”;不同研究者对谣言的定义呈现历时性特征。根据范德·滕佩尔和阿尔考克的研究,阴谋论是人们普遍漠视的信仰。阴谋论“不仅涉及否认对事件起因的官方普遍持有的解释,而且还涉及将事件归因于一群有隐藏,非法和恶意的代理人制定的计划”。

(二)“信息污染”的生成逻辑

1.制造“信息污染”的行为主体

(1)代理人。代理人参与了虚假信息生成链路的所有阶段(创建、生产和分发),且动机各不相同,代理人的特性因阶段而异。代理人可能是官方人员,如情报机构、政党、新闻机构。也可能是非官方的公民群体。他们长期在组织严密或围绕共同利益的机构、团体中(例如,公关公司或游说团体)单独工作。

不同的代理人有不同的受众对象。受众既可能是组织的消费者,也可能是基于社会经济特征、乃至整个社会的社会群体。讯息可以由代理人通过社交媒体,以文本(博客、推特 等)或视听材料(图像、视频、动画、编辑过的音频剪辑、模因等)进行传播。有些虚假信息旨在长期保持相关性和影响力(如“污名化”信息),有些则是针对短期而设计的,就像突发新闻事件中的个别讯息一样。代理人的目标受众是他们想要影响的人群,但这与虚假信息的目标不同(被抹黑的对象),可以是个人(候选人,政治或商业领袖)、组织(私人公司或政府机构)、社会团体(种族,种族,精英等)或整个社会。受众很少是信息的被动接受者。他们由许多个人组成,每个人根据自己的社会文化地位、政治立场和个人经历来解读信息。传播的仪式观对于理解个人如何以及为什么以不同的方式对信息作出反应至关重要。受众消费的信息类型及理解这些信息的方式,都会受到他们的自我认同和与之相关的“部落”的影响。“强连带”关系促使朋友、家人和同事利用社交媒体共享信息,社交的力量比以往任何时候都更加强大。在一个人人都是潜在发布者的社交媒体时代,阐释者可能同向解读虚假信息,以点赞、评论、转载的形式分享信息,成为下一个虚假信息的代理人。

(2)替代媒体。社交媒体用户在特定的情绪状态下,遇到与他们的价值观或信仰相一致的信息时,对识别虚假信息都存在着不足。恶意行为主体利用这一观察结果,在许多情况下将相同的虚假信息传递给目标用户。从多个来源接收相同内容的用户更容易相信并传播它。由于在线创建和发布内容的成本低廉以及社交媒体平台的广泛覆盖,各种替代主流媒体的平台在线媒介资源不断涌现。这些媒体经常散布虚假或高度偏见的声明。“另类媒体”的流行度也在上升,此类媒体来源经常发表虚假文章,伪装成事实的观点,甚至高度极化的阴谋论和与伪科学有关的文章。这些替代媒体来源发表具有政治动机的文章,通常直接挑战主流媒体发表的叙述。除了基于政治意识形态的预期目标受众之外,这些信息源还经常受到主流媒体消费者的关注,从而潜在加剧读者对合法媒体资源的不信任。

(3)社交媒体机器人。出于政治或经济原因,创建虚假新闻源的成本低廉及软件控制的社交媒体机器人的使用使舆论的塑造变得更加容易。虚假信息来源模仿主流媒体,却不遵守新闻诚信。信源依靠社交机器人来传播其内容,社交机器人模仿人类,发布内容,互相交流以及与真人互动,目标人群是那些更可能相信虚假信息的人。因此,人们很难区分人类或机器人发布的内容。首先,一旦创建内容,它们就会扩大与内容的互动,以加快虚假信息的传播速度。其次,机器人程序的目标用户是意见领袖,希望他们能够“转载”捏造的信息,以增加公众曝光率,从而提高其感知可信度。2017 年,Varol 等人的报告显示,Twitter 上有9%至15%的用户表现出机器人行为。2018 年,Twitter 暂停了7000 万个可疑账户,以打击假新闻。政治虚假信息是机器人的主要活动领域。在2016 年美国总统大选期间,社交媒体机器人产生了17 亿条推文,并且成功地将支持一名候选人的推文数量增加了四倍。

2.“信息污染“的生成诱因

社交媒体时代的虚假信息的生成因素与大众传播时代相较更为复杂,信息产品的社会总需求和总供给不仅受市场均衡调节,更依赖于信息产消者的偏好、传播技术和意识形 态。信息茧房和认知偏见导致人们相信那些即使没有经过官方认证但与他们的认知和情感一致的谣言。社交媒体信息流将用户封装成过滤器气泡或回音室。社交媒体过滤气泡使用户包围在志趣相投的人和信念一致的信息中。用户主动寻找和使用符合其现有心理模型,先验知识和记忆的信息,而不是从各种潜在冲突的来源中寻找信息。确认偏见进一步加剧了过滤器气泡。很多谣言被辟谣后但依然流传形成逆火效应,与人们固执的认知有关。

卡斯·桑斯坦研究表明,谣言通过“流瀑效应”和“群体极化”这两个不同但重叠的过程传播。流瀑效应产生的原因在于我们每个人都倾向于依赖他人的想法和行为,如果我们认识的大多数人都相信谣言,那么我们也倾向于相信。由于缺乏自己的信息,我们接受他人的意见。当谣言涉及一个我们一无所知的话题时,我们特别有可能相信它。群体极化是指当志趣相投的人聚在一起时,他们往往最终会想出一种更加极端的想法,然后才开始互相交谈。社会级联和群体极化是建立在亲密和信任的社会关系网络中,当人们对危及自身的公共安全事件恐慌时,若基于自己的知识和经验无法解释,就会通过值得信赖的人际传播媒介(口传或电子)在群体圈层里寻找信息,聊天是最频繁和常见的形式,聊天的过程和结果就是流言、谣言孕育、产生和传播。群体极化为谣言、流言的认可提供了肥沃的土壤。

二、“信息污染”治理路径

1.政策规制路径

政府制定针对社交媒体内容的政策法规和针对虚假信息发布者的法律法规,形成多主体监管(政府职能部门、社交媒体平台机构、用户)的虚假信息风险管理机制,净化社交媒体信息生态。

2018 年德国出台《社交媒体管理法》,严厉处罚社交网络平台上的“仇恨、煽动性言论、虚假新闻内容”,要求社交媒体企业在用户举报后24 小时内删除或屏蔽,争议言论内容一周内处理,否则面临5000 万欧元的罚金。2020 年为打击新冠肺炎疫情期间出现的危机国家安全、社会稳定的谣言,18 个国家的政府通过法令和紧急立法增加了反谣言的应对措施,不少国家对生产和传播新冠病毒谣言的造谣者处以监禁。如匈牙利政府疫情期间通过了一项新法律,将“虚假”或“扭曲”的新冠肺炎疫情信息定为犯罪,处以巨额罚款和最高5 年监禁。2020 年7 月24 日,中国国家网信办集中整治、打击商业网站平台、自媒体片面追逐商业利益,为吸引“眼球”炒作热点话题、违规采编发布互联网新闻信息、散播虚假信息等扰乱互联网传播秩序的乱象。2021 年1 月8 日又发布《互联网信息服务管理办法(修订草案征求意见稿),其中第二十六条扩展了危害国家、经济、社会的虚假信息范畴。

2.数字智能技术

近年来,基于图神经网络(GNNs)挖掘虚假信息的检测技术因其优越的性能而得到了广泛的研究。图神经网络(GNNs)是一类用于学习图中潜在节点表示的神经模型,已广泛应用于不同的图学习任务中,并取得了显著的成功。随后,基于图卷积网络的信源识别(GCNSI)被提出用于在不知道传播模型的情况下定位多个虚假信息源。GCNSI 采用谱域卷积,利用其多阶邻域信息学习节点表示,提高了对信源的预测精度。Bian 等人2020 年提出了一种新的双向图模型,称为双向图卷积网络(Bi-GCN),通过对虚假信息的自上向下和自下而上传播进行操作来探索这两种特性。其固有的GCN 模型使该方法具有处理图/树结构和学习高层表示的能力,更有利于虚假信息的检测。

社交媒体平台利用大数据、计算机深度学习和人工智能算法,通过“信源识别、网络干预、内容标记”来有效缓解虚假信息等信息污染的蔓延和传播。

①信源识别:识别参与制造和传播虚假信息的恶意来源。根据虚假信息的传播网络,利用其来源路径识别信息来源。拥有庞大粉丝群且有影响力的社交媒体用户可能是虚假信息迅速传播的源头。一旦确定这些“意见领袖”进行虚假信息传播,立即终止他们的帐户,通过减缓他们的影响来减缓虚假信息的传播。

②网络干预:利用各种算法技术来减缓和限制虚假信息的传播。大多数技术遵循独立级联模型或线性阈值模型的动力学、基于信息在用户社交网络上扩散的概念。干预的方法有两种,一是设计反虚假信息的级联,旨在减慢虚假信息级联;二是寻找移除虚假信息的最小节点集,以使信息污染的负面影响最小化。

③内容标记:社交媒体平台通常为用户提供将帖子“标记”为传播虚假信息的选项,一旦帖子获得足够数量的这些“标记”,通常会对其进行事实检查,如果发现是虚假信息,则随后会将其从平台上删除。

结语

谣言、假新闻等“信息污染”是数字传播生态下的副产品,代理人、内容、人工智能技术、在线社交媒体平台和易受感染的受众交织成“信息污染”的场域。代理人基于政治偏见或经济上获利的动机,生产、传播虚假信息,以实现对竞争对手的污名化或收割在线流量、骗取消费者的支持;虚假信息的内容伪装成新闻的外衣,刺激公众求知欲和猎奇的神经介质,从而攫取注意力;社交媒体机器人、算法推荐等人工智能技术自动生成和分发取悦于数字公民的信息,其中包括大量虚假信息;后真相时代的信息消费者对社交媒体提供的信息客观性求索已让位于主观性,更注重个人的信念和情感,在线社交网络中人际传播的强连接和弱连接关系、信息茧房和回音室效应加剧了虚假信息的二次传播。

社交媒体时代,谣言、假新闻等表征形态的虚假信息主要来自互联网及移动互联网,危及社会、经济、文化等安全。习近平总书记多次强调,没有网络安全就没有国家安全。治理“信息污染”的传播生态,在充分了解虚假信息生成逻辑和诱致因素的同时,需要发挥多主体和多路径的协同创新同边网络效应,即政府、互联网科技公司、主流媒体通过政策规制、数字智能技术、“社会雷达”的舆情监测和实时发声,抑制、净化在线社会信息系统的传播生态,建立根治“信息污染”的长效机制。

注释:

[1][2]Priyanka Meel,Dinesh Kumar Vishwakarma.Fake news,rumor,information pollution in social media and web.Expert Systems with Applications 153(2020)112986:1.

[3][4]Nicole A.Cooke.Fake news and alternative facts.ALA Editions,Chicago,2018.

[5]Sunstein,Cass R.On Rumors:How Falsehoods Spread,Why We Believe Them,What Can Be Done.Farrar,Straus and Giroux,New York,2009.

[6]Identifying the Root Content and Propagation Pattern of Fake News.Conference Papers,International Communication Association.2018.

[7] Michael Karlsson,Christer Clerwall.Cornerstones in Journalism.Journalism Studies,2019,20:8.

[8]Michael A.Peters,Sharon Rider,Mats Hyvnen,Tina Besley.Post -Truth,Fake News:Viral Modernity &Higher Education.Springer Nature Singapore Pte Ltd.,2018.

[9] Bill Kovach and Tom Rosenstiel.Blur:how to know what’s true in the age of information overload.Bloomsbury USA,New York,2010.

猜你喜欢
谣言社交污染
社交之城
社交牛人症该怎么治
中国使馆驳斥荒谬谣言
社交距离
坚决打好污染防治攻坚战
当谣言不攻自破之时
坚决打好污染防治攻坚战
谣言
谣言大揭秘