• 图案背景
  • 纯色背景

帮助中心 -k8凯发

热门搜索 :

疫情防护与辟谣

【澄清谬误 传递真相】:提升辨别力 识破网络谣言

发表日期:2023年11月28日

“澄清谬误 传递真相”系列辟谣访谈精彩观点


q:谣言产生的原因是什么?

a:从传播学来说,最大的因素是信息的不对称。谣言产生的原因很多。但是从传播学来说,最大的因素是信息的不对称。当大家需要去了解某方面信息,但是现实里面又没有该信息的准确渠道和来源。此时,谣言就容易出现并传播。


q:网络谣言的典型特点有哪些?

a:传播速度快、范围广、反复出现。第一是传播的速度特别快。此次新冠疫情跟2003年的非典相比,网络谣言的特征就是传播速度特别快,在短时间内通过社交媒体进行扩散。而2003年,很多疫情谣言的传播只能通过电话或论坛,传播渠道是有限的,所以传播速度没有这么快。第二是传播范围广,在很短的时间内就可以通过社交媒体覆盖很大的群体。第三是会反复地出现,比如两个月之前出现的谣言,辟谣之后过段时间,又会出现。有些谣言被辟谣之后,甚至在半年、一年、两年三年之后还会反复出现。所以,速度快、范围广、反复出现,我认为这是互联网谣言,尤其是卫生健康领域谣言的典型特点。


q:什么类型的事件更容易触发谣言的传播?

a:近两年关于疫情的谣言最多,还有一些健康类谣言。从现在的情况来看,近两年关于疫情的谣言是最多的,另外还有一些健康类的谣言。比如去年双黄连事件,一下子就传开了。很多人就去排队抢购双黄连,其实对于疫情而言,新冠病毒扩散风险是很大的。很多健康类的谣言,比如吃什么补什么,吃什么治什么等等,尤其是针对中老年人的健康谣言也是很多的。还有一类就是一些危言耸听的谣言,但是这些谣言传播的范围不广。近两年突出的现象,就是卫生健康领域里面的谣言特别多。


q:哪一个是令你印象最为深刻的?

a:印象深刻的,我觉得就是板蓝根和双黄连事件。比如在2003年的非典时期,广东一度流行抢板蓝根抢大米。但是去年在新冠疫情期间,网上这些类似的谣言又出现了,比如喝酒杀病毒、抽烟熏病毒、用醋来灭病毒等等。在2003年的非典时期出现过的谣言,17年后的今天又出现了。所以这些谣言的特点就是会反复地、重复地出现。


q:对于容易重复出现并引起公众恐慌的谣言,应该如何去应对?

a:应对谣言,我觉得有不同的角度。从民众的角度,我们要增加一些网络素养,对互联网上的信息,自己要有一些判断力,比如看信息的来源,它是新华网(等权威机构)发出来的,还是个人发出来的?如果是个人发出来的,没听过的,就要去交叉验证一下。还要看信息是谁说的,如果是专家说的,也要求证一下专家是否说过。有些谣言可能是借专家之口来传谣的,传播力也很大。从媒体机构的角度来说,要使用一些新的技术、平台,比如咱们(中国互联网联合)辟谣平台,通过新的平台和更好的技术进行及时的、更大范围的辟谣,帮助人们识别谣言。


q:对于我们大家来说,如何提升识谣辨谣的能力?

a:选择权威信息来源,对于社交媒体传播的信息,适当进行交叉验证。对于专业的人士来说,不信谣不传谣,说起来比较轻松。但是对于大多数的普通民众而言,要不信谣不传谣,对每一条重要的信息有辨别力,其实是有难度的。每个人的认知有差异,有些人以为是真的,有人以为是假的。在这种认知差异之下,我们怎么样来提升民众的网络素养,对于普通老百姓而言,需要更多地选择一些权威机构的信息来源。对于一些社交媒体传播的信息,可以适当地用一些验证机制,进行交叉验证。


q:如何看待“信念沟”现象?

a:“信念沟”是一个很重要的互联网现象。观念相同的人,就会形成一个群,观念不同的人,可能就退群,另外组成一个群。我们很多信息,可能就在观念相同的人群里传播,互相强化他们各自已有的认知。有案例说,在美国,还有几百万人相信地球是扁平的,而且有自己的网站、视频、社区和“世界扁平说”大会。他们形成一个封闭的群体,相信的人是一个群体,不信的人是另外一个群体。信息互相隔绝。还比如说,那些相信醋能治疗防止新冠病毒感染的,可能拉一个群,讨论什么醋好,不相信的人就退出来了,就形成一个“信念沟”。我们怎么样把辟谣信息输送进去,让他们知道,并说服他们,是一个比较复杂的工程。辟谣工作是一个系统的科学,是基于我们社会科学、互联网群体结构的研究等基础之上。这样来做辟谣,会更有针对性和更有效。


q:社交机器人的出现,您觉得是一个机遇还是挑战?

a:人工智能技术,我觉得可以用在我们辟谣里面。什么是社交机器人?是在社交媒体平台上,有一些人工智能的产品,以人的身份形成的一些自动化账号,自动发送信息,能够跟你沟通交流。这种人工智能的技术,我觉得可以用在我们辟谣里面。不仅可以节约大量的时间,还可以帮我们辟谣,达到事半功倍的效果。因为它的传输速度、扩散速度不是人工可以比的,而是主动地去传、去推送,会非常有助于我们抑制谣言的扩散。


q:从另外一个方面来说,社交机器人也有可能制造谣言,应该如何管控?

a:人工智能技术是一把双刃剑。对谣言要用技术手段进行识别,并做溯源处理。社交机器人是一个人工智能的技术,是一把双刃剑。社交机器人有“善意的机器人”,也有恶意地运用社交机器人。面对这样的社交机器人,我们怎么应对?第一,首先要有社交机器人的识别系统,从网络结构特征、蜜罐法等方面,通过机器学习来做识别。因为社交机器人作为一个人工智能的技术产品,它的技术水平、对话水平在不停地升级迭代。比如出现一种大规模的谣言时,应该马上来做一个识别,这是人做的自然的扩散,还是有人故意用社交机器人操纵或发布的?如果说是自然形成的,那么我们就从社会心理的角度,去应对解决谣言。如果是机器来扩散助推的,那么这就是恶意地制造谣言,故意混淆视听,我们就要用技术的手段进行识别,并做溯源处理。这些信息是从哪里发出来的?是怎么发出来的?这样我们才能掌控谣言的流向,并用技术的手段来应对,而不是用人工的手段去应对。


q:社交机器人在谣言应对和辟谣的过程中将扮演什么角色?

a:让社交机器人帮我们辟谣,帮我们扩散一些正确的信息。

今天我们的信息传播已经由农业社会的手工作坊,变为信息化社会的机器生产。由于我们的信息生产和扩散处于这种状态,那么我们就要用机器的手段来做一些辟谣的工作,让社交机器人帮我们辟谣,帮我们扩散一些正确的信息,这样两边的量级才是对等的,辟谣才是更有效的。


——张洪忠(北京师范大学新闻传播学院教授、博士生导师、新媒体传播研究中心主任)


来源:新网社

关注k8凯发

关注微信公众号

网站地图