菜宝钱包(caibao.it)是使用TRC-20协议的Usdt第三方支付平台,Usdt收款平台、Usdt自动充提平台、usdt跑分平台。免费提供入金通道、Usdt钱包支付接口、Usdt自动充值接口、Usdt无需实名寄售回收。菜宝Usdt钱包一键生成Usdt钱包、一键调用API接口、一键无实名出售Usdt。

首页社会正文

电报搜索bot(www.tel8.vip)_虚假新闻带来灾难性后果,但关于它的科学研究才刚刚起步

admin2022-06-0741

电报搜索botwww.tel8.vip)是一个Telegram群组分享平台,电报搜索bot包括电报搜索bot、telegram群组索引、Telegram群组导航、新加坡telegram群组、telegram中文群组、telegram群组(其他)、Telegram 美国 群组、telegram群组爬虫、电报群 科学上网、小飞机 怎么 加 群、tg群等内容。电报搜索bot为广大电报用户提供各种电报群组/电报频道/电报机器人导航服务。

,

引发公共卫生危机的虚假新闻

2000年,美国宣布已经在全国范围内消灭了麻疹。尽管2010年报告的病例只有63个,但在2019年开始后的7个月里,报告的病例数超过了1100个,增长了将近1800%。麻疹对儿童来说尤其危险,通常以发烧和起皮疹开始,但是在1000个病例中,有1个病例的病毒会扩散到大脑,引起脑肿胀和身体抽搐,或者引发脑炎。每20名患上了麻疹的孩子中就会有1名患上肺炎,从而导致肺无法从空气中汲取氧气并将其输送给全身。2017年,这种疾病以这样的方式夺走了全世界11万名儿童的生命。

当地时间2019年5月6日,美国佛罗里达州奥兰多,卫生局免疫部门。美国疾病控制和预防中心6日公布的数据显示,截至5月3日,美国当年已确诊764例麻疹病例,刷新25年来新高

麻疹也是世界上传染性最强的病毒之一。一个感染者的咳嗽会马上污染空气中的悬浮颗粒,即便他在你抵达前几个小时就已经离开了房间,你仍然有可能通过这些被污染的悬浮颗粒患上这种疾病。只要接触这种病毒,10个人中有9个人会被传染。2020年,每一个新冠肺炎病毒的感染者有可能传染的平均人数,也就是其R0值是2.5,而麻疹的R0值为15。

为了防止具有如此强大传染力的疾病在人群中传播,社会必须通过为绝大部分人口接种疫苗来发展“群体免疫”的能力。比如,以小儿麻痹症为例,这种病没有那么强的传染性,所以疫苗的接种率只要达到80%~85%就可以实现群体免疫。对于麻疹这种具有极高传染性的疾病,疫苗的接种率必须达到95%才能够实现群体免疫。令人遗憾的是,尽管从1963年开始就已经出现了一种有效的疫苗,但是按照专家的说法,麻疹在美国死灰复燃,是因为人们拒绝接种疫苗。虽然在2017年有91%的儿童接种了麻疹-流行性腮腺炎-风疹(或者简称为MMR)疫苗,但近年来一些社区的疫苗接种率出现了急剧下滑,正是在这些社区,麻疹病例的数量开始激增。

对我来讲,麻疹疫情的暴发好像就发生在我的家门口,因为我有一个7岁的儿子,而受麻疹疫情暴发影响最严重的群体,那个几乎占据了2019 年美国报告的麻疹病例一半以上的社区就是距离我家5个街区的、位于纽约布鲁克林的正统犹太社区。其他较大范围的暴发主要集中在一些关系紧密的社区中,比如纽约洛克兰的犹太人社区和华盛顿克拉克县的乌克兰裔以及俄罗斯裔美国人社区,在这些社区中,疫苗的接种率始终徘徊在70%左右,远远低于群体免疫所需的阈值。

如果麻疹如此危险,而疫苗又如此有效,那么为什么有些父母不愿意给他们的孩子接种疫苗呢?这可能要归咎于1998年在媒体上曾出现过的一波有关接种疫苗会发生危险的错误信息,这些错误信息来源于安德鲁·韦克菲尔德(Andrew Wakefield)在权威医学杂志《柳叶刀》上发表的一篇欺诈性的论文,他在文中声称接种疫苗会导致儿童出现自闭症。尽管后来的真相表明,韦克菲尔德当时被一个正在起诉疫苗制造商的律师收买,并且他自己也正在开发一种与之竞争的疫苗,所以他伪造了那篇论文中的证据。《柳叶刀》随后立刻撤销了这篇论文,韦克菲尔德也因此失去了行医执照。但是,通过一部由韦克菲尔德自己导演的、曾广为流传的电影《疫苗黑幕》(Vaxxed),以及在博客上传播的阴谋论的帮助下,结合当今社交媒体的催化,这波由他制造的错误信息的浪潮至今尚未平息。

为了处理这一“反疫苗”的错误信息引发的一系列的后果,美国参议院在2019年3月召开了一次公开的听证会。在这次听证会上,作为田纳西大学健康科学中心儿科系主任以及田纳西州孟菲斯市幸福儿童医院的首席儿科医生,乔纳森·卡勒斯(Jonathan Cullers)博士做证说:“除了田纳西州原有的关于疫苗豁免的政策以及在给出专业咨询意见时采用的方式有不当之处以外,通过社交媒体和各种快速的、多样化的通信渠道对一些非主流理论进行的放大,再加上缺乏权威意见的主动干预,一些错误信息立刻得到了强化。所有这些因素叠加在一起,正在导致……人们对接种疫苗的迟疑。当父母主要是通过互联网或社交媒体平台(如推特和脸书)来获取大量信息时,在缺乏准确信息的情况下,他们如果阅读到这些非主流的观点,就很有可能会产生担忧和困惑。因此,在没有更多信息的情况下,这些家长在面对是否该让孩子接种疫苗的问题时,或许就会表现出犹豫不决。”这些坊间的证据表明,在社交媒体上传播的错误信息正在使那些原本通过接种疫苗就可以防控的疾病(如麻疹)扩散开来,而这是非常令人担忧的。

2019年5月6日,在佛罗里达州奥兰多市奥兰治县卫生局里的麻疹疫苗

脸书上的反疫苗之王

拉里·库克(Larry Cook)把自己描绘成了一个“全职的反接种疫苗的活动家”,2019年,他成为脸书上的反疫苗之王。他建立的“停止强制接种疫苗”组织是一个营利性的实体,这个组织通过在社交媒体上传播反疫苗接种的虚假新闻来赚钱,同时通过在亚马逊上销售反接种疫苗的书籍来赚取介绍费。另外,他还通过在GoFundMe(众筹平台)网站上举办的活动来筹集资金,而筹集到的资金被他用来运营他的网站,支付他在脸书上投放的广告的费用以及他的个人账单。库克的“停止强制接种疫苗”组织和另一个由小罗伯特·F.肯尼迪(Robert F. Kennedy Jr.)领导的名为“世界水星计划”的组织在2019年购买了脸书上54%的反疫苗广告。

库克在脸书上投放的反疫苗广告瞄准的是在华盛顿州的25岁以上的年轻女性,这个年龄段的女性很有可能会有孩子,而她们的孩子需要接种疫苗。在脸书上,包括库克账号在内的一共7个不同的账号针对25岁以上的女性发布了超过150个帖子,这些帖子的浏览量为160万~520万,每1美元的广告投入收获了大约18次的点击量。对所有行业的企业来讲,在脸书上获得一次点击的平均成本在1.85美元左右。如果做一个简单的计算,你会发现库克的渗透具有极其惊人的效率,上面的数据表明,他每获得一次点击,只需要支付大约0.06美元。

2019年年初,在脸书上所有关于疫苗的搜索结果都已经被反疫苗的宣传所主导。而YouTube的推荐算法把用户“从基于事实的医疗信息推向了反疫苗的错误信息”,另外,“在Pinteres(拼趣)上,75%的与疫苗相关的帖子讨论的是麻疹疫苗和自闭症之间根本就不存在的联系”。在一份2019年发表的论文中,乔治·华盛顿大学的研究人员发现,俄罗斯的推特机器人发布有关疫苗信息的频率是普通推特用户的22倍,这就把有关疫苗的错误信息与俄罗斯尝试劫持炒作机器的行为联系了起来。

和政治类的虚假新闻一样,反疫苗的错误信息的集中程度也很高。《大西洋月刊》的亚历克西斯·马德里加尔(Alexis Madrigal)做出的分析显示,2016年1月到2019年2月,在脸书上排名前50的疫苗相关的页面中充斥着大量信息,这些信息几乎占到了全网排名前1万篇疫苗相关的帖子的一半,而且这些帖子获得了全部点赞数的38%。事实上,在这段时间里,仅仅7个反疫苗相关的页面就生成了前1万篇疫苗相关的帖子中的20%。

炒作机器的网络会高度集中在由具有相似的观点和信仰的人群所组成的关系紧密的社区中。今天,我们都生活在一个能够把志趣相投的人联结在一起的信息生态系统中。2019年和2020年,在纽约和华盛顿暴发的麻疹疫情都发生在人员志趣相投且关系紧密的社区中。就像俄罗斯的错误信息无须说服大多数的美国人来对选举结果产生影响一样,在社交媒体上开展的反疫苗活动也不需要通过说服大批人放弃接种疫苗来促使麻疹疫情重新暴发。要使疫苗接种的水平低于群体免疫所需要的阈值,他们只需要说服在同一个关系紧密的社区中的一小部分人,然后这些人就会互相分享这些错误信息。

通过分析7年以来260万名用户与30万个疫苗相关的帖子的互动,研究人员发现,在脸书上进行的与疫苗有关的讨论往往发生在那些关系非常紧密的社区中。上述研究结果还显示:“与疫苗有关的内容的消费已经被回声室效应所主导,而且观点的两极分化多年来一直在不断地加剧。从用户对这些信息的消费习惯中产生了一些相互之间完全隔离的社区……绝大多数用户在消费这些信息时要么倾向于支持,要么完全反对疫苗,而不会两者兼而有之。”华盛顿州的那些人员关系紧密的社区正是拉里·库克和反疫苗的奸商在投放他们的脸书广告时所瞄准的社区,而且这些社区也正是暴发了麻疹疫情的社区。

2019年年初,社交媒体平台注意到了这些现象,Instagram开始屏蔽与反疫苗相关的标签,比如“疫苗导致自闭症”和“疫苗是毒药”等;YouTube宣布不会再允许用户通过广告将反疫苗视频货币化;Pinterest禁止了用户搜索有关疫苗的内容;而脸书不再显示任何含有反疫苗内容的页面和群组,并调整了推荐引擎,不再建议用户加入这些群组,另外,他们还撤下了拉里·库克等人在脸书上购买的广告。那么,这些措施是否有助于减缓麻疹疫情的暴发呢?虚假新闻是否真的会推动那些原本可以预防的疾病的传播?所有问题的答案很可能就隐藏在当下正在兴起的关于虚假新闻的科学中。

虚假新闻的科学

尽管虚假新闻的崛起很可能给民主、经济和公共卫生带来潜在的灾难性的后果,但是关于它如何以及为什么会在网上传播开来的科学研究目前才刚刚起步。直到2018年,绝大多数有关虚假新闻的科学研究都只能分析很少的一些孤立的样本,或者针对某个故事的传播进行案例研究,而且每次研究的对象都是一些孤立的个案。所以,我和我的同事苏鲁什·沃梭基、德布·罗伊决定着手改变这一现状,2018年3月,我们在《科学》杂志上发表了已经进行了长达10年的关于虚假新闻在网络上传播的研究报告。

在这项研究中,我们与推特直接合作,研究了从2006年推特成立一直到2017年所有曾经在这个平台上传播的、经过事实核查的真实新闻和虚假新闻的传播方式。我们从推特的历史档案中提取了那些经过事实核查的虚假新闻的推文,其中包括大约12.6万条被反复转发的推文,这些推文经过300万人超过450万次的转发在网络上传播开来。在将有关新闻(推文)分为真假两类的过程中,我们使用了6家独立的事实核查组织(其中包括Snopes、Politifact、Factcheck.org等)提供的信息,而这些组织对相关新闻的真实性表现出了95%~98%的一致性。然后,我们又雇用了一些学生,让他们在麻省理工学院和威尔斯利学院的校园内独立核查上述几家事实核查机构在选择那些经过反复转发的推文时是否存在偏见。

一旦我们有了一个全面的数据库,其中包含自推特问世以来的10年间各种经过事实核查的谣言,我们就可以搜索有哪些推文曾经提到过这些谣言,然后通过反向追踪这些谣言的转发链条,找出“原始”的推文(即第一篇在推特上提到这些谣言的推文),这样我们就可以重建这些谣言在网上通过转发进行传播的整个过程(实际上,这个过程是众多拥有单一共同源头的完整转发链条所组成的集合)。在我们把完整的转发链条图形化以后,整个转发的过程呈现出了一种奇异的、让人感到非常陌生的形态。一般来讲,这个过程的图形会从原始的推文开始,呈放射状向四周发散,通过转发扩散开来,接着,每一个方向上都会形成新的转发链条,而这些链条看上去就好像是从中心向外延伸的水母的触须。我们在下图中画出了 这些虚假新闻众多转发链条中的一条(见下图),用数学的方式描绘了这些虚假新闻随着时间的推移在推特的用户群中不断被转发并传播的过程,进而分析了虚假新闻的传播是如何变得与真实新闻的传播不同的。

一个虚假的新闻故事通过推特进行传播的数据透视图像。长线条代表了更长的转发链条,显示了虚假新闻的传播范围更广,渗透程度更深。上述结果发表在《科学》杂志上

这个发现既让我们感到惊讶,又让我们感到担忧。我们发现,与所有类别的真实信息相比,虚假新闻会传播得更远、更快,而且渗透的程度会更深、范围会更广。有时候,后者甚至会超出前者一个数量级。虽然真实信息很少会扩散到1000人以上的群体中,但前1%的虚假新闻转发链可以很轻松地扩散到10万人的群体中。

把真实信息传播给1500人所需要的时间大约是把虚假信息传播给同样数量的人所需时间的6倍,而把前者的原始推文传播给10个转发人所需的时间又是把后者传播给同样数量的转发人所需时间的20倍。虚假信息的传播范围明显比真实信息更广,而且在转发链每个不同的“深度”层次上,虚假信息被转发的次数都比真实信息多(每一次转发都会将原始的推文传播得更远,在这个过程中就会产生一条新的转发链条,或者多次转发的层叠。在这样一条转发链条上,转发或层叠的次数就是我们所说的“深度”)。

与其他任何类别的虚假新闻相比,虚假政治新闻的传播范围更广,渗透程度更深,影响到的人更多,因此在网上的热度更高。虚假政治新闻影响超过2万人的速度几乎是其他所有类型的虚假新闻影响仅1万人的速度的三倍。涉及政治和都市逸闻的新闻的传播速度可以说是所有新闻当中最快的,也是网上热度最高的。即便对社交账号持有人的年龄、活跃程度、粉丝数量以及在原始推文下方进行评论的人数,甚至对原始推文的作者是不是一个经过验证的用户等各项因素进行控制,虚假信息被转发的概率仍然要比真实信息高出70%。

或许有人会认为,可以用传播虚假新闻的人的性格特征来解释为什么虚假信息的传播速度比真实信息的传播速度快很多,但数据告诉我们,情况并非如此。比如,有人可能会怀疑,那些传播虚假信息的人拥有更多粉丝,关注更多的人,更频繁地在推特上发帖,更经常地使用经过“认证”的账号,或者注册推特的时间更长。事实上,情况却恰恰相反。平均来讲,那些散布虚假新闻的人的粉丝数量明显更少,他们自己关注的人也寥寥无几,他们在推特上的活跃度非常低,而且几乎从不使用经过认证的账号,另外,他们注册推特的时间一般都很短。换句话说,尽管有上述这些差异,但虚假新闻比真实新闻传播得更远、更快,渗透的程度更深且范围更广的原因并不在这些人的身上。那么,虚假新闻为什么能传播开来,又是如何传播开来的呢?谎言在网上的传播,实际上是在一个人们意想不到的共生关系中,在相互协同的机器人与一些毫不知情的人类进行某种复杂的互动后得以实现的。

社交机器人和虚假新闻的传播

社交机器人(由软件控制的社交媒体账号)是虚假新闻得以传播的一个重要因素。当我们分析2014年俄罗斯在克里米亚进行的信息战时,我们已经从推特的数据中看到了这一点,而且在横跨了10年时间、范围更加广泛的来自推特的样本数据中,我们也看到了这一点。社交机器人在网上传播谎言的方式既令人感到不安,又令人非常着迷。

我在印第安纳大学的朋友和同事菲利波·门采尔(Filippo Menczer),还有他的同事邵程程(Chengcheng Shao,音译)、乔瓦尼·钱帕利亚(Giovanni Ciampaglia)、奥努尔·瓦罗尔(Onur Varol)、杨凯晨(Kai-Cheng Yang,音译)和阿里桑德罗·弗拉米尼(Alessandro Flammini)在2018年公开了迄今为止规模最大的关于社交机器人如何传播虚假新闻的研究。他们具体分析了2016年和2017年在推特上传播了40万篇文章的1400万条推文。他们的工作进一步证实了我们的发现,即虚假新闻在网上要比真实新闻更容易被传播。他们还发现,在传播来自低可信度来源的内容时,社交机器人扮演了一个很重要的角色。但是,社交机器人放大虚假新闻的方式令人感到非常惊讶,这也凸显出它们用来挟持炒作机器的程序是极其复杂的。

首先,在虚假新闻发布后的几秒钟内,社交机器人就会捕捉到这些新闻,然后自动进行大范围的转发,它们的程序就是这样设计的。所以,最初传播虚假新闻的人更有可能是机器人,而不是人类。回想一下我们在上图中演示的虚假新闻在推特中通过层层转发而形成的那种放射状的形态,这种形态的绝大部分都是由机器人形成的。接下来发生的事情验证了这种策略的有效性,因为之后的大部分转发都是由人类完成的。机器人早期在推特上的活动引发了人类不成比例的参与,所以这些被机器人捕捉到的虚假新闻开始形成众多不断向外延伸的转发链条,但最终还是需要由人类通过炒作机器的网络把这些虚假新闻传播开来。

其次,机器人会不断地提到一些有影响力的人。如果它们能够让一个有影响力的人来转发这些虚假新闻,那么这些虚假新闻马上就会被放大,而且还会被合理化。门采尔和他的同事用他们的数据举了一个例子。有一个机器人曾经19次提到了@realDonaldTrump(特朗普的推特账号),而且它每次都转发这样一条虚假新闻:在2016年的总统大选中,有数百万名非法移民也参与了投票。当有影响力的人士被愚弄并开始分享这些内容时,这种策略就起了作用。例如,特朗普曾经在很多场合转发过一些已经被确认是由机器人发出来的内容,这就使那些内容好像得到了证实,进而使这些错误信息在推特上被广泛地传播开来。实际上,正是特朗普将数百万名非法移民在2016年总统大选中参与了投票这一错误信息当成了官方的话题。

但是,如果没有人类,机器人就无法传播虚假新闻。在我们对推特进行的10年的研究中,我们发现,正是人类,而不是机器人,使得虚假新闻的传播比真相的传播速度更快、范围更广。在2016-2017年的研究中,门采尔和他的同事同样发现,正是人类, 而不是机器人,才是推特中最重要的虚假新闻传播者。最终,人类和机器人在虚假新闻的传播过程中共同扮演了某种共生的角色:通过诱导人类,机器人实现了虚假新闻的分享,而人类又通过炒作机器把虚假新闻传播到了更大的范围。任何利用错误信息开展的活动的最终目标都是对一些人进行误导,而且也只有人类才会进行诸如投票、抗议、抵制各种产品等一系列的活动,当然还包括决定是否让他们的孩子接种疫苗等。这些深层次的人类决策过程正是虚假新闻想要进行诱导并施加影响的对象,而机器人只不过是达成这一目的的工具。但是,如果人类就是虚假新闻活动的目标,而且对它们的传播还如此关键,那么我们为什么会被虚假新闻吸引?我们为什么还会主动分享这些错误信息呢?

虚假新闻

新奇性假设

一种解释是由我和苏鲁什·沃梭基、德布·罗伊提出的“新奇性假设”。新奇的东西会吸引人的注意力,因为它会让人感到惊讶并引起人们情绪上的共鸣,而且它还会更新或改变我们对这个世界的理解。新奇的东西会鼓励人们进行分享,因为它会在无形中传达出分享者的社会地位,分享者会被视为一个“知情人”或者能够接触“内幕消息”的人。在意识到了这些之后,我们决定利用我们在研究推特的10年间所搜集的数据进行测试,看一看虚假新闻是否真的比真实新闻更加新奇。我们还具体核查了推特用户是否更有可能转发那些看起来更加新奇的信息。

为了衡量所谓的“新奇性”,我们观察了那些既分享真实新闻,也分享各种谣言的用户,然后把谣言推文的内容与在用户决定转发这些谣言前60天内曾经接触过的所有推文的内容进行了比较。在多种不同的衡量新奇性的标准下,我们的发现始终都是一致的:虚假新闻确实比真实新闻更加新奇,而且人们也更倾向于分享一些新奇的信息。这个结果在所谓的“注意力经济”的背景下是完全符合逻辑的。在社交媒体中,本来就存在各种竞争非常激烈的思想和行为模式,正是在这样一种背景下,新奇性吸引了我们本就稀缺的注意力,激发了我们在网上看到的各种消费和分享行为。

虽然在我们的研究中,虚假新闻要比真相更加新奇,但用户很可能并不这么认为。所以,为了进一步测试“新奇性假设”,我们通过比较用户在回复这些谣言时表达出来的情绪来具体评估用户对真相和虚假新闻的感受。我们发现,虚假新闻会激起更多的惊叹和厌恶,而真相会激起更多的悲伤、期待、快乐和信任,所以这实际上已经证实了我们的“新奇性假设”。但这些情绪也揭示出,除了新奇性之外,还有哪些因素会刺激人们去分享那些虚假新闻。为了理解隐藏在虚假新闻背后的传播机制,我们不得不考虑人类对虚假新闻的敏感性。

我们对虚假新闻的敏感性

关于人类容易受到“错误信念”影响的科学,要比关于虚假新闻的科学发展得更加成熟,但不幸的是,即便是前者也没有能够得到定论。当下,在所谓的“古典推理”和“动机推理”之间还存在着一场争论。古典推理认为,当我们进行分析性思考的时候,我们能够更好地明辨真假。动机推理却认为,当我们面对关于错误信念的纠正信息时,我们的分析能力越强,就越会主动去“深入挖掘”并进一步加深对错误信念的投入,尤其是如果我们从一开始就已经对那些错误信念深信不疑。

我的朋友,同时也是我在麻省理工学院的同事戴 维·兰德(David Rand)与他的合作者戈登·彭尼库克(Gordon Pennycook)研究了哪种类型的人能够更好地分辨出虚假新闻。他们首先测试了具有认知反思能力的人是如何应对认知反思任务(CRT)的,然后询问这些人是否会相信一系列真实和虚假的新闻故事。认知反思任务测试的是一个人的反思能力。如果你让某个人解一道题:“购买一根球棒和一个球总共需要花费1.1美元,球棒比球贵1美元,那么球多少钱?”通常,很多人会飞快地给出一个很直观的答案,即10美分,但如果你回头再仔细思考一下,那么这个答案显然是错误的,因为如果球的价格是10美分,那么球棒的价格就是1.1美元,总共是1.2美元。这种类型的问题测试的正是人们的反思能力。兰德和彭尼库克发现,反思能力强的人能够更好地分辨真伪,并且能够更好地识别出对真实事件有明显倾向性的报道,这个结论实际上支持了古典推理的观点。

但是,不断地重复同一种说法会让人信以为真。如果一个人用虚假新闻反复地冲刷我们的头脑,我们就很有可能会相信它。这也被称作“虚假真实效应”,在多次重复接触某些错误信息后,我们就会倾向于相信这些信息。重复之所以会让人相信,是因为人们往往倾向于相信他们已经接触过的或思考过的东西,这就是所谓的 “证真偏差”。所以,当我们听到某些东西的次数越多,而且它与我们已经知道的某些东西一致时,我们就越有可能相信这些东西。类似的想法还导致一些认知科学家和政治科学家提出了这样的假设,即由于存在“证真偏差”的现象,任何用来纠正错误的信息都可能会起到反作用。当你试图让某些人相信,他们一直持有的错误信念实际上并不正确的时候,他们反而会更深入地挖掘那些错误的信念并深陷其中。但是,有关这种“逆火效应”的证据似乎并不充分。 例如,在三个不同的调查实验中,安德鲁·格斯和亚历山大·科波克(Alexander Coppock)表示:“即使在理论上极其有利的情况下,我们也没有发现任何这种群体强力逆反的证据。”

所以,反思确实可以帮助我们从虚假中辨识出真相。尽管信息的重复会让人倾向于相信,但是用于纠正错误的信息不一定会产生反向的效果,即便“证真偏差”带来的偏见确实会让我们更加相信我们已经知道的东西。这些发现向我们提供了与虚假新闻做斗争的线索。

制造虚假新闻的经济动机

俄罗斯对乌克兰和美国政治的干预,已经充分说明了制造虚假新闻背后的政治动机,但其中的经济动机也绝不应该被低估。制造虚假新闻的经济动机在马其顿的维尔斯地区展现得淋漓尽致。

维尔斯是一个马其顿境内的毫无活力的山城,这里大约有55000名居民,拥有两个电视频道,还有一些非常漂亮的教堂。历史上的一些著名人物和事件也出现在这里,比如奥斯曼帝国时期的大维齐尔,以及14世纪后期发生在塞尔维亚和奥斯曼帝国之间的一场战争。但对维尔斯的全球历史地位做出过最大贡献的,或许还是那些2016年美国总统大选期间在这座城市里到处游荡的无法找到工作的年轻人,因为他们发现了,炒作机器是如何通过在网上传播虚假新闻而让他们发财致富的。

维尔斯的年轻人首先创建并推广了数百个不同的网站,这些网站通过社交媒体的广告网络向美国的选民传播了各种虚假新闻。像谷歌这样的公司会在互联网浏览器上投放广告,然后再依据不同的网站吸引的高质量用户的数量来向网站创建者支付报酬。维尔斯的年轻人发现,通过创建各种网站,再利用社交媒体的网络来推广其内容,他们就可以赚到很多钱。阅读并分享他们文章的人越多,他们赚到的钱就越多。

他们发现,虚假新闻可以吸引更多的读者,而且,正如我们在自己的研究中发现的那样,人们在网上分享虚假新闻的可能性要比分享其他内容的可能性高70%。所以,这些年轻人会首先通过创建虚假的账号来放大一些文章的信息,一旦相关的趋势算法注意到了这些文章,这些虚假的新闻故事就会受到广播效应的推动,这些文章就可以被传播给更多的人,并扩展到网络中的新区域。接着,我们看到的就是铺天盖地的虚假新闻了,而且就在美国民众还在前往投票站的路上的时候,这些虚假新闻就已经把他们完全淹没了。当大量的资金流向某一个方向的时候,虚假新闻却正在朝着另一个方向流动。就在2016年总统大选前几个月,当维尔斯的大街上挤满了崭新的宝马车时,整个美国却已经被虚假新闻的洪流吞没了。维尔斯小城只不过是其中的一个例子而已。2019年全年,虚假新闻网站收获了超过2亿美元的广告收入。虚假新闻现在已经是大生意了,当我们准备推出解决这个问题的方案时,我们必须认识到这一经济现实。

电视中的虚假新闻

现实的终结

不幸的是,到目前为止,我所描述的一切,从股市的崩盘到麻疹疫情的暴发,再到对选举的人为干预,这些实际上还算一些比较好的消息,因为在虚假新闻的时代,一切都只会变得更糟糕。我们正处于“合成媒体”这个崭新时代的边缘,有些人担心这将把我们带入“现实的终结”。这样的描述听起来或许有些夸张,但毫无疑问的是,在制造虚假新闻的领域,技术创新正在以非常危险的步伐快速向前迈进。各种“深度造假”技术的发展正在生产出极具说服力的“人工合成的音频和视频内容”,这些内容甚至比文本类的虚假新闻更有可能愚弄我们。“深度造假”技术已经可以使用深度学习(一种基于多层神经网络的机器学习的方式)创造出超现实的虚假视频和音频内容了。如果说眼见为实,那么,与我们迄今为止见过的任何虚假媒介相比,下一代的虚假媒介内容更能让我们完全信服,而这是极其危险的。

2018年,电影导演兼模仿秀演员乔丹·皮尔(Jordan  Peele)与BuzzFeed(新闻网站)合作制作了一段“深度造假”的视频。在视频中,奥巴马把特朗普称作“彻头彻尾的蠢猪”。虽然视频看上去就像是真的,但这显然是虚假新闻。在视频中,当皮尔让奥巴马说出“现在,我根本不可能说出这样的话来……至少绝不会在公开的演讲中这样说”的时候,他让那个明显是他捏造的形象开玩笑般地点了点头。也就在这一年的晚些时候,CNN(美国有线电视新闻网)记者吉姆·阿科斯塔(Jim Acosta)和白宫实习生在新闻发布会上发生了争吵,这一争吵的加速版视频使阿科斯塔拒绝放下手上麦克风的行为显得更加暴力,所以这段视频后来还被用来为吊销阿科斯塔的记者证辩护。曾经在电影中扮演过替身的特技演员后来告诉记者,他们经常使用这种技巧,这使他们在电影中的出拳和踢腿看起来更有攻击性。

“深度造假”技术的基础是一种被称作“生成式对抗网络”(Generative Adversarial Networks,后简称 GANs)的特定类型的深度学习技术,它是伊恩·古德费洛(Ian Goodfellow)在蒙特利尔大学读研究生期间首次开发出来的。有一天晚上,当他和其他研究生一起在当地的一家酒吧里喝啤酒时,古德费洛遇到了一个和机器学习有关的问题,即如何训练一台电脑自己创建照片,这个问题已经困扰了他的朋友很长时间。传统的方法遭遇了惨败。但是,就在那天晚上,在喝了几品脱啤酒之后,古德费洛居然顿悟了。他开始设想,是否可以通过让两个神经网络相互对抗来解决这个问题。这就是GANs的最初设想,脸书人工智能研究部门的前负责人杨立昆(Yann LeCun)把这项技术称作“在过去的20年里深度学习领域中最酷的想法”。这也正是隐藏在那段视频背后的操控奥巴马把特朗普称作“蠢猪”的技术力量。

GANs把两个神经网络凑到一起,让它们进行对抗:其中一个被称作“生成者”,它的工作就是制造出各种合成媒体的内容;而另一个被称作“判别者”,它的工作就是去判断有关的内容是真的还是假的。“生成者”会从“判别者”的决策过程中了解到自己的缺陷,然后以此为基础去优化它所创造的合成媒体的内容,这样,它创造出来的视频和音频就会越来越有说服力。事实上,“生成者”的全部工作就是最大限度地提高它欺骗“判别者”的能力,使其误以为那些合成的视频或音频的内容是真实的。想象一下,有这样一台机器,它被设置在一个超级循环中,不断地试图让自己变得越来越擅长愚弄我们。在一个GANs技术正在以指数级速度不断改善的世界里,我们将要面对的未来很可能是一个现实扭曲的世界。

当然,GANs技术还可以被用在好的方面,比如在高能物理的实验中生成让人信服的合成数据,或者加速药物的研究和发现,但是这种技术可能对地缘政治和经济造成的伤害令人感到不安。美国国务院前反恐事务协调员丹尼尔·本杰明(Daniel Benjamin)和克林顿政府与奥巴马政府国家安全委员会反恐事务高级主任史蒂文·西蒙(Steven Simon)曾描绘了这样一幅可怕的画面:“你很容易就可以想象出那些伪造的视频可能会带来何种巨大的破坏,比如你可能会看到一段视频,上面出现的是伊朗的外交官员正在与恐怖分子合作商讨袭击美国的目标,或者你还可以简单地捏造一段新闻,内容是伊朗或朝鲜的军队正计划对任意某个目标进行先发制人的打击……这样的虚假新闻很可能会导致一场战争,或者后果同样严重的是,它们可能会阻碍一个国家对真正的威胁做出反应。”

“深度造假”的音频已经被用来诈骗一些企业了,金额高达数百万美元。2019年夏天,赛门铁克公司的CTO(首席技术官)休·汤普森(Hugh Thompson)披露,他的公司曾经注意到,好几个客户遭到了“深度造假”的音频攻击。攻击者首先用长达数小时的公开录音资料对一套GANs系统进行了训练,这些公开资料的内容包括了其中一家公司的CEO在接受新闻采访、发表公开演讲,以及在财报电话会议上发表讲话时留下的所有语音文件,还有在国会面前做证时留下的语音录音。利用这些音频文件,攻击者建立了一个系统来自动模仿这名CEO的声音。例如,他们会打电话给公司的CFO(首席财务官),然后利用模仿的声音假装是公司的CEO,要求CFO立即将数百万美元电汇到他们控制的银行账号上。 这个系统并不是只能发送预先录制的信息,而是可以将攻击者的声音实时地转换成为这家公司CEO的声音,这样他们就可以进行一 场“真实”的对话,并且回答任何CFO有可能会提出的问题。由系统合成的CEO的语音是如此逼真,再加上一个为什么需要马上安排转账的好故事,比如不马上转账的话公司很可能会失去一笔大买卖,又或者他们必须在这个财务季度即将结束的时候赶上某个即将到来的截止日期,那么此时这家公司的CFO就很有可能会按照要求进行转账。汤普森还透露,这样的攻击每次都会让目标公司损失数百万美元。

乔丹·皮尔在与Buzzfeed一起制作出那段关于奥巴马的“深度造假”视频时曾这样说过:“这听起来可能很简单,但是在信息时代,我们如何继续向前发展,将意味着我们是选择继续这样生存下去,还是选择坠入某种混乱的深渊。”想要理解某种“混乱的深渊”是否就是我们的命运,我们必须理解炒作机器的工作方式。而想要做到这一点,我们就需要回到一些基本的原则上,从深入了解炒作机器的工作机制开始,然后再具体地审视社交媒体对我们的大脑产生的影响。

本文节选自《炒作机器:社交时代的群体盲区》。

《炒作机器:社交时代的群体盲区》,【美】锡南·阿拉尔/著 周海云/译,中信出版集团,2022年5月版


网友评论