编者按:今年的美国总统选举激发了大众对社交媒体所起到作用的激烈讨论。要想理清社交媒体的作用,对虚假信息的传播机制研究必不可缺。印第安纳大学计算机科学与信息学教授Filippo Menczer通过研究发现,鉴于我们的社交网络结构以及我们自身有限的注意力,一些信息得到病毒式传播是不可避免的,而且这与信息的品质无关。当然,这未必就意味着谣言无法被阻止,里面探讨了其中的一些解决方案。

美国选举话题标签的分享:点表示Twitter账号,线表示转发。点越大表示转发数越多。红色表示可能是僵尸账号,蓝色表示可能是人。

如果你像大多数美国人一样是通过社交媒体获取新闻的话,你一整天都会接触到恶作剧、谣言、阴谋论以及误导性的新闻。当这些跟可靠来源的可靠信息混到一起时,真相就很难辨别了。

实际上,我们哥伦比亚大学Emergent研究团队对数据的分析表明,这种错误信息就像可靠信息一样会病毒性流行。

很多人都在问,错误的数字化信息蜂拥而至会不会影响到2016年的美国大选。事实上我们并不知道,尽管根据过去的分析以及其他国家的案例,我们有理由相信这是完全有可能的。每一条错误信息对塑造我们的观点都构成影响。总体而言,造成的损害是非常真实的:如果大家会误信虚假信息,就像他们决定不参加免疫接种中所为一样,对我们的儿童生命构成危害的话,为什么就不会对民主构成威胁呢?

作为一名研究虚假信息在社交媒体传播的学者,我知道限制新闻造假者卖广告的能力是关键之一,最近Google和Facebook都朝着这个正确方向迈出了一步。但这并不能抑制出于政治动机的滥用。

社交媒体的开拓

大概10年前,我和我的同事进行了一项实验,我们发现72%的大学生信任那些似乎源自朋友的链接——甚至信任到往钓鱼网站输入个人登录信息的地步。这个普遍的漏洞说明了另一种恶意操纵形式的存在:大家可能会相信在点击通信录好友发来的链接时所接收到的虚假信息。

为了验证这一想法,我创建了一个虚假的网页,上面放了一些计算机生成的随机八卦新闻——比如“名人X与名人Y被捉奸在床!”之类的东西。因为搜索某个名字而来到网站的访客会触发一个脚本,自动伪造一个有关此人的故事。当然,我会在网站刊登免责声明,称网站包含有无异议的文字和捏造的“事实”。我还往网站上放了广告。一个月后,我收到了有关广告收入报告的邮件。这就是我的证据:假新闻开源用污染互联网的谎言赚钱。

令人悲哀的是,我不是唯一知道这个想法的人。10年后,我们已经有了制造假新闻以及数字化虚假信息的产业。骗点击的网站制造恶作剧病毒谣言,好通过广告赚钱,而所谓的超党派(hyperpartisan)网站则发布和传播谣言以及阴谋论,试图影响民意。

这个产业根基很深,因为制造由软件控制但看起来像真人并因此拥有真正影响力的社交机器人、僵尸账号实在是太容易了。我的实验室研究发现了很多虚假的草根活动例子,也就是所谓的“伪草根舆论”。

为此,我们开发了BotOrNot工具来检测社交机器人。工具不算完美,但是用来发现说服英国脱欧以及反疫苗接种活动已经足够准确。我们的同事利用BotOrNot发现,网上围绕2016年美国总统大选有很大一部分比例的话题都是机器人制造的:

有关加州疫苗接种法案的标签主题#SB277传播的可视化效果图,点表示利用该标签主题发推文的Twitter账号,点之间的连线表示转发带该标签主题的文章,点越大表示被转发数量越多。红点可能是机器人,蓝点可能是人。

制造信息泡沫

由于复杂的社会、认知、经济以及算法偏见,我们人很容易受到操纵数字化虚假信息的伤害。出于很好的理由其中一些已经发生演变:来自我们社交圈的信任信号,拒绝有违自身体验的信息,我们这个物种为了躲避捕食者而形成的这些东西发挥了很好的作用。但在今天这个正在萎缩的在线网络中,与位于地球另一半的一位阴谋论者建立社交关系并不能让我更加知情。

跟风朋友,取关与自己观点不同的人,这样我们得到的只能是被极化的回音室,以至于研究人员只用看看你的朋友是谁就能以极高的精确率说出你是自由派还是保守派。这个网络的结构是如此之稠密,以至于任何虚假信息几乎都能马上在一个群组内得到传播,但同时又如此的隔绝,以至于没法到达另一群人那里。

在我们的泡沫内,我们选择性地曝光与我们信念一致的信息。这是让互动最大化的理想场景,但是对于形成健康的质疑精神却是不利的。确认偏见(参见思维模式大全)导致我们甚至连文章都不读就分享(支持自己观点的)新闻头条。

我们的实验室就亲身经历过这样的教训,那是2014年临近美国中期选举的时候,当时我们的一个研究项目成为了一次恶意虚假信息传播活动的主题。当我们在调查发生了什么事情时,我们发现关于我们研究的假新闻故事在某个党派回音室内被Twitter用户大量分享,这是由政治活跃用户组成的一个很大规模的同质化社区。这些人迅速转发消息,对揭穿该信息的信息无动于衷。

反应推特圈回音室的一张图,在此图中,紫色点代表传播有关Truthy研究项目虚假声明的人;而寻求揭发该虚假信息的两个橙色的账号位于遥远的左侧。

病毒性传播不可避免

我们的研究表明,鉴于我们的社交网络结构以及我们自身有限的注意力,一些迷因得到病毒式传播是不可避免的,这与那些迷因的品质无关。即便个人倾向于分享更高质量的信息,网络作为整体并不能有效辨别可靠信息与虚构信息。这有助于解释我们在开放环境下观察到的种种恶作剧式谣言的病毒式传播。

剩下的就由注意力经济来掌控了:如果我们注意到某个中心话题,有关这一主题的更多信息就会被制造出来。与报道事实真相相比,捏造信息并将之当作事实传播的成本更低。而且捏造信息还可以根据不同的群组量身定制:保守派读到的是大家支持特朗普,自由派读到的则是支持希拉里的文章。而教皇保罗则保持中立。

受制于算法

既然我们无法关注到新闻流当中的所有文章,算法就决定了我们看到什么,不能看到什么。现在的社交媒体平台使用的算法设计时优先考虑的是互动(注:这方面可参见Tim O'Reilly:算法时代的媒体)——显示我们有可能点击、做出反应以及分享的文章。但最近一项分析发现,有意误导的页面至少能得到跟真实新闻一样多的网上分享和反应。

这种朝互动而不是真相倾斜的算法偏见强化了我们的社会化偏见和认知偏见。因此,当我们跟踪社交媒体分享的链接时,与通过搜索和访问排名靠前结果相比,我们看到的往往是范围更小、更同质化的一组来源。

已有研究表明,身处回音室会让人对未经核实的谣言更容易受骗上当。但我们需要对不同的人如何对一个恶作剧谣言作何反应有更多了解:有些人一看到马上就会分享出去,有的则首先进行事实核查。

我们模拟了一个社交网络来研究这种场分享与核实之间的竞争。我们希望这有助于理清那些相互矛盾的证据,即有关什么时候核实信息有助阻止谣言传播,什么时候不能阻止其传播。我们的初步结果表明,恶作剧谣言信众的社区越是隔绝,谣言存活的时间就越久。再次地,这不仅仅与谣言本身有关,网络也有很大关系。

许多人试图找到这个问题的解决办法。根据扎克伯格的最新声明,Facebook团队正在测试可能选项。还有一群大学生提出了一个办法,就是简单给分享链接添加一个“是否已经核实”的标签。

一些解决方案还无法实现,至少暂时不行。比方说,我们还不能训练人工智能系统来分辨真相与谎言。但我们可以告诉排名算法赋予更可靠来源更高的优先级。

研究假新闻的传播

如果我们可以更好理解坏信息是如何传播的话,我们就可以更有效地与假新闻作斗争。比方说,如果是机器人负责传播许多虚假信息传播的话,我们可以把注意力集中在检测机器人上。或者,如果问题出在回音室的话,也许我们可以设计不排斥不同观点的推荐系统。

最后,我们实验室正在开发一个名为Hoaxy的平台,它可以跟踪未社交媒体上面经核实的主张以及相应的事实核查的传播,同时对其进行可视化。这可以为我们提供现实世界的数据,通过这些数据我们就能通知我们的模拟社交网络。然后我们再对消灭假新闻的可能方案进行测试。

Hoaxy也许还可以为大家展示自己的看法被网上信息操纵有多容易——甚至还能给出我们分享网上虚假信息的可能性。Hoaxy将成为我们Observatory on Social Media工具套件的一部分,这样大家级苦役看到迷因是如何在Twitter上传播的。将这样的工具与人工核实结合,也许社交媒体平台减少重复努力和相互支持会更加容易些。

我们投入资源来研究这种现象已经势在必行。我们需要大家齐心协力:计算机科学家、社会科学家、经济学家、记者以及行业合作伙伴都必须一起协作,坚决反对虚假信息的传播。

 

社交媒体的以讹传讹:技术能拯救我们吗?

发表评论

电子邮件地址不会被公开。 必填项已用*标注