网站首页 > 科技前沿> 文章内容

科学》杂志:假新闻跑得比真新闻快多了

※发布时间:2018-3-31 10:34:11   ※发布作者:habao   ※出自何处: 

  “当在穿鞋的时候,谎言已经跑遍了全城。”这句人们耳熟能详的名言最近得到了科学家们的确认。在2018年3月9日出版的新一期《科学》杂志上,麻省理工学院的三位研究者发表了一则迄今为止最大规模、最系统性的假新闻研究。他们分析了过去12年间的12.6万则新闻在推特上的情况,结果发现:假新闻跑得比真新闻更快、更深、更广,而跑得最快的假新闻类型则是新闻。

  同期的《科学》杂志还刊发了一则政策讨论的文章,16位美国学者总结了目前为止的假新闻研究,并为进一步的研究以及政策应对提供了。

  自从2016年的英国脱欧和美国以来,“假新闻”(ke news)就成为学界、、界以及大众关注的热门话题。尽管目前并没有扎实的研究确认这两次世界的投票结果是由假新闻驱动的,但我们的确能够看到:无论在脱欧投票还是在投票之前,有大量性的假新闻在社交上流传。最近,美国对“通俄门”的调查也已确证:俄罗斯方面的确通过Facebook、Twitter等主要社交平台了假新闻,以试图影响美国。

  和人人都从同样的少数几家获取信息的传统时代不同,社交时代大大降低了发布内容的门槛,人人都可以成为内容生产者。同时,以广告为基础的商业模式,让发布高点击量的内容成为一门有利可图的生意。因此,大量怀着逐利动机的个人和组织进入内容生产领域。BuzzFeed分析说,2016年美国期间,就有一批马其顿的青少年依靠在Facebook上假新闻获利不少。这些将假新闻视为摇钱树的人,和那些希望通过与假新闻来支持某个候选人或政策提案的人一起,成为了主力的假新闻生产者,他们的主要平台就是社交。当然,社交上并非只有这些信息“污染者”,也有大量生产真新闻的机构。根据《科学》杂志刊登的政策分析文章,区别正规机构和假新闻生产者的主要依据就是:前者有着组织化的流程和编辑守则,来确保内容的准确性和公信力;后者并不具有这样的守则,也并不愿意受这种规范的约束。

  这种流程和守则,是过去几十上百年间逐渐形成的,其中包括了大量可操作的原则。例如,重要的信息必须有两个以上信源“交叉印证”。界常说的“新闻专业主义”指的就是这些规范和原则。

  按照这篇政策文章的看法,辨别新闻的主要方式就是看信息是谁发布的如果是正规机构发布的,则一般认为可信;如果不是,则要打个问号。这种判断方法,比具体分析每一篇文章的内容,要高效得多,准确率也很高。

  在社交时代,真新闻的生产者和假新闻的生产者都在源源不断地产出内容,这些内容在同样的平台上竞争。那么,最终获胜的是谁呢?在《科学》杂志发表的这则研究之前,还没有哪一则研究对这个问题进行过大规模、系统性的分析。

  提供的数据,从2006年到2017年间的推特数据中挑选出了大约12.6万则消息,有300万人参与,次数达到450万次。这些消息有真有假,因此可以比较真新闻和假新闻的力。

  ,也即被转发的“层级”。比如B转发了A,C又转发了B,那么深度就是3。假新闻的深度超过线层,而真新闻的则基本不会超过10层。

  其次是人数,也即参与转发的帐号数量。线%的假新闻却可以给一千到十万人。从时间上来看,要到1500个人,真新闻需要花的时间是假新闻的6倍之多。

  第三是宽度,也即在任意一个层级上参与转发的最多人数。同样,力最强的真新闻,宽度只能刚刚超过1000,而假新闻则最多能达到好几万。

  ,这是研究者计算出来的一个数值,在这方面同样是假新闻更强。而如果将假新闻进行分类,研究者发现:最广的类型包括、都市传说和科学。而其中类的假新闻又是当仁不让的之王,比其他类型都传得更快、更广。

  在“假新闻力强”这个事实之外,研究者尝试分析背后的原因。会不会是因为假新闻的推特帐号粉丝更多、更有影响力?他们分析发现:恰恰相反,假新闻的帐号粉丝更少、更不活跃、更少被认证。也就是说,虽然这些帐号本身影响力不强,但假新闻却可以通过他们获得极强的力。

  会不会是因为机器人帮助了假新闻的?的确,推特上有很多机器人帐号,自动转发假新闻内容。研究者通过一套算法识别出机器人帐号后,将这些帐号排除在外,重新进行分析,但结果保持不变。也就是说,不管有没有机器人,假新闻都跑得更快。

  他们用自然语言处理的方法,测量了一个推特帐号在发布假新闻之前60天读到的推文和假新闻之间的“信息距离”。用大白话说,这些推文之间越“八竿子打不着”,信息距离就越大。

  除此之外,他们还研究了假新闻和真新闻引发的情绪反应。他们用一套最新的情感分析词库,测量了对这些新闻的回复。结果发现,人们对假新闻的常见情绪反应是:惊奇、恶心、害怕,而对真新闻的常见反应是:期望、悲伤、快乐和信任。

  既然假新闻天生比真新闻更有力,那就意味着,我们不能它们在平台上竞争。否则,胜出的肯定是假新闻。我们需要有干预的方式,去假新闻的,促进真新闻的。

  《科学》杂志的政策文章中提出了两种思。第一种思是提高个体辨识新闻的能力,包括提供更多的事实核查信息,以及进行媒介素养、思维方面的教育。作者认为,这两方面的工作固然重要,但是也都有局限性。

  对于事实核查,有研究表明,因为人在认知上存在更容易选择和接受自己已经相信的东西,所以对于事实核查的接受程度会比较有限。也就是说,

  对于教育项目,作者担心:会不会让人们对正规机构的信任程度也下降?当然,因为这是更长期的事情,目前还没有对其效果进行评估的研究。作者呼吁,应该尽快对这样的项目效果进行科学的评估。第二种思是在社交平台的层面进行干预,主要的干预方式是通过算法。

  目前,几乎所有的社交平台都根据算法来呈现和排列信息。比如你在微博时间线上看到的内容,并不是按照时间顺序排列的,而是微博公司根据一定的规则自动为你过滤和排列的,这种规则就是算法。《科学》杂志的作者指出:应该调整算法,给予真实、高质量的信息更多的权重,也就是让它们更频繁地出现在更显眼的上,而让那些错误、低质的信息出现在更不显眼的上。

  实际上,一些社交已经这样做了。去年,Facebook宣布调整算法,重视优质内容。然而问题是:很难评估这种改变是否有效,因为平台往往将算法的细节视为商业机密,也不愿意将数据向学界。

  政策文章的作者认为,这是很有问题的。今天,社交的作用如此重要,这些平台在商业利益之外,还应承担责任和社会责任,向研究者更多的数据和技术细节,以便评估其算法对社会产生的影响。

  他们还认为,社交平台彻底改变了我们的信息生态系统,我们需要更好的公共政策来干预和引导这样的生态系统,让它更少被假新闻污染。干预并不意味着进行审查,而是要基于的依据,对平台产生的影响进行科学的评估,然后制定相关政策。

  作者系大学学博士候选人,原南方周末记者。作者的公号“新闻实验室”(ID:newslab)致力于普及媒介素养,帮助大家更好地判断信息和质量。