商务咨询

13020133833

技术支持

18621663782

您的反馈是我们前行的动力

人工智能可以修复假新闻吗?

文章发表于2021-01-12 10:34:01,归属【科技前沿】分类,已有1036人阅读

科技前沿

假新闻已经存在很多年了,但我们现在比以往任何时候都更担心它。人工智能是主宰真理还是探测真理?

 

蝙蝠翼类人、蓝皮肤山羊、双足无尾海狸、蓝宝石寺庙——这些都是英国著名天文学家约翰·赫歇尔爵士在南非的一个天文台将望远镜指向天空时亲眼目睹的景象。至少,这是《纽约太阳报》在1835年的一系列报道中所报道的。

这些报道引起了轩然大波,报纸发行量从8000份增加到了19000份。突然间,所有读过报告的人都相信月球上有一群欣欣向荣的蝙蝠人。

除了一个小细节,这些都不是真的。这些报道是《太阳报》编辑理查德·亚当斯·洛克(Richard Adams Locke)捏造的。

这一事件在历史上被称为伟大的月球恶作剧,但如果这一切发生在今天,我们会称它为:假新闻!

 

唐纳德·特朗普可能认为是他发明了这个在过去几年人气飙升的词,但这根本不是事实。假新闻已经存在很多年了,但我们现在比以往任何时候都更担心它。我们是如何从基本无害的“大月球骗局”变成“披萨门”丑闻带来的严重威胁的?

嗯,互联网的速度和规模让它变得糟糕了一百倍。正如《纽约时报》(New York Times)所解释的那样,在今年11月发布的三集系列电影中,虚假信息像病毒一样传播。

 

那么如何阻止病毒传播呢?

如果你问Facebook的首席执行官马克•扎克伯格,他可能会重复他今年早些时候在美国国会上所说的话:人工智能将解决这个问题。

但人工智能真的可以修复假新闻吗?机器有可能自动验证某件事的真假吗?更重要的是,人工智能能解决它一开始帮助制造的问题吗?

 

我们有麻烦了

关于人工智能和虚假信息的文章已经写了很多,但关于人工智能在全球假新闻的生产和传播中所扮演的角色,我们怎么说它都不为过。

生命未来研究所(Future of Life Institute)媒体和外延主管阿里尔·康恩(Ariel Conn)解释说:“当人工智能研究人员创建程序,修改视频,让视频看起来像是有人说了他们没说过的话,这让我们开始思考这项技术的道德含义。”

以美国前总统巴拉克•奥巴马(Barack Obama)的视频为例。这是南加州大学的研究人员为RadioLab节目“突发新闻”所做的一项实验。“如果你在电脑或手机上看到这个视频,你会相信吗?”

《RadioLab》于2017年7月播出。时间快进到2018年4月,仅仅几个月后,你就看到了一个改进版,这次作为公共服务公告发布在Buzzfeed上。事实证明:奥巴马并没有称特朗普为“彻头彻尾的白痴”。奥斯卡获奖导演乔丹·皮尔做到了——用他最令人信服的奥巴马声音。这段假音频与这位前总统的真实视频片段重叠在一起,令人信服。

用于制作这些视频的算法机器学习技术被称为深度造假(deepfakes),它允许任何人创建几乎任何一个人的高度逼真的模拟(只要你有视频和音频记录)。

但深度造假的真正问题在于,人们不再使用这种技术将尼古拉斯·凯奇随机添加到电影中,而是开始制作政治领导人说一些他们从未做过的话的视频,就像我们上面看到的那样。正如阿里尔·康恩(Ariel Conn)所说:“操纵别人将变得更容易,这非常令人担忧。”

那么,人工智能在这一切中处于什么位置呢?是治愈还是疾病?

要知道人工智能是否能帮助我们修复假新闻,我们首先需要了解机器学习是如何工作的。

机器学习是一门让计算机从数据中学习、识别模式并在最少的人工干预下做出决策的科学。这个想法是为了让机器随着时间的推移提高它们的性能,并变得越来越自主。

因此,为了将此应用于我们对虚假信息的打击,我们需要开发一种技术,能够分析数据,正确判断一段内容的真假。然而,包括Facebook欧洲人工智能研究总监安托万·博德斯在内的专家们表示,这说起来容易做起来难:

“如果是识别图像中的奇怪之处,那是机器能做的事情,但如果是解读文本的真假,那就深得多了。标记要复杂得多,这还不是机器能做到的。”

为什么?因为机器缺乏基本的人类技能,比如“理解、常识和将事物置于特定环境中”。

然而,这并不意味着研究人员没有不知疲倦地努力解决这个问题。在过去的几年中,关于这一主题的研究数量显著增加,有些研究实际上已经证明相当富有成效。

 

识别假新闻的最佳人工智能

在《麻省理工技术评论》(MIT Technology Review)上,卡塔尔计算研究所(Qatar Computing Research Institute)高级科学家、一项有关媒体机构可信度的新研究的研究人员之一普雷斯拉夫·纳科夫(Preslav Nakov)写道,尽管存在所有的怀疑,但他对使用机器识别假新闻持乐观态度。他仍然预测,这可能不会很快发生。

在纳科夫帮助进行的研究中,他们使用机器可以在没有人类干预的情况下分析的变量来训练他们的系统。他们对标题结构和词的变化进行了内容分析;评估网络流量;并通过测量社交媒体参与度来评估媒体组织的影响力。

在实验结束时,他们的最佳模型只在65%的情况下准确地将媒体机构标注为“低”、“中”或“高”可信度。

但分析媒体机构的可信度和识别假新闻是一场微妙的舞蹈。为了报道我们每天阅读的新闻,记者遵循——或者至少应该遵循——一丝不苟的方法和行为准则。没有电脑能掌握它。

 

全世界的人类和机器联合起来!

将人类和人工智能的优点结合起来可能是我们最大的希望。机器为我们提供了速度和可伸缩性,而人类将理解带到了表格中,并在评估文本准确性时考虑上下文和细微差别的能力。这也允许我们向系统提供更多的数据,并随着时间的推移改善其性能。

尽管如此,有必要强调的是,我们也在谈论新闻业,这是一种以人为中心的活动,遵循一系列严格的规则来获取真相。这就是为什么事实核查平台在这个假新闻谜题中占了很大比重。

我们采访了美国最受认可的事实核查网站之一Politifact的执行董事亚伦·沙罗克曼(Aaron Sharockman),谈论了人工智能在未来将扮演的角色,以及推动他们的真相测量的方法论。

他们有11名全职记者每天工作,筛选印刷或广播新闻中最重要的报道,以寻找可核实的事实。

然后,我们要做的第一件事就是问说话人你有什么证据证明这是真的?所以在美国如果你被捕了,在被证明有罪之前你是无辜的。在这里,在被证明无罪之前你都是有罪的。如果你说了什么,你应该有事实来支持它,来支持它。

然后,他们依赖于愿意公开记录的独立专家消息来源。

然后,作者会推荐一个判决或评级。我们用了六个等级,从真到完全的假。最后,它被提交给了一个由三名编辑组成的评审团,他们是评审团的成员,由他们来共同决定结果。

 

人工智能有可能取代它吗?

一台机器不可能让它的算法绕过它,但它可以帮助提高它的效率,并将信息发送给更多的人,根据Aaron Sharockman称:

“人们必须经常参与事实核查,帮助人们理解什么是真的,什么是假的。它最终是一个以人为本的系统。然而,也就是说,我认为计算机可以帮助使这个过程更有效率。所以我期待的是,计算机如何能让我的事实核查员,我们11个事实核查员之一,有能力将他们所写的事实核查数量翻倍?”

Sharockman进一步解释道:

“电脑怎么能把写一份事实核查的时间从六小时缩短到三小时呢?”其次,计算机和人工智能如何扩大我们的事实核查范围?这有两种方式。一种是简单的方法,我们发布事实核查,我们如何确保每个人都看到它?第二,不管我们做什么,错误的信息会继续传播,事实核查机构怎么可能靠近错误信息传播的地方呢?这是否意味着它会在另一个博客上重复,事实核查怎么可能与那个博客联系在一起呢?它是一个Twitter机器人在回复一个在Twitter上发布了一个糟糕链接的人吗?所以我想这些是我最兴奋的事情。我觉得他们会来的。”

 

赶上现实

到最后,我们感觉好像还在追赶现实。随着模拟和现实之间的界限越来越模糊,我们需要确切地知道我们在这项技术上所处的位置,以及它是决定真相还是探测真相。

来自未来生命研究所的阿里尔·康恩(Ariel Conn)并不确定我们是否有答案。“我有一种感觉,这将很像我们面临的所有其他威胁。在网络安全方面,我们几乎完全需要迎头赶上。但是一旦我们对这些威胁有了更好的了解,我们就能够创建非常好的程序来保护我们免受网络威胁。所以我认为人工智能也会一样,尤其是在最初阶段,它可能会迎头赶上。但希望它能变得更加积极主动。”

今天,关于信息的斗争是辩论的中心,而且损害是真实的。我们可能不是在煽动对外星人入侵的恐惧——我的意思是,我很清楚谁会是第一个在推特上谈论这件事的人——但我们正在传播的谎言可能会对我们的生活、我们的民主和我们的未来产生严重影响。科技只能帮我们解决一部分问题:我们需要控制自己的不良行为。