司马态掮
2019-05-30 03:22:00

病毒过去是无害的。

Chewbacca妈妈在Facebook上获得了超过1.62亿的观看次数, ,结束了“The Ellen DeGeneres Show”。 ,让朋友们在精心上演的视频上进行合作。 Tay Zonday在2007年在YouTube上演唱了他的“巧克力雨”民谣,并 。

但是在过去的几年里,巨魔学会了如何将趋势时刻变成传播错误信息的工具。 与方式相同,巨魔们已经想出如何利用人们想要在社交媒体上分享的内容,并用它来推广暴行和假新闻。

这一影响比白天脱口秀节目更为严重 - 人们普遍认为, 以及在线的日益分裂的环境 现在Facebook和Twitter面临批评他们已经失去对平台的控制,因为称为“热门话题”。

特别是对于俄罗斯来说,病毒式内容已成为一种强有力 今年9月,Twitter发现了201个与俄罗斯相关的账户,致力于传播虚假的愤怒,而Facebook发现大约有 。 这些账户假装是 ,他们主要讨论双方,其主要目标是制造噪音。 总而言之,Facebook上的虚假账户已被看到超过1000万次,这仅仅是赞助内容。

社交媒体公司与国会会面

如果虚假新闻是为了误导人们,假冒伪斗就是为了分裂而分散注意力。 通过 ,俄罗斯巨魔能够在推动人们进一步分开的同时埋葬合法新闻。 冲突有助于各国有效控制其宣传,这是2014年批准的详述的关键战略。

“网络安全不再是为了保护我们的数据免遭盗窃,”来自弗吉尼亚州的民主党众议员Don Beyer上周在网络安全听证会上表示。

“这也是为了保护我们的民主,使其免受将网络攻击与影响行动结合起来的虚假宣传活动的影响。”

俄罗斯杂志RBC调查了一项俄罗斯拖钓行动,并发现在2016年美国总统大选高峰期,它在Facebook上 (该文章来自俄罗斯杂志,尚未翻译。 英文 ) 。

以下是俄罗斯巨魔如何利用社交媒体有效地在美国造成严重破坏。

说说它吧

走向病毒并不像翻转开关那么简单,但对于俄罗斯巨魔工厂而言 - 在社交媒体上可以获得 ,它可能也是如此。

大西洋理事会数字取证研究实验室的国防和国际安全分析师Ben Nimmo将制造的病毒内容描述为一个三步过程。

“宣传者的目标是传播你的信息,最好的办法就是让人们为你做这件事,”尼姆说。 “你不能告诉一百万人该做什么。你需要得到10个人,而且他们会把它分散开来。”

该活动的目标是获得关于趋势标签的话题,这意味着他们的假冒行为已成为主流。

Nimmo一直在跟踪的传播, 。 通过所有的活动,他发现了三个阶段的攻击:

  • 牧羊人的账户由高度活跃和有影响力的人经营,并开始了一个热门话题。 但像@TEN_GOP这样的牧羊人账户,这是一个俄罗斯支持的账户,伪装成田纳西州的一个保守派团体,对巨魔想要扩散的特定问题表示愤怒。 @TEN_GOP拥有115,000名粉丝,并与迈克尔弗林和等知名球员互动。
  • 牧羊犬帐户跟随并且也由人类管理。 他们转发故事并添加激进的评论,以表明这是一个合法的病毒时刻,而不是一个捏造的趋势。
  • 一旦宣传得到解决, 绵羊账户就是机器人,仅仅是为了吸引人工转发和喜欢。 成千上万的不受控制的转发让旁观者相信捏造的论点是一个真正的问题,很快就会变成一个。

攻击并不总是成功,Twitter在发现僵尸网络活动方面变得更好。 巨魔总是有一条细线,必须走路以确保他们的战役能够传播而不被抓住。

Nimmo说:“如果你做得太多,那么你就会被发现。如果你做得太少,你就不会感染病毒。”

Twitter称其已采取措施防止机器人自2014年以来一直欺骗流行趋势主题列表, 。 在Nimmo讨论过程之后,它每天平均发现130,000个牧羊人账户。 Twitter发言人表示,去年,其自动化系统每周捕获320万个可疑账户。

虽然很容易发现机器人,但人类控制的运动却难以发现。

“识别非自动协调非常棘手,无意中沉默合法活动的风险要高得多,”Twitter说。

全球预警

当Facebook宣布它已经发现数百个俄罗斯帐户伪装成争论美国问题的团体时,对Moira Whelan来说这听起来太熟悉了。

惠兰在2014年担任美国国务院数字战略助理部长时,记得曾在Facebook上发布关于这件事的警告。 这是乌克兰与俄罗斯冲突的高峰期,惠兰与来自其他国家的国务院官员一起向Facebook宣传了制造业争论的增加。

Bob Schieffer对假新闻的斗争,信息超载

“他们的算法对'生日快乐'和'祝贺'之类的事情有反应,但对战斗也是如此,”惠兰说。 “俄罗斯人会模拟这些战斗,并且它会在人们的饲料中出现。我们把它带到了Facebook的注意力,并没有记录成问题。”

Facebook没有回复评论请求。

惠兰曾经注意到俄罗斯垃圾邮件堵塞了大使馆Facebook页面的评论,企图淹没真人。 然后它在2014年突然停止,当时俄罗斯开始占领乌克兰。 新策略转向虚假新闻和模拟战斗的增加。

他们利用了Facebook的算法,这是Lior Abraham在帮助创建新闻Feed时从未预料到的。

亚伯拉罕曾在2007年至2013年期间在Facebook工作,担任工程师,负责开发新闻提要的关键功能,以及创建名为的数据分析工具。

当他帮助建立新闻源时,目标始终是促进与朋友和家人的接触,而不是政治话语。

“我们当时只会优先考虑分手故事和照片,”亚伯拉罕说。 多年来,该算法将被调整为包括更多的人工智能和更少的人性化。

但是对于参与的关注将争论推到了最前沿,创造了亚伯拉罕几乎无法识别的新闻源。

“这与创建社区的最初使命相反,”亚伯拉罕说。 “你只是在划分更大的社区。”

因此,如果你注意到你的Facebook Feed变得更加负面,那是因为它的算法一直在推动争论,Whelan说。 随着机器人的兴起,以及巨魔变得越来越复杂,要判断那个与你争论的人是否真实,这就变得越来越难了。

管理愤怒

这些宣传活动在社交媒体上是成功的,因为它们使用与企业相同的策略。

他们使用像Facebook的CrowdTangle这样的工具,跟踪流行和热门帖子。 这些拖钓操作还可以全天安排帖子并支付推广内容 - 就像任何其他社交媒体经理一样。

这些账户通过拥有数千个僵尸账户来推动他们的指挥参与,从而获得了不公平的优势。

“如果你的新闻编辑室里的每个人都转发了你的故事,那很好,但那是35人左右,”惠兰说。 “他们已经达到30,000或更多。”

哥伦比亚大学Tow数字新闻中心的研究主任乔纳森·奥尔布赖特仔细研究了这些假账户的运作方式,并注意到他们与企业的相似程度。

他看到了交接时间和营销工具,帮助巨魔为更多人提供帮助。

“他们真的推动了愤怒和负面反应,”奥尔布赖特说。 “他们使用的是垃圾邮件发送者使用的相同分析工具。他们看到了最热门的故事,看看人们已经对此感到愤怒,并将其置于政治叙事中。”

这篇文章最初出现在