记者攻击白宫女实习生?机器学习虚假视频再引热议
作者:星期一, 十一月 12, 20180

11月7日,CNN刺头记者吉姆·阿科斯塔( Jim Acosta )在新闻发布会上与特朗普互怼,过程中白宫一名女实习生试图夺下阿科斯塔的麦克风。事后,白宫发言人萨拉·桑德斯( Sarah Sanders )公布了一段被篡改过的视频,看起来好像是阿科斯塔攻击了那名白宫女实习生。

只要看过两段视频就能明白原版被编辑过了。经篡改的视频最先出现在极右翼阴谋论网站Inforwars编辑保罗·约瑟夫·华生(Paul Joseph Watson )的推特上,而且被篡改成好像是阿科斯塔以空手道手刀劈了那名女实习生的样子。记者“抱歉,女士”的话语也被做了消音处理。

除了消音和将镜头拉近阿科斯塔的手臂,华生有没有做其他篡改目前还不清楚。Buzzfeed News 报道称,这种视频变GIF动图的转换处理可能是该视频太抖的缘故。GIF的帧率比常规mp4视频可小得多。

降帧处理和拉近放大后看起来是会有点不一样,我可没故意‘加速’或‘歪曲’这段视频。你们这都是诬蔑。

该事件凸显出视频被篡改的容易性及其巨大的危害——攻击者可以随意侵害记者、政治家、公司、品牌等目标的声誉。与采用机器学习给视频中人物配话的“Deepfake”不同,这种低技术含量的篡改视频很接地气,模糊了真实与虚假之间的界线。

安全界的人都很熟悉FUD(恐惧、不确定和怀疑),将FUD当成武器大范围扩散可对公司及个人造成极大伤害。而防御FUD却极为困难。阿科斯塔对女实习生动粗的怀疑一旦被种下,绝大部分看客都不会忘记那些细节并怀疑这可能是真的。

企业受到声誉侵害会导致股价暴跌,并造成客户和股东可能不再信任公司任何好消息的长远影响。

这就是FUD的真正危险之处:当没人能确定什么是真什么是假时,攻击者就能很容易地操纵公众、消费者或股东了。抵御这种攻击非常困难,因为即便公司或个人没做错什么,也依然要面对声誉受损的结果,就好像无辜的CNN记者阿科斯塔那样。

今年早些时候,被参议员 Marco Rubio 称为核武器现代版的机器学习虚假视频技术引发广泛讨论。但此后人们发现,不需要机器学习那么高端的技术,没什么技术含量的篡改视频也能起到造谣的效果。

比如,4月中旬,屡获奥斯卡奖的著名演员、编剧、导演乔丹·皮尔( Jordan Peele )就通过一段虚假视频向公众发出警告。在视频中,奥巴马总统的发言被消音,与其口型同步放出的是皮尔的声音,看上去就好像奥巴马在大肆攻击政敌,甚至直言“特朗普就是个彻头彻尾的大傻帽”。这还只是良心导演公益性质的防虚假视频宣传,目的是为了提醒公众注意鉴别虚假视频,尽量从可信来源获取真实信息。

但如果官方造假呢?

A startling video of former President Obama calling President Trump a “complete dipshit”.

完整视频地址:

https://youtu.be/cQ54GDm1eL0

相关阅读

用虚假语音指令入侵谷歌、亚马逊的仿人工智能

Deepfake:一款与核武器同样危险的软件工具

网络安全新威胁:虚假新闻

 

分享:
0

相关文章

写一条评论

 

 

0条评论