基于机器学习发起网络攻击的六种方式
作者:星期四, 二月 1, 20180

机器学习算法能改进安全解决方案,帮助人类分析师更快地分类威胁和修补漏洞。但同时,黑客也能利用机器学习发起更大更复杂的攻击。

机器学习被定义为“计算机未经显式编程情况下的学习能力”,是信息安全行业的一大福音。从恶意软件到日志分析,再到早期漏洞发现与修复,安全分析师可从机器学习中获益良多。或许,该技术也能提升终端安全,自动化重复性任务,甚至降低数据泄露的发生率。

于是,人们很自然地认为,这些智能安全解决方案会比传统遗留工具更快地发现并阻止下一波WannaCry攻击。人工智能和机器学习尚属新生领域,但无疑指明了未来的方向,将极大地改变安全运营方式。

现下数据和App爆炸式增长,除非运用建立在AI基础上的自动化系统,否则我们将无法分析这海量的网络流量和用户交互活动,安全也就沦为空谈了。

然而问题在于,黑客也知道这些技术,也想打造自己的AI和机器学习工具来发起攻击。

网络罪犯是怎么利用机器学习的?

有组织犯罪越来越多,暗网上也出现了各种各样的黑客服务,网络罪犯们的创新速度令安全防御追赶不及。于是,像机器学习和深度学习这样的新兴技术就颇为令人担忧了,毕竟,技术就在那里,谁都能用。

尽管机器学习、深度学习和AI之类技术可能是未来网络防御的基石,但网络罪犯们围绕这些技术的实现和创新可谓劲头十足,丝毫不比安全界差。网络安全领域中,经技术放大的人类智慧,将成为攻防竞赛中的制胜因素。

或许,未来真的会出现 AI vs AI 的景象——《终结者》风格的。在攻击者越来越能有效探索被攻破网络的大背景下,今年可能就是我们在网络安全领域见证 AI vs AI 的第一年。安全提供商肩上的担子更重了,他们必须要能打造出更自动化更智能的解决方案。

自治响应是网络安全的未来。算法应能采取明智且有针对性的缓解动作,减缓甚或阻止正在进行中的攻击,同时又不影响正常业务活动的开展。

当前,野生的机器学习攻击尚未见诸报端,但犯罪团伙已经开始利用某些技术了。

1. 杀软规避功能更强的恶意软件

网络罪犯们的恶意软件创建工作很大程度上是手工作坊式的。他们编写脚本制作计算机病毒和木马,利用Rootkit、口令刮取器、键盘记录器等工具辅助病毒和木马的传播与执行。

如果他们能加速这一过程会有什么后果呢?机器学习可以用来辅助创建恶意软件吗?

用机器学习创建恶意软件的首个例子出现在2017年,是在一篇题为《为基于GAN的黑盒测试产生敌对恶意软件样本》的报告中提出的。报告作者编写了一个基于生成性敌对网络(GAN)的算法来产生敌对恶意软件样本,这些样本甚至能绕过基于机器学习的检测系统。

同样是在2017年,DEFCON大会上,安全公司Endgame利用马斯克的OpenAI框架创建出定制恶意软件,安全引擎对这些AI恶意软件视而不见。Endgame是通过修改恶意二进制文件的某些部分来骗过杀毒引擎的,修改后的代码看起来无害而可信。

其他研究人员则预测,机器学习最终将能基于实验室检测的方法和结果来实时修改代码。这基本算是多态恶意软件的扩展。

2. 智能僵尸网络用于可扩展的攻击

安全公司飞塔认为,2018年将是“蜂巢网络”(hivenets)和“机器人集群”(swarmbots)之类自学习系统年,“智能”IoT设备可被用于发起大规模网络攻击。这些设备将能相互通信,并基于共享的本地情报采取行动。另外,僵尸主机也会变得更聪明,不用其控制者显式干预即可自行执行命令。因此,蜂巢网络将会像蜂群一样呈指数级增长,极大增强其同时攻击多个受害者的能力,并大幅阻碍缓解及响应措施。

有趣的是,这些攻击并没有利用集群技术,蜂巢网络并没有能够从其以往行为中自行学习。作为AI的分支,集群技术被定义为“去中心化自组织系统的自然或人工的群体行为”,如今已经应用在无人机和新兴机器人设备中。

3. 高级鱼叉式网络钓鱼变得更聪明

机器学习的恶意用途中一个较为明显的方面,是用语音朗读、语音识别和自然语言处理(NLP)之类的算法进行更智能化的社会工程攻击。毕竟,通过递归神经网络,人类已经能教此类软件写文章了,所以在理论上,网络钓鱼邮件也是可以变得更复杂巧妙而可信的。

尤其是,机器学习能令高级鱼叉式网络钓鱼邮件更针对那些位高权重的人士,而且能自动化整个钓鱼过程。可以用真实邮件来训练这些系统,让它们学会产生看起来令人信服的邮件。

迈克菲实验室的2017预测中曾说,网络罪犯将会更多地利用机器学习来分析大量被盗数据记录,识别出潜在受害者,编写出语境丰富、说服力强的钓鱼邮件。

另外,2016年的美国黑帽大会上,研究人员提交了一篇题为《武器化数据科学的社会工程应用:在推特上自动化E2E鱼叉式网络钓鱼》的论文,其中展示了一个可以学习向目标用户发送钓鱼推文的回归神经网络。论文中名为SNAP_R的神经网络经鱼叉式网络钓鱼渗透测试数据训练后,可动态运用从目标用户及其关注用户处按时间轴抽取的推文主题,来构造出更加可信的社会工程攻击,增加恶意链接的被点击率。

该系统相当有效。在涉及90名用户的测试中,此框架成功率在30%到60%之间,相比人工鱼叉式网络钓鱼和群发网络钓鱼邮件可谓有了长足进步。

4. 威胁情报失去控制

涉及机器学习,威胁情报也算是祸福兼有的事物吧。一方面,在误报横行的时代,机器学习系统可帮助分析师识别出多个系统中的真正威胁。机器学习带给威胁情报的主要好处有二:第一,海量数据的处理和结构化,包括其间复杂关系的分析,是仅靠人力几乎无法解决的问题,而给人辅以机器的处理能力,意味着分析师可以更有效地识别并响应新兴威胁;第二,自动化可以将没什么技术含量的琐碎工作批量完成,极大增加分析师能处理的事务数量。

但是,网络罪犯也会快速适应,简单地再次过载警报即可。迈克菲CTO格罗布曼曾指出过一种被称为“提升噪音地板”的技术。黑客将使用该技术通过产生大量误报来让机器学习模型习以为常。而一旦目标将自身系统重新调整到略过这些误报,攻击者就可发起能逃过该机器学习系统的真正攻击。

5. 未授权访问

早在2012年,就出现了在安全攻击中应用机器学习的案例。3名研究人员使用支持向量机(SVM)攻破了reCAPTCHA验证码系统,准确率高达82%。此后,所有验证码机制都经过了改进,直到2016年,研究人员才用深度学习再次攻破此类系统。此时,用深度学习对简单验证码取得的准确率升到了92%。

去年的黑帽大会上,“我是机器人”的研究项目揭示了研究人员如何攻破最新的语义图像验证码,并比较了多种机器学习算法。该研究中的方法对谷歌的reCAPTCHA验证码取得了98%的准确率。

6. 机器学习引擎中毒

用于检测恶意软件的机器学习引擎也是可以被下毒致瘫的,这种方法虽然简单粗暴,但依然有效,就好像网络罪犯以前对杀软引擎所做的那样。机器学习模型从输入数据中学习,如果该数据池就是带毒的,那么其输出自然也免不了有毒。纽约大学的研究人员展示了卷积神经网络(CNNs)是怎么被安插后门以产出错误结果的,谷歌、微软和AWS之类CNNs都没逃过机器学习中毒的毒手。

相关阅读

机器学习的能与不能

机器学习如何帮助黑客

 

分享:

相关文章

写一条评论

 

 

0条评论