阿里安全:安全AI将成未来网络安全问题新解法
作者: 日期:2019年01月14日 阅:23,299

想象一个场景:在未来世界里,出行有自动驾驶,穿衣有AI穿搭、AI机器人,住在AI打造的智能家居空间,AI会推荐更符合你身体所需营养成分的食品……看起来一切都便利了很多,但你会生活得更舒心、更安全吗?

“AI发展趋势是一定的,但AI应用来解决安全问题时并不能生搬硬套,需要根据实际场景进行AI的技术升级,”阿里安全图灵实验室负责人、资深专家薛晖(花名:奥创)近日接受记者采访时表示,安全会成为未来AI开发的最大挑战,“基于阿里安全在内容、新零售、知识产权等领域的对抗经验,我认为‘安全AI’会成为未来网络安全问题的新解法,也将在2019年迎来爆发期。”

阿里首提“安全AI”概念

无人驾驶、人脸识别、智慧城市、智能家居等各类场景中都在运用AI,但一旦后端控制系统被攻击,出现规模化、连锁式的崩盘,AI失控的后果不堪设想。

“比如,无人驾驶车要通过识别交通信号标志来决定是通行还是停止,而攻击者可以生成一个欺骗通行标志的对抗样本,在行人眼里是禁止通行,但AI系统会识别成允许通行,这足以造成灾难性的后果,”薛晖表示,其原理就是通过打造精确的攻击样本欺骗分类器。

“事实上,现在已经出现了数据投毒(指故意造成的数据污染)、对抗式生成网络伪造人脸识别等攻击手段,”薛晖表示,在大量的AI技术落地之前,安全AI需要引起足够的重视才能从源头上防范更多的风险,“在这个背景下,阿里安全提出‘安全AI’的理念。”

薛晖解释:所谓安全AI,是指安全场景中进化出的AI,拥有更强、更多元化的能力;与当前通用AI的理念不同,阿里安全更注重在业务安全领域垂直纵深的技术积淀,开发出适应更多安全场景的新一代AI,让传统的安全问题找到新的AI解法。

近期,基于问答技术、知识图谱和对抗样本等技术研发出的新一代AI验证码,就是阿里安全在安全AI领域的动作之一。这一产品原理是,通过AI挖掘生活常识类信息作为问答题库,并对原始图像有针对性的加入干扰,使得人眼识别不受影响,但会显著降低黑产AI打码的成功率。

基于安全AI理念,阿里安全图灵实验室推出的AI鉴黄师可识别图片、弹幕、语音等多维度信息

再比如,用AI判定互联网平台上对于违规视频的判定,除了计算机视觉技术之外,加入了语言、语音等多源网络的设计,比如视频画面、视频中的语音、弹幕和交互信息等多个维度。“知识图谱、多源网络、对抗样本等构建出更强、更安全的AI技术能力,可以有效防范攻击,降低风险,”薛晖表示。

安全AI将成网络安全问题新解法

薛晖带领的阿里安全图灵实验室近年来在安全AI领域的探索和研发已久,其成果被应用于风控、知识产权、智能云服务和新零售等商业场景,以及医疗、教育、出行等数亿用户相关的生活场景,已申请专利上百项。

未来趋势之下,AI仍将迅猛发展,在更多商业、工业和生活场景中落地。安全AI的核心理念就是让不可能变为可能,能极大解放人力,也将成为未来网络安全问题的新解法。

薛晖认为,2019年也将是安全AI的爆发之年,“欧盟刚刚出台《人工智能道德准则》,明确提出AI的发展方向应该是‘可信赖AI’,包含安全、隐私、透明等多个方面,AI应用正在成为一个社会问题,如何解决已经成为各界共同关注的话题。”

阿里安全一直坚持用技术解决社会问题,安全AI也在阿里经济体的多个业务场景落地。结合多年从事安全研发的经验,薛晖认为针对安全场景的AI设计,极限数据情况下的模型训练、实现不同业态与场景下的模型迁移、决策场景下的模型可解释性、强对抗场景下的模型安全性这四个方向将非常值得探索。

“以决策场景下的模型可解释性为例,端到端的深度学习一个广为诟病的问题是其不透明性或不可解释性,比如说识别一张照片中的物体,机器做出是的判断基于什么什么有效特征,我们无从得知。”薛晖认为,人工智能系统必须具有可解释性,以便人类可以理解系统的行为。

“在面临一些重大决策的情况下,比如患者被AI建议使用了某种很罕见的治疗方案、无人车或无人机没有按照既定的轨迹完成任务、或者AI被用来进行司法判决时,智能系统能够给出判断的依据甚至能够与人类交换想法,无疑是至关重要的。“薛晖指出。

 

申明:本文系厂商投稿收录,所涉观点不代表安全牛立场!


相关文章