AI新威胁:神经网络后门攻击

深度学习模型具备天生的安全隐患,近些年的研究表明对输入深度学习模型的数据样本进行特殊处理后,可以导致模型产生错误的输出。因此这样的对抗样本实现了攻击深度学习模型的效果。如果我们在神经网络模型的训练过程中,采取数据投毒的方式对模型植入后门,也可实现攻击模型的目的。

【RSA2018】人工智能AI——网络安全的拨云见日,还是新的幻梦银弹

在RSA 2018 Day2 万众瞩目的开场Keynotes演讲中,无论是RSA的总裁Rohit Ghai还是微软总裁Brad Smith 都不约而同地表达了在数据和技术改变数字转型(Digital transformation) 的时代,IT技术及行业要承担起网络安全的第一责任,利用不断涌现的新技术,化被动为主动,为网络环境带来更美好的未来,为万物互联的社会和网络提供安全技术保障。其中最热的关键词就是:AI人工智能。