AI新威胁:神经网络后门攻击
深度学习模型具备天生的安全隐患,近些年的研究表明对输入深度学习模型的数据样本进行特殊处理后,可以导致模型产生错误的输出。因此这样的对抗样本实现了攻击深度学习模型的效果。如果我们在神经网络模型的训练过程中,采取数据投毒的方式对模型植入后门,也可实现攻击模型的目的。
复制并粘贴此 URL 进您的 WordPress 站点来嵌入
复制并粘贴此 URL 进您的站点来嵌入