随着人工智能深度学习成为研究热点,其在医疗、生物,金融、自动驾驶各个领域皆有所应用,并且取得丰硕的成果。深度学习不同于传统的基于特征提取的机器学习,不需要使用者掌握太多的专业知识,只需调节好参数即可取得很好的效果,但对抗样本对于人脸识别也能导致错误分类造成影响。
人工智能深度学习应用极其广泛,人工智能安全也开始引起人们的**************,攻击者在正常样本中增加了细微的扰动,导致人工智能深度学习模型分类判断出现错误,这种行为称为对抗样本攻击。在汉斯出版社《计算机科学与应用》期刊中,有论文综述对抗样本攻击的研究现状,研究了对抗样本攻击的经典算法:FG、DeepFool、JA、CW,分析了这几种经典对抗算法的生成对抗样本的效率及其对深度学习模型的误导效果,为对抗样本检测和防御算法设计提供理论指导。