Can Machine Learning Model with Static Features be Fooled:an Adversarial Machine Learning Approach - 2019
Abstract
- 实验目标:为了评估机器学习算法在恶意软件检测中的漏洞,我们提出了五种不同的攻击方案来扰乱恶意应用程序,使分类算法对数据点集的判别函数进行不恰当的拟合,最终产生较高的误分类率。
- 实验过程:为了区分对抗样本和良性样本,提出了两种反防护机制来对抗攻击。在三个不同的基准测试数据集上进行测试,使用各种分类算法,并使用雅可比矩阵和最先进的数据中毒方法比较。
- 实验结果:生成的对抗样本很大概率可以躲避检测。