转载

OpenAI研究 扰动类型之间的对抗鲁棒性转移

我们研究了不同扰动类型之间深度神经网络的对抗鲁棒性的转移。虽然大多数关于对抗性例子的工作都集中在 大号大号∞的 和 大号2个大号2个的-有界扰动,这些不会捕获对手可用的所有类型的扰动。目前的工作评估了针对在 ImageNet 的 100 类子集上进行对抗训练的模型的 5 种不同类型的 32 次攻击。我们的实证结果表明,评估各种扰动大小对于了解扰动类型之间是否存在对抗性鲁棒性转移是必要的。我们进一步证明,针对一种扰动类型的稳健性可能并不总是意味着并且有时可能会损害针对其他扰动类型的稳健性。鉴于这些结果,我们建议对各种扰动类型和大小的对抗防御进行评估。