Adversarial Robustness Toolbox 检测模型及对抗攻击的工具箱​

程序名称:Adversarial Robustness Toolbox

授权协议: MIT

操作系统: 跨平台

开发语言: Python

Adversarial Robustness Toolbox 介绍

Adversarial Robustness ToolBox 是 IBM 研究团队开源的用于检测模型及对抗攻击的工具箱,为开发人员加强 AI
模型被误导的防御性,让 AI 系统变得更加安全,目前支持 TensorFlow 和 Keras 框架,未来预计会支持更多框架。

支持以下攻击和防御的方法

  • Deep Fool

  • Fast Gradient Method

  • Jacobian Saliency Map

  • Universal Perturbation

  • Virtual Adversarial Method

  • C&W Attack

  • NewtonFool

防御方法

  • Feature squeezing

  • Spatial smoothing

  • Label smoothing

  • Adversarial training

  • Virtual adversarial training

Adversarial Robustness Toolbox 官网

https://github.com/IBM/adversarial-robustness-toolbox

相关编程语言

欧盟第7框架计划(FP7)的LarKC项目的目标是开发大规模...
Salad 是一种有效且灵活的实现著名的异常检测方法回...
multilanguage 是一个多语开发工具包,用于缓存多语...
go-cortex 是一个服务,通过倾听你的句子,并视图理...
DKPro Core 是基于 Apache UIMA 框架之上的自然语言...
NLTK 会被自然地看作是具有栈结构的一系列层,这些层...