对抗攻击常用术语

2023-05-16

【时间】2018.12.22

【题目】对抗攻击(Adversarial attacks)的常用术语

概述

     本文是论文《Threat of Adversarial Attacks on Deep Learning in Computer Vision: A Survey》中Section 2 的翻译,主要讲述了对抗攻击(Adversarial attacks)的常用术语。

一、 对抗攻击(Adversarial attacks)的常用术语

    In this section, we describe the common technical terms used in the literature related to adversarial attacks on deep learning in Computer Vision.

    在本节中,我们描述了计算机视觉中与对抗性攻击有关的文献中常用的技术术语。

1.1 Adversarial example/image

    Adversarial example/image is a modified version of a clean image that is intentionally perturbed (e.g. by adding noise) to confuse/fool a machine learning technique, such as deep neural networks.

    对抗样本/图像是干净图像的一个修改版本,它被故意干扰(例如通过添加噪声)来混淆/愚弄机器学习技术,如深层神经网络。

1.2  Adversarial perturbation

     Adversarial perturbation is the noise that is added to the clean image to make it an adversarial example.

    对抗性扰动是指加到干净的图像中,使其成为一个对抗样本的噪声。

1.3 Adversarial training

    Adversarial training uses adversarial images besides the clean images to train machine learning models.

    对抗训练是指除了使用干净的图像外,还使用对抗性图像来训练机器学习模型

1.4 Adversary

    Adversary more commonly refers to the agent who creates an adversarial example. However, in some cases the example itself is also called adversary.

    对抗者更多的是指创造对抗样本的代理人。然而,在某些情况下,这个对抗样本本身也被称为对抗者。

1.5  Black-box attacks & ‘semi-black-box’ attacks

    Black-box attacks feed a targeted model with the adversarial examples (during testing) that are generated without the knowledge of that model. In some instances, it is assumed that the adversary has a limited knowledge of the model (e.g. its training procedure and/or its architecture) but definitely does not know about the model parameters. In other instances, using any information about the target model is referred to as ‘semi-black-box’attack. We use the former convention in this article.

    黑箱攻击向目标模型提供了不了解该模型而生成的对抗样本(在测试期间)。在某些情况下,假定对抗者对模型的了解有限(例如,训练过程和/或其结构),但肯定不知道模型参数。在其他情况下,使用任何关于目标模型的信息都被称为“半黑箱”攻击

1.6 White-box attacks

    White-box attacks assume the complete knowledge of the targeted model, including its parameter values, architecture, training method, and in some cases its training data as well.

    白箱攻击假定(对抗者)完全了解目标模型,包括其参数值、体系结构、训练方法,在某些情况下还包括其训练数据。

1.7 Detector

    Detector is a mechanism to (only) detect if an image is an adversarial example.

    检测器是一种用于(仅)检测图像是否是对抗样本的工具。

1.8 Fooling ratio/rate

    Fooling ratio/rate indicates the percentage of images on which a trained model changes its prediction label after the images are perturbed.

    欺骗率是指一个经过训练的模型在受到干扰后改变其预测标签的图像百分比。

1.9 One-shot/one-step methods & iterative methods

    One-shot/one-step methods generate an adversarial perturbation by performing a single step computation, e.g. computing gradient of model loss once. The opposite are iterative methods that perform the same computation multiple times to get a single perturbation. The latter are often computationally expensive.

    一次/一步方式通过执行一步计算,例如计算模型损失梯度一次来产生对抗扰动。相反的是迭代方式,它们多次执行相同的计算以获得单个扰动。后者通常在计算上很昂贵。

1.10  Quasi-imperceptible perturbations

    Quasi-imperceptible perturbations impair images very slightly for human perception.

    准不可察觉的扰动会轻微地损害图像,就人类感知方面而言。

1.11 Rectifier

    Rectifier modifies an adversarial example to restore the prediction of the targeted model to its prediction on the clean version of the same example.

    整流器(校正器)修改对抗样本,以将目标模型的预测恢复到其对同一示例的干净版本的预测。

1.12  Targeted attacks & non-targeted attacks

    Targeted attacks fool a model into falsely predicting a specific label for the adversarial image. They are opposite to the non-targeted attacks in which the predicted label of the adversarial image is irrelevant, as long as it is not the correct label.

    目标攻击欺骗了模型,使其错误地预测对抗性图像为特定标签。它们与非目标攻击相反,在非目标攻击中,对抗性图像的预测标记是不相关的,只要它不是正确的标记。

1.13  Threat model

    Threat model refers to the types of potential attacks considered by an approach, e.g. black-box attack.

    威胁模型是指一种方法所考虑的潜在攻击类型,例如黑匣子攻击。

1.14  Transferability

    Transferability refers to the ability of an adversarial example to remain effective even for the models other than the one used to generate it.

    可转移性是指对抗性范例即使对生成模型以外的模型也保持有效的能力。

1.15  Universal perturbation & universality

    Universal perturbation is able to fool a given model on ‘any’ image with high probability. Note that, universality refers to the property of a perturbation

being ‘image-agnostic’ as opposed to having good transferability.

    普遍扰动能够以很高的概率在任意图像上欺骗给定模型。请注意,普遍性是指扰动的性质是“图像不可知论”,而不是具有良好的可转移性。

 

本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

对抗攻击常用术语 的相关文章

  • Windows 7 镜像下载汇总

    Windows 7 官方原版操作系统 下载说明 xff1a 请右击迅雷下载或者开启迅雷 xff0c 然后复制地址迅雷会自动检测到 Windows 7 官方原版光盘镜像32位旗舰版下载地址 下载地址 xff1a 2 43GB ed2k fil
  • navicat连接虚拟机数据库

    连接服务器 mysql u root p 查看当前所有数据库 xff1a show databases 进入mysql数据库 xff1a use mysql 查看mysql数据库中所有的表 xff1a show tables 查看user表
  • web综合题(2)

    一 选择题 1 下列关于HTML中的CSS样式表的说法正确的是 xff08 C xff09 A CSS样式表的基本选择器有 xff1a 标记选择器 Id选择器和类选择器及后代选择 器 B CSS样式表仅具有继承性 C 对于定义样式div p
  • ubuntu20.04系统出现 仓库 “http://ppa.launchpad.net/fcitx-team/nightly/ubuntu xenial Release“ 没有Release文件

    我们进行 sudo apt get update 时 出现仓库 http ppa launchpad net fcitx team nightly ubuntu 有文件但是不能安装的问题 我看了很多文章 xff0c 也逐个试了没有得到很好的
  • 关于如何关闭项目里的Tortoise Git

    今天遇到了这个问题 xff0c 搜了一圈没找到相关的解决方法 xff0c 最后找到方法之后 xff0c 感觉自己就像个傻子 xff0c 这么简单的方法都没想到 解决方法如下 xff1a 只需要把图中最上方的 git 文件夹删掉就可以了 删掉
  • ES6之Module 的加载实现(1)

    1 浏览器加载 1 1传统方法 xff1a 在 HTML 网页中 xff0c 浏览器通过 lt script gt 标签加载 JavaScript 脚本 默认情况下 xff0c 浏览器是同步加载 JavaScript 脚本 xff0c 即渲
  • 我的2013年终总结——在苦与乐中成长

    写在前面 最近正好在三亚旅游 xff0c 空闲下来时 xff0c 便开始进行年终总结 由于去年年末较忙 xff0c 便错过了2012 年的年终总结 xff0c 所以本文将会对 2012 与 2013 两年一起进行总结 说说工作 学生 到 码
  • 走过2014,2015我将继续前行

    写在前面 一转眼 xff0c 一年时光就这么溜走了 在这辞旧迎新之际 xff08 这说法是不是很官方啊 xff0c 呵呵 xff01 xff09 xff0c 我将对即将过去的2014 年进行一番总结 xff0c 并对即将来临的 2015 年
  • 教程 | ROS中Gazebo版本升级更新以及环境太暗解决方案

    1 Gazebo升级 使用下列代码可将gazebo升级为该版本的最新版 xff0c 适用于gazebo7与gazebo9 添加源 sudo sh c 39 echo 34 deb http packages osrfoundation or
  • EKF_SLAM一般过程

    SLAM xff0c 同步定位与地图构建 xff0c 本文将介绍基于EKF的SLAM的整体过程 1 EKF SLAM Overview 当机器人处在个未知环境中时 xff0c 他最想知道的就是他在当前环境中的位置 环境不知道咋办 xff0c
  • 0.1+0.2 为什么不等于0.3

    目录 一 0 1 43 0 2的计算过程 1 十进制转成二进制 2 转成浮点数 3 浮点数相加 4 浮点数转成十进制 二 答案 三 拓展 一 0 1 43 0 2的计算过程 1 十进制转成二进制 在JS内部所有的计算都是以二进制方式计算的
  • 一起重新开始学大数据-hadoop篇-Day45-hdfs解析和zookeeper安装

    一起重新开始学大数据 hadoop篇 Day45 hdfs解析和zookeeper安装 hadoop启动脚本 详细启动脚本介绍 第一种 xff1a 全部启动集群所有进程 启动 xff1a sbin start all sh 停止 xff1a
  • arduino上ESP8266用Adafruit_SSD1306库驱动OLED屏

    关注 星标公众号 xff0c 不错过精彩内容 编辑 xff1a Tony 来源 xff1a 公众号TonyCode 在进行后续的ESP8266学习前 xff0c 我们先来对OLED屏进行驱动 xff0c 为后续学习提供直观的信息显示 1 安
  • Centos7 虚拟机无法上网,并且不能ping通主机,但是主机可以ping通虚拟机

    我在VM中安装了一个 CentOS 7 系统 xff0c 可是用 NAT 模式 只能宿主机ping通虚拟机 xff0c 虚拟机却ping不能宿主机 原因 xff1a VMnet8中的ipv4地址和WLAN无线网卡的ipv4地址冲突了 修改V
  • 元学习方向 optimization based meta learning 之 MAML论文详细解读

    元学习系列文章 optimization based meta learning Model Agnostic Meta Learning for Fast Adaptation of Deep Networks 论文翻译笔记元学习方向 o
  • Error:Flash Download failed - Could not load file ****.axf

    Error Flash Download failed Could not load file axf 原因 1 没有编译 解决办法 先编译再load 2 keil 没破解 解决办法 破解keil 具体方法 https www jb51 n
  • snorkel调用spark的调试

    目录 文章目录 目录前情提要主体内容bug01 ModuleNotFoundError No module named 39 models 39 bug02 No suitable driverbug03 java lang ClassNo
  • ubuntu 16.04 安装 hdf5-1.12 c++库

    到官网下载 hdf5的源码包 https support hdfgroup org HDF5 如果觉得官网的下载速度慢或者下载中断 xff0c 可以到github里面下载 xff1a https github com HDFGroup hd
  • aarch64服务器-安装python3.7

    aarch64服务器 安装python3 7 2 下载安装包 https www python org ftp python 3 7 0 Python 3 7 0 tar xz 3 配置安装环境 apt install libffi dev
  • Matlab多线程与多核运算, 以及GPU加速

    Matlab支持多线程多核运算 xff0c 并且可用GPU加速 软件版本 xff1a Matlab2015a windows10 43 i7 4710hq 16G 43 GTX860M 4G 当然 xff0c 在使用GPU之前 xff0c

随机推荐