对抗训练

"对抗训练"

Posted by zwt on August 30, 2021

基本概念

对抗训练是一种增量神经网络鲁棒性的方式,在实现的过程中,通过针对样本的扰动来使得网络进行适应变化,从而对对抗样本具有鲁棒性。

对抗样本一般特征:

1
2
1.相对于原始的输入,所添加的扰动时微小的
2.可以使得模型犯错

对抗训练概念:在原始的输入x中加入扰动$r_{adv}$,得到对抗样本参加训练。 \(\min _{\theta}-\log P\left(y \mid x+r_{a d v} ; \theta\right)\) 其中,y表示标签,$\theta$为模型的参数,在论文中给出的解释是,神经网络由于其线性的特点,很容易受到线性扰动的干扰,所以提出Fast Gradient Sign Method (FGSM)来进行扰动的计算,扰动定义为: \(r_{a d v}=\epsilon \cdot \operatorname{sgn}\left(\nabla_{x} L(\theta, x, y)\right)\) 其中sign为符号函数,L为损失函数,在论文中指出$\epsilon=0.25$的时候扰动比较成功。

1
对上面扰动的理解:将输入的样本朝着损失上升的方向再进一步,得到的对抗样本就可以造成更大的损失,提高模型的错误率。

攻击模式

白盒攻击:

1
获取到所使用算法的名称以及相关参数,在具体攻击时可以与系统进行交互

黑盒攻击:

1
不了解具体的模型,但仍可同系统进行交互,可以传递输入观测输出

无目标攻击:

1
对一个样本进行对抗样本的生成,促使系统对其分类错误,但是不关注其具体的类别

有目标攻击:

1
对一个样本进行对抗样本的生成,同时还可以指定其所属的类别

对抗学习

Towards Deep Learning Models Resistant to Adversarial Attacks中总结了对抗学习的一般形式: \(\min _{\theta} \mathbb{E}_{(x, y) \sim \mathcal{D}}\left[\max _{r_{a d v} \in \mathcal{S}} L\left(\theta, x+r_{a d v}, y\right)\right]\) 公式分为两部分,第一部分表示内部的损失函数最大,第二十外部的经验风险最小。同时,内部的max是为了找到最好的扰动形式,L为损失函数,S为扰动的范维空间。外部的min表示在当前所找到的扰动下找到最鲁棒的模型参数,其中D表示输入样本的分布。

传统的对抗学习都是在CV领域的,因为其输入天然的具有连续性,反思NLP问题,由于其输入时离散的单词序列,导致其无法直接在输入上进行扰动。论文Adversarial Training Methods for Semi-Supervised Text Classification中指出可以在连续的embedding中进行扰动。

FGM

1
2
3
4
5
6
对于每个x:
  1.计算x的前向loss、反向传播得到梯度
  2.根据embedding矩阵的梯度计算出r,并加到当前embedding上,相当于x+r
  3.计算x+r的前向loss,反向传播得到对抗的梯度,累加到(1)的梯度上
  4.将embedding恢复为(1)时的值
  5.根据(3)的梯度对参数进行更新

论文Adversarial Training Methods for Semi-Supervised Text Classification提出Fast Gradient Method(FGM)其假设输入的文本序列为$embedding vectors[v_1,v_2,…,v_T]$为x,embedding的扰动为: \(\begin{aligned} r_{a d v} &=\epsilon \cdot g /\|g\|_{2} \\ g &=\nabla_{x} L(\theta, x, y) \end{aligned}\) 与原始提出的FGSM做了一点改变,取消了符号函数,基于二范式做了一个scale。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
import torch
class FGM():
    def __init__(self, model):
        self.model = model
        self.backup = {}

    def attack(self, epsilon=1., emb_name='emb.'):
        # emb_name这个参数要换成你模型中embedding的参数名
        for name, param in self.model.named_parameters():
            if param.requires_grad and emb_name in name:
                self.backup[name] = param.data.clone()
                norm = torch.norm(param.grad)
                if norm != 0 and not torch.isnan(norm):
                    r_at = epsilon * param.grad / norm
                    param.data.add_(r_at)

    def restore(self, emb_name='emb.'):
        # emb_name这个参数要换成你模型中embedding的参数名
        for name, param in self.model.named_parameters():
            if param.requires_grad and emb_name in name: 
                assert name in self.backup
                param.data = self.backup[name]
        self.backup = {}
# 使用
# 初始化
fgm = FGM(model)
for batch_input, batch_label in data:
    # 正常训练
    loss = model(batch_input, batch_label)
    loss.backward() # 反向传播,得到正常的grad
    # 对抗训练
    fgm.attack() # 在embedding上添加对抗扰动
    loss_adv = model(batch_input, batch_label)
    loss_adv.backward() # 反向传播,并在正常的grad基础上,累加对抗训练的梯度
    fgm.restore() # 恢复embedding参数
    # 梯度下降,更新参数
    optimizer.step()
    model.zero_grad()

PGD

1
2
3
4
5
6
7
8
对于每个x:
  1.计算x的前向loss、反向传播得到梯度并备份
  对于每步t:
    2.根据embedding矩阵的梯度计算出r,并加到当前embedding上,相当于x+r(超出范围则投影回epsilon内)
    3.t不是最后一步: 将梯度归0,根据1的x+r计算前后向并得到梯度
    4.t是最后一步: 恢复(1)的梯度,计算最后的x+r并将梯度累加到(1)上
  5.将embedding恢复为(1)时的值
  6.根据(4)的梯度对参数进行更新

论文Towards Deep Learning Models Resistant to Adversarial Attacks中提出Projected Gradient Descent(PGD)。相较于FGM的一步到位,PGD的实现方式是多步走,如果走出扰动半径就拉回。 \(\begin{aligned} x_{t+1} &=\Pi_{x+\mathcal{S}}\left(x_{t}+\alpha g\left(x_{t}\right) /\left\|g\left(x_{t}\right)\right\|_{2}\right) \\ g\left(x_{t}\right) &=\nabla_{x} L\left(\theta, x_{t}, y\right) \end{aligned}\) 其中$\mathcal{S}=r \in \mathbb{R}^{d}:|r|_{2} \leq \epsilon$为扰动的约束空间,$\alpha$为小步的步长。

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
import torch
class PGD():
    def __init__(self, model):
        self.model = model
        self.emb_backup = {}
        self.grad_backup = {}

    def attack(self, epsilon=1., alpha=0.3, emb_name='emb.', is_first_attack=False):
        # emb_name这个参数要换成你模型中embedding的参数名
        for name, param in self.model.named_parameters():
            if param.requires_grad and emb_name in name:
                if is_first_attack:
                    self.emb_backup[name] = param.data.clone()
                norm = torch.norm(param.grad)
                if norm != 0 and not torch.isnan(norm):
                    r_at = alpha * param.grad / norm
                    param.data.add_(r_at)
                    param.data = self.project(name, param.data, epsilon)

    def restore(self, emb_name='emb.'):
        # emb_name这个参数要换成你模型中embedding的参数名
        for name, param in self.model.named_parameters():
            if param.requires_grad and emb_name in name: 
                assert name in self.emb_backup
                param.data = self.emb_backup[name]
        self.emb_backup = {}

    def project(self, param_name, param_data, epsilon):
        r = param_data - self.emb_backup[param_name]
        if torch.norm(r) > epsilon:
            r = epsilon * r / torch.norm(r)
        return self.emb_backup[param_name] + r

    def backup_grad(self):
        for name, param in self.model.named_parameters():
            if param.requires_grad:
                self.grad_backup[name] = param.grad.clone()

    def restore_grad(self):
        for name, param in self.model.named_parameters():
            if param.requires_grad:
                param.grad = self.grad_backup[name]
# 使用
pgd = PGD(model)
K = 3
for batch_input, batch_label in data:
    # 正常训练
    loss = model(batch_input, batch_label)
    loss.backward() # 反向传播,得到正常的grad
    pgd.backup_grad()
    # 对抗训练
    for t in range(K):
        pgd.attack(is_first_attack=(t==0)) # 在embedding上添加对抗扰动, first attack时备份param.data
        if t != K-1:
            model.zero_grad()
        else:
            pgd.restore_grad()
        loss_adv = model(batch_input, batch_label)
        loss_adv.backward() # 反向传播,并在正常的grad基础上,累加对抗训练的梯度
    pgd.restore() # 恢复embedding参数
    # 梯度下降,更新参数
    optimizer.step()
    model.zero_grad()

FreeAT

1
2
3
4
5
6
7
初始化r=0
对于epoch=1...N/m:
  对于每个x:
    对于每步m:
      1.利用上一步的r,计算x+r的前后向,得到梯度
      2.根据梯度更新参数
      3.根据梯度更新r

论文Adversarial Training for Free!提出FreeAT (Free Adversarial Training)。核心点在于优化PGD扰动的计算效率。 缺点:

1
FreeLB指出,FreeAT的问题在于每次的r对于当前的参数都是次优的(无法最大化loss),因为当前r是由r(t-1)和theta(t-1)计算出来的,是对于theta(t-1)的最优。

代码

参考

1.NLP中的对抗训练 + PyTorch实现 2.一文搞懂对抗训练 3.nlp中的对抗训练学习