zoukankan      html  css  js  c++  java
  • SNN对抗攻击笔记

    SNN对抗攻击笔记:

    1. 解决SNN对抗攻击中脉冲与梯度数据格式不兼容性以及梯度消失问题:

    • G2S Converter、Gradient Trigger[1]

     

    2. 基于梯度的对抗攻击方式:

    • FGSM[1-3]
    • R-FGSM[3]
    • I-FGSM[3]
    • BIM[1]
    • PGD[2]

     

    3. 图像转化到脉冲序列的采样方式:

    • Poisson事件生成过程[1-9]

     

    4. SNN类型:

    • SNN-conv(ANN-SNN Conversion)[2-7, 9]
      • 采用的神经元模型
        • IF神经元模型[2-7, 9]
        • LIF神经元模型[4]
      • Trick
        • 阈值平衡[2-5]
        • 权重归一化[5, 9]
    • SNN-BP[1-4, 8]
      • 替代梯度法:
        • 分段常数函数(迭代LIF神经元模型)[1]

        • 脉冲时间相关函数(IF/LIF神经元模型)[2, 4]

        • 阈值相关函数(IF/LIF神经元模型)[3, 8]

    5. 影响对抗攻击效果的因素分析:

    • 损失函数、发放阈值(倒数第二层)[1]
    • 输入量化、时间步骤数、泄漏因子[2]

     

    6.对抗攻击类型:

    • 白盒攻击、目标/非目标攻击[1]
    • 白/黑盒攻击、非目标攻击(这里的黑盒攻击是由具有相同网络结构但不同初始化的ANN创建的)[2]
    • 白/黑盒攻击、目标/非目标攻击[3]

     

    7. SNN/ANN-crafted攻击的比较:

    • 在独立攻击场景中,所有白盒攻击成功率都相当高[1]
    • 利用ANN-crafted的对抗样本来欺骗SNN模型是非常困难的[1]
    • 在黑盒设置下,ANN-crafted攻击比相应的SNN-crafted攻击强[2]
    • 在白/黑盒设置中,SNN-crafted比ANN-crafted具有更强的攻击能力[3]
    • 尽管在白盒设置中,SNN的精度下降要高于ANN,但SNN对黑盒攻击的抵抗力要比ANN高得多[3]

     

    8. SNN/ANN健壮性的比较:

    • 白盒攻击SNN模型比白盒攻击ANN模型需要更多的扰动,这反映了SNN模型具有更高的健壮性[1]
    • 在白/黑盒攻击下,与SNN-BP网络的非脉冲对应以及SNN-conv网络相比,SNN-BP网络具有更强的健壮性[2]
    • 对于白/黑盒攻击,SNN-BP比SNN-conv具有更强的健壮性[3]

     

    9. SNN中神经元的选择:

    • 在SNN(ANN)中每个卷积层、平均池化层和全连接层之后,都跟着LIF神经元(ReLU激活)[3]
    • 为了避免负值,使用ReLU激活,然后用IF神经元替代ReLU激活[5-7]

    10. SNN中池化的选择:

    • SNN
      • 在SNN中,激活是二进制的,执行最大池化将导致下一层的大量信息丢失[3-6]
    • SNN-conv
      • 将VGG的最大池化层用平均池化替代[2]
      • 最大池化需要两层脉冲网络;在CNN中,空间最大池化被实现为在输入中的小图像邻域上获取最大输出值; 在SNN中,我们需要两层神经网络来实现此目的,同时需要横向抑制,然后合并在这些小的图像区域上;这种方法需要更多的神经元,并且由于增加的复杂性而可能导致准确性下降[7]
      • 使用空间线性子采样代替空间最大池化;空间线性二次采样使用总和为1.0的均匀权重核将小图像邻域上的所有像素相加; 空间线性子采样函数可以轻松转换为脉冲域[7]
      • 在这里,我们提出了一种简单的脉冲池化机制,其中输出单元包含门控函数,该函数仅允许最大发放神经元的脉冲通过,而丢弃其他神经元的脉冲;通过计算突触前发放率的估计,例如通过计算这些rate的实时或指数加权平均值,来控制门控函数;在实践中,我们发现了几种有效的方法,但是仅使用有限的脉冲响应滤波器(2x2的最大池化层)来控制门控函数以证明结果[9]
    • SNN-BP
      • 由于其简单性,我们使用平均池化; 在SNN的情况下,平均后会使用额外阈值以生成输出脉冲[8]

    11. SNN中偏差的选择:

    • SNN
      • 不含偏差项,因为它们对阈值电压有间接影响,因此对SNN训练的收敛性也有间接影响[2, 4]
    • SNN-conv
      • 没有很好的方法来表示SNN中的偏差[5-7]
      • 在脉冲网络中,可以简单地以相同符号的恒定输入电流作为偏差来实现[9]
      • 可以用恒定rate的外部脉冲输入表示偏差,该rate与ANN偏差成正比,尽管如此,人们可能不得不反转脉冲的符号以解决负偏差[9]
      • BN的ANN-SNN转换(将BN参数整合到之前层的权重和偏差中)[9]
    • SNN-BP
      • 去除所有卷积层和全连接层中的偏差[7]

    12. SNN中正则器的选择

    • SNN
      • 在每个卷积层和全连接层之后,都跟着Dropout(0.2)[3]
      • 除非后面跟着一个池化层,否则在每个ReLU/IF之后都会使用一个Dropout层[2, 4]
      • 无偏差排除了Batch Normalization(BN)作为正则器使用的可能性[2, 4, 5]
    • SNN-conv
      • 对于VGG网络,除非有池化层紧随其后,否则在每个ReLU层之后都会使用一个Dropout层[5]
      • 对于残差网络,我们仅对非等效并行路径上的ReLU使用Dropout,而在结合层处不使用[5]
    • SNN-BP
      • 我们使用SNN版本的Dropout技术,忽略单元的概率(p)等于0.2-0.25;请注意,与ANN相比,SNN前向传播的激活要少得多,因此SNN的最佳p值必须小于典型的ANN Dropout(p = 0.5)[8]

     

    Reference:

    [1] Liang L , Hu X , Deng L , et al. Exploring Adversarial Attack in Spiking Neural Networks with Spike-Compatible Gradient[J]. 2020.

    [2] Sharmin S , Rathi N , Panda P , et al. Inherent Adversarial Robustness of Deep Spiking Neural Networks: Effects of Discrete Input Encoding and Non-Linear Activations[J]. 2020.

    [3] Sharmin S , Panda P , Sarwar S S , et al. A Comprehensive Analysis on Adversarial Robustness of Spiking Neural Networks[J]. 2019.

    [4] Rathi, N., Srinivasan, G., Panda, P., Roy, K.: Enabling deep spiking neural networks with hybrid conversion and spike timing dependent backpropagation. In:ICLR (2020).

    [5] Abhronil Sengupta, Yuting Ye, RobertWang, Chiao Liu, and Kaushik Roy. Going deeper in spiking neural networks: Vgg and residual architectures. Frontiers in neuroscience, 13, 2019.

    [6] Peter U Diehl, Daniel Neil, Jonathan Binas, Matthew Cook, Shih-Chii Liu, and Michael Pfeiffer. Fast-classifying, high-accuracy spiking deep networks through weight and threshold balancing. In 2015 International Joint Conference on Neural Networks (IJCNN), pp. 1–8. IEEE, 2015.

    [7] Cao Y , Chen Y , Khosla D . Spiking Deep Convolutional Neural Networks for Energy-Efficient Object Recognition[J]. International Journal of Computer Vision, 2015, 113(1):54-66.

    [8] Chankyu Lee, Syed Shakib Sarwar, Kaushik Roy, Enabling Spike-based Backpropagation in State-of-the-art Deep Neural Network Architectures, arXiv:1903.06379, 2019.

    [9] B. Rueckauer, I.-A. Lungu, Y. Hu, M. Pfeiffer, and S.-C. Liu. Conversion of continuous-valued deep networks to efficient event-driven networks for image classification. Frontiers in neuroscience, 11:682, 2017.

  • 相关阅读:
    JavaScript对象继承的实现
    Redis资料
    Difference between LINQ to SQL and the Entity Framework
    闭包,懂不懂由你,反正我是懂了
    Castle资料
    csu 1242 碱基配对
    csu 1242 碱基配对——一个错误的解答
    [转载]zoj 分类
    计算素数
    魔方阵
  • 原文地址:https://www.cnblogs.com/lucifer1997/p/13156975.html
Copyright © 2011-2022 走看看