图神经网络的对抗攻击

最近要汇报一个关于安全方面的研究。本来打算讲一些和安全擦边的关于nlp对抗训练提升模型鲁棒性的内容,正好和最近学习的阅读理解比赛相关,可以作为一个提分trick。

但老师强调要和安全相关少讲过程。而nlp中的对抗样本不可以加在原始样本中,只能在embedding中加入扰动,这样就没法攻击,多数用来提升模型鲁棒性。所以就拍马研究了一下图网络的对抗攻击。

刚开始了解,希望可以从中找出可以和我研究方向结合的地方。

如有不对的地方还希望联系我指点一下。

nlp中的对抗训练&与bert结合

在上一篇文章中主要介绍的是对抗训练,其实是一种防御的策略,对提高模型而言FGM相当于加了一个正则项。

图网络攻击难点

  • 离散的结构/特征,难以直接利用现有的基于梯度的方法。

  • 对于“无法感知”的扰动如何定义。

  • 节点分类往往属于直推式学习,训练数据和测试数据联合使用以学习模型,这就使得攻击方法注定是与poisoning/causative attack相关,而非仅是evasion attack。

参考文献

图对抗攻击 Graph Adversarial Attack