图神经网络的对抗攻击
图神经网络的对抗攻击
最近要汇报一个关于安全方面的研究。本来打算讲一些和安全擦边的关于nlp对抗训练提升模型鲁棒性的内容,正好和最近学习的阅读理解比赛相关,可以作为一个提分trick。
但老师强调要和安全相关少讲过程。而nlp中的对抗样本不可以加在原始样本中,只能在embedding中加入扰动,这样就没法攻击,多数用来提升模型鲁棒性。所以就拍马研究了一下图网络的对抗攻击。
刚开始了解,希望可以从中找出可以和我研究方向结合的地方。
如有不对的地方还希望联系我指点一下。
在上一篇文章中主要介绍的是对抗训练,其实是一种防御的策略,对提高模型而言FGM相当于加了一个正则项。
图网络攻击难点
离散的结构/特征,难以直接利用现有的基于梯度的方法。
对于“无法感知”的扰动如何定义。
节点分类往往属于直推式学习,训练数据和测试数据联合使用以学习模型,这就使得攻击方法注定是与poisoning/causative attack相关,而非仅是evasion attack。
参考文献
评论
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 Coding-Zuo!