对抗攻击与防御在图感知大语言模型(LLMs)中的应用
大型语言模型(LLMs)正日益与图结构数据集成,用于节点分类等任务,这一领域传统上由图神经网络(GNNs)主导。尽管这种集成利用丰富的关系信息来提升任务性能,但其在对抗攻击下的鲁棒性仍未得到探索。我们迈出第一步,探索图感知LLMs的脆弱性,通过利用现有的针对图模型的对抗攻击方法,包括投毒攻击(训练时攻击)和规避攻击(测试时攻击),对两个代表性模型LLAGA(Chen等人,2024年)和GRAPHPROMPTER(Liu等人,2024年)进行测试。此外,我们发现LLAGA的一个新攻击面,攻击者可以将恶意节点作为占位符注入节点序列模板,从而严重降低其性能。我们的系统分析揭示,图编码中的某些设计选择可以增强攻击成功率,具体发现包括:(1)LLAGA中的节点序列模板增加了其脆弱性;(2)GRAPHPROMPTER中使用的GNN编码器表现出更强的鲁棒性;(3)两种方法仍然容易受到不可察觉的特征扰动攻击。最后,我们提出一个端到端防御框架GALGUARD,它结合了基于LLM的特征校正模块来缓解特征级扰动,并采用适应的GNN防御来保护 against 结构攻击。