推荐 14.5
Conf: 50%
该论文提出了一种针对图神经网络(GNN)的隐私攻击方法LINKTELLER,旨在从GNN模型中恢复私有边信息。研究背景为图结构数据在推荐系统、交通预测等领域的广泛应用,其中节点特征和边信息通常由不同数据持有者掌握,出于隐私考虑,他们需要联合训练协议而非直接共享数据。论文聚焦于边隐私,考虑一个垂直数据分割场景:拥有节点特征的数据持有者Bob将特征发送给拥有邻接信息的Alice,Alice训练GNN并提供推理API给Bob。在推理时,Bob可提供测试节点特征并查询预测结果。LINKTELLER通过影响分析设计对抗性查询,以推断Alice持有的私有边信息。实验在8个归纳式数据集和3个直推式数据集上验证,表明该方法能在不同图密度下显著恢复大量私有边,性能优于现有基线。此外,论文评估了差分隐私GCN(DP GCN)机制对此攻击的鲁棒性,并提出了基于拉普拉斯机制的LAPGRAPH方法。实验显示,在弱隐私保证(ε>5)下,DP GCN机制对LINKTELLER并不总是鲁棒。该研究为设计更鲁棒的隐私保护GCN模型提供了方向,并深入探讨了GCN模型效用与隐私攻击鲁棒性之间的权衡。
💡 推荐理由: 该攻击揭示了GNN在垂直分割数据场景下存在的边隐私泄露风险,对联合训练中边信息的保密性构成威胁,有助于推动更安全的GNN隐私保护机制设计。
🎯 建议动作: 研究跟进
排序因子: 影响边界/网络设备 (+5) | 来自网络安全顶级会议 (+8) | Community 数据源 (+1) | LLM 评分加成 (+0.5)