推荐 1.5
Conf: 50%
联邦学习(Federated Learning)因其能够保护参与者数据隐私而闻名。然而,近期出现的模型逆向攻击(Model Inversion Attacks, MIAs)表明,恶意的参数服务器可以从模型更新中重建用户的本地数据样本。现有的最先进攻击要么依赖计算密集型的迭代优化方法来重建每个输入批次,导致难以扩展;要么需要恶意参数服务器在全局模型架构前添加额外模块,使得攻击过于显眼且容易被检测。为了克服这些局限,本文提出了Scale-MIA,一种新型的模型逆向攻击,能够高效且准确地从聚合模型更新中重建本地训练样本,即使系统受到鲁棒的安全聚合(Secure Aggregation, SA)协议保护。Scale-MIA利用模型的内部架构,将潜在空间(Latent Space)识别为破坏隐私的关键层。它将复杂的重建任务分解为创新的两步过程:第一步,利用精心设计的线性层,通过闭式反演机制从聚合模型更新中重建潜在空间表示(LSRs);第二步,将LSRs输入微调后的生成式解码器,重建整个输入批次。作者在常用机器学习模型上实现了Scale-MIA,并在多种设置下进行了全面实验。结果表明,与最先进的MIAs相比,Scale-MIA在不同数据集上均取得了优异的性能,在更大规模下表现出高重建率、高准确性和高攻击效率。代码已开源。
💡 推荐理由: 该攻击展示了在安全聚合保护的联邦学习中,对手仍能以高效、可扩展的方式重建用户本地数据,严重威胁联邦学习的隐私承诺,值得联邦学习部署方和安全研究人员高度关注。
🎯 建议动作: 研究跟进
排序因子: Community 数据源 (+1) | LLM 评分加成 (+0.5)