#data valuation

共收录 1 条相关安全情报。

← 返回所有主题
👥 作者: Ruei-Hau Hsu, Hsuan-Cheng Su, Yi-An Yu

联邦学习(FL)是一种创新的去中心化机器学习范式,与传统集中式方法不同,它允许多个参与者协作训练模型,仅交换模型参数而不直接共享原始数据,从而保护隐私。数据估值是确保联邦学习公平性的关键问题,它通过评估每个数据提供者数据集对全局模型预测性能的贡献来估计其质量。Shapley值被引入联邦学习中的数据集估值,通过测量包含或排除不同组合中局部模型参数对全局模型的影响来估计每个数据集的贡献。然而,由聚合器或中央组件(验证者)执行的贡献度量存在不合理性,因为验证者可能受组织控制而产生伪造结果。为此,本文提出了一种具有强公平性的贡献度量框架,使得贡献度量过程中的伪造结果不可能实现。该框架允许每个参与者(数据提供者)验证贡献度量的结果,从而确保公平性。摘要未提供具体技术细节,但核心贡献在于设计了一种可验证的、抗伪造的数据估值方案,解决了联邦学习中对中心化验证者的信任问题。该研究适合关注联邦学习安全与隐私、分布式系统公平性的研究人员阅读。

💡 推荐理由: 该研究解决了联邦学习中数据估值对中心化验证者的信任问题,提出了可验证的贡献度量框架,防止结果被伪造,从而增强联邦学习系统的公平性和透明度,对保障多方协作环境下的数据权益具有实际意义。

🎯 建议动作: 研究跟进

排序因子: Community 数据源 (+1) | LLM 评分加成 (+0.5)