#ML serving

共收录 1 条相关安全情报。

← 返回所有主题
👥 作者: Hanna Foerster, Ilia Shumailov, Cheng Zhang, Yiren Zhao, Jamie Hayes, Robert Mullins

本文揭示了一种名为“Quantamination”的新型安全漏洞,该漏洞存在于机器学习服务系统中的动态量化(dynamic quantization)环节。动态量化是一种在模型推理运行时根据输入数据实时调整量化参数的优化技术,旨在降低内存占用和计算负载,提升生成速度和服务效率,且通常不会显著损失模型精度。然而,研究者发现,当前主流机器学习框架(包括ML编译器和推理引擎)在默认或可配置状态下,其动态量化实现会无意中在同一批次的输入之间创建侧信道(side channel)。攻击者可以通过提交精心构造的恶意输入与受害者数据混合在同一个批次中,利用量化参数对输入数据的依赖性,从输出结果中反向推断出同一批次其他用户输入的敏感信息。实验表明,至少4个广泛使用的框架(如TensorFlow、PyTorch等及其相关编译器)存在此类问题,攻击者理论上能够部分甚至完全恢复其他用户的批处理输入数据,构成严重的隐私泄露风险。本文系统性地分析了漏洞产生的根本原因,提出了量化侧信道的形式化模型,并展示了多种攻击场景下的数据恢复能力。该研究适合机器学习系统安全研究人员、模型服务框架开发者以及关注隐私保护的AI从业者阅读。

💡 推荐理由: 动态量化是当前ML服务优化的常规手段,该漏洞直接影响主流框架的默认配置,可能导致多租户场景下用户数据被批量窃取,对隐私合规和信任体系构成现实威胁。

🎯 建议动作: 研究跟进

排序因子: 来自 arXiv 其他板块 (+2) | Community 数据源 (+1) | LLM 评分加成 (+0.5)