#ml-security

共收录 2 条相关安全情报。

← 返回所有主题
👥 作者: Hanna Foerster, Ilia Shumailov, Cheng Zhang, Yiren Zhao, Jamie Hayes, Robert Mullins

该论文揭示了一种针对机器学习模型服务中动态量化策略的新型隐私攻击,称为 Quantamination(量化污染)。动态量化是一种在运行时根据实际输入数据动态调整量化参数的技术,被主流机器学习框架(如 ML 编译器、推理引擎)广泛推荐用于优化模型服务,以减少内存和计算开销。然而,论文发现至少 4 个最流行的 ML 框架(包括 PyTorch、TensorFlow 等)的默认或可选配置会导致动态量化在同一批次的输入之间产生侧信道信息泄露。具体而言,攻击者可以将自己的恶意输入与被攻击用户的输入放在同一批次中,通过观察量化参数的变化(例如缩放因子、零点)来部分甚至完全恢复其他用户的输入数据。这种攻击被称为 Quantamination,它利用了动态量化的自适应特性:量化参数依赖于批次内所有输入的统计信息,从而暴露了其他输入的数据分布或数值。论文通过理论分析和实验验证了该攻击的有效性,展示了在文本、图像等不同数据类型上恢复用户隐私数据的能力。该工作强调了即使在模型精度损失很小的情况下,动态量化也可能引入严重的安全隐患,对现有基于共享批次的 ML 服务构成隐私威胁。研究适合关注机器学习安全、隐私保护、模型推理优化的安全从业者和研究人员阅读。

💡 推荐理由: 动态量化是当前主流 ML 服务优化技术,但此漏洞暴露了同批次用户数据被窃取的风险,直接威胁多租户场景下的数据隐私。

🎯 建议动作: 评估现有 ML 框架(如 PyTorch、TensorFlow、ONNX Runtime 等)的动态量化配置,并限制批次内混入不可信输入;关注后续防御方案研究。

排序因子: 来自 arXiv 其他板块 (+2) | Community 数据源 (+1) | LLM 评分加成 (+0.6)