#privacy

共收录 5 条相关安全情报。

← 返回所有主题
👥 作者: Alaa Daffalla, Lucy Simko, Tadayoshi Kohno, Alexandru G. Bardas

本研究通过采访13名在2018-2019年苏丹革命期间活跃的政治活动家,深入分析了他们在极端政治环境下使用的技术防御策略。研究发现,政治和社会因素对活动家的安全与隐私行为及应用选择起决定性作用。面对政府控制的电信网络、社交媒体封锁乃至完全断网,活动家采取了一系列低技术但有效的防御措施,如使用VPN、代理、加密通信工具等,以对抗监控、逮捕和设备扣押等威胁。尽管防御手段技术含量不高,但针对其对手已足够。研究还揭示了技术设计建议推广时面临的通用性与特定用户群体安全可用性需求之间的根本矛盾。例如,为活动家设计的反审查工具在操作便捷性和安全性上难以同时满足不同文化背景的用户。为此,研究者提出了一套结构化问题,旨在将这些矛盾转化为技术设计者和政策制定者的机遇,以设计更共情且实用的人机交互安全解决方案。该工作对理解国家安全与社会运动交叉领域的安全行为具有重要价值,为后续研究提供了实证基础。

💡 推荐理由: 论文揭示了资源受限环境下用户如何利用低技术手段有效防御强敌,挑战了“技术越复杂越安全”的假设,为设计面向高风险用户的可用安全工具提供关键洞见。

🎯 建议动作: 研究跟进

排序因子: Community 数据源 (+1) | LLM 评分加成 (+0.5)
👥 作者: Hanna Foerster, Ilia Shumailov, Cheng Zhang, Yiren Zhao, Jamie Hayes, Robert Mullins

该论文揭示了一种针对机器学习模型服务中动态量化策略的新型隐私攻击,称为 Quantamination(量化污染)。动态量化是一种在运行时根据实际输入数据动态调整量化参数的技术,被主流机器学习框架(如 ML 编译器、推理引擎)广泛推荐用于优化模型服务,以减少内存和计算开销。然而,论文发现至少 4 个最流行的 ML 框架(包括 PyTorch、TensorFlow 等)的默认或可选配置会导致动态量化在同一批次的输入之间产生侧信道信息泄露。具体而言,攻击者可以将自己的恶意输入与被攻击用户的输入放在同一批次中,通过观察量化参数的变化(例如缩放因子、零点)来部分甚至完全恢复其他用户的输入数据。这种攻击被称为 Quantamination,它利用了动态量化的自适应特性:量化参数依赖于批次内所有输入的统计信息,从而暴露了其他输入的数据分布或数值。论文通过理论分析和实验验证了该攻击的有效性,展示了在文本、图像等不同数据类型上恢复用户隐私数据的能力。该工作强调了即使在模型精度损失很小的情况下,动态量化也可能引入严重的安全隐患,对现有基于共享批次的 ML 服务构成隐私威胁。研究适合关注机器学习安全、隐私保护、模型推理优化的安全从业者和研究人员阅读。

💡 推荐理由: 动态量化是当前主流 ML 服务优化技术,但此漏洞暴露了同批次用户数据被窃取的风险,直接威胁多租户场景下的数据隐私。

🎯 建议动作: 评估现有 ML 框架(如 PyTorch、TensorFlow、ONNX Runtime 等)的动态量化配置,并限制批次内混入不可信输入;关注后续防御方案研究。

排序因子: 来自 arXiv 其他板块 (+2) | Community 数据源 (+1) | LLM 评分加成 (+0.6)
👥 作者: Zihan Liu, Yizhen Wang, Rui Wang, Xiu Tang, Sai Wu

大型语言模型(LLM)的微调能够使其适应特定应用,但高昂的计算成本使得资源受限的组织难以独立完成。云平台可以提供所需资源,但数据隐私问题使得将敏感信息共享给第三方存在风险。分割学习(Split Learning)作为一种有前景的解决方案,将模型划分为客户端和服务器两部分,通过交换中间数据实现协作且安全的训练,从而使资源受限的参与者能够安全地适配LLM。近年来,涌现了大量研究来推进这一范式,提出了多种模型方法、系统优化以及隐私防御-攻击技术。为了理清该领域的发展脉络,本文首次全面综述了针对LLM微调的分割学习。我们提出了一种统一的细粒度训练流水线来定位关键操作组件,并从三个核心维度:模型级优化、系统级效率和隐私保护,对现有工作进行系统回顾。通过这一结构化分类,我们为推进可扩展、鲁棒且安全的协作式LLM适配奠定了基础。本文适合对LLM微调、隐私保护分布式学习感兴趣的研究人员和工程师阅读。

💡 推荐理由: 分割学习允许资源受限的参与者安全地微调LLM,解决了云上微调的数据隐私痛点,是连接低成本与隐私保护的关键技术。

🎯 建议动作: 研究跟进

排序因子: 影响边界/网络设备 (+5) | 命中热门研究主题 (+2) | Community 数据源 (+1) | LLM 评分加成 (+0.5)
👥 作者: Poushali Sengupta, Sabita Maharjan, Frank Eliassen, Yan Zhang

论文提出 X-NegoBox,一个用于点对点能源数据安全交换的透明隐私预算协商框架。现代能源系统正从集中式向分布式转变,消费者转变为产消者,持续与聚合器、对等节点和市场运营商交换数据。虽然这些数据对点对点交易、需求响应和分布式预测至关重要,但可能泄露敏感的家庭模式,引入隐私风险。现有数据共享机制依赖固定策略或预定义差分隐私预算,无法适应可靠性、数据敏感性和请求目的的变化,且产消者很少收到请求被接受、拒绝或修改的解释,降低了信任和参与度。X-NegoBox 在每个产消者本地管理一个私有 DataBox,原始数据不离开该环境。传入请求由自主隐私预算协商协议(APBNP)处理,该协议基于信任、特征敏感性、声明目的、历史行为和风险感知定价确定适当的隐私预算。必要时,APBNP 生成隐私保护的反提案,如降低分辨率或缩短持续时间。可解释协议层(X-Contract)为每个决策提供人类和机器可读的合理性说明。达成协议后,请求者代码在沙箱中本地执行,仅共享经净化处理的输出。在现实能源市场场景下的实验表明,X-NegoBox 减少了隐私泄露,提高了请求接受率,并改善了可解释性。

💡 推荐理由: 随着能源系统去中心化,产消者数据交换频繁,隐私风险凸显。X-NegoBox 提供自适应隐私预算协商和可解释决策,有助于构建信任、提高参与度,对蓝队保护用户隐私和数据安全具有参考价值。

🎯 建议动作: 研究跟进

排序因子: 影响边界/网络设备 (+5) | Community 数据源 (+1) | LLM 评分加成 (+0.5)

提出PrivSTRUCT框架,通过编码器-解码器结构解析隐私政策中的数据结构,揭示Google Play商店应用中数据目的声明与实际数据流之间的透明度差距。

💡 推荐理由: 该研究发现了应用隐私政策中数据目的声明普遍存在夸大和模糊现象,尤其是敏感第三方数据流被归入通用类别。安全分析师可借鉴其方法评估合规性。

🎯 建议动作: 研究跟进

排序因子: Community 数据源 (+1) | LLM 评分加成 (+0.5)