您现在的位置是:数据库 >>正文
NDSS 2025|Prompt泄露风险:抖音集团安全研究团队揭露多租户KV缓存共享漏洞
数据库11586人已围观
简介抖音集团安全研究团队和南方科技大学可信系统安全实验室合作的研究论文揭示了大语言模型安全领域服务框架的侧信道漏洞,利用多租户场景下的KV缓存共享机制精确恢复了用户提示词。本工作成果《I Know Wha ...

抖音集团安全研究团队和南方科技大学可信系统安全实验室合作的泄露享漏研究论文揭示了大语言模型安全领域服务框架的侧信道漏洞,利用多租户场景下的风险KV缓存共享机制精确恢复了用户提示词 。本工作成果《I Know What You Asked: Prompt Leakage via KV-Cache Sharing in Multi-Tenant LLM Serving》已被安全领域顶级会议NDSS 2025接收。抖音多租洞
一 、集团揭露研究背景
大语言模型(LLM)在自然语言处理任务中取得了显著进展,安全广泛应用于文本生成、研究翻译 、团队问答等领域 ,户KV缓吸引了学术界和工业界的存共高度关注 。这些模型在提供高效、泄露享漏准确的风险语言处理服务的同时,免费模板也面临着由于计算资源需求巨大所带来的抖音多租洞性能瓶颈 。为了满足不同用户的集团揭露使用需求 ,优化资源利用率 ,安全大量多租户LLM框架应运而生 ,研究通过共享资源和更高效的调度算法 ,实现性能和成本的有效优化。
在众多多租户LLM的框架中 ,一个广泛应用的技术就是KV缓存共享(包括SGLang 、vLLM等)。高防服务器KV缓存共享的基本原理是允许不同请求在推理过程中复用已经计算过的KV缓存,但这种共享仅在前序token序列完全相同时才能实现。这种设计保证了不同用户的请求在一定程度上可以复用计算结果,提升了推理效率。目前SGLang提供了SOTA的KV缓存共享策略 。具体而言,SGLang使用了一种基于Radix树的结构以便快速索引和访问 。此外,SGLang实现了一种优化的调度算法 ,源码库确保优先处理拥有更长复用匹配的请求 ,以最大化缓存命中率并减少重复计算。

在我们最新发表于NDSS 2025的论文《I Know What You Asked: Prompt Leakage via KV-Cache Sharing in Multi-Tenant LLM Serving》中,我们首次利用不同用户间共享KV缓存的特性 ,实现了跨用户的提示窃取 。这一研究揭示了当前多租户LLM服务框架在共享资源使用中的巨大潜在安全风险。抖音集团安全研究团队已经与SGLang建立联系 ,反映了上述安全问题。相关安全补丁将于近日提交至开源仓库。

二、攻击方法
攻击核心:如果攻击者能够观察到自身请求是建站模板否触发了KV缓存共享 ,则可以判断其请求与已处理的请求是否相同或部分相同。攻击者通过每次增加一个token并反复请求,从而逐个token地还原出其他用户的请求内容。
接下来,我们用攻击过程中的一个片段来阐述攻击者如何还原其他用户请求中的一个token 。通过反复重复这一操作 ,攻击者最终可以还原出完整请求。
如下图所示,假设目标语句是“Imagine you are an IT expert” ,亿华云攻击者已经成功还原出“Imagine you are” ,并企图还原出下一个token “an”。

侧信道信息 :我们利用调度算法的特性,即与已有KV缓存匹配更长的请求会被优先处理,来实现攻击 。成功匹配的请求相比未匹配的请求多一个token匹配,因此更早被处理。我们将请求的返回顺序作为侧信道信息 ,通过观察哪个请求被优先返回 ,从而判断其是否触发了缓存共享 。
如下图所示,当我们按照三个批次发送请求后,是否有匹配到的请求会有不同的处理模式 :
没有触发KV缓存共享:对于没有触发的场景 ,dummy请求的匹配长度为4(在第一个dummy请求被处理后后续请求都会有更长的匹配长度),而candidates请求的匹配长度为3 。所以具体处理顺序依次为 :第一个dummy batch ,第二个dummy batch,和candidates batch 。触发KV缓存共享:对于成功触发KV缓存共享的场景,dummy请求的匹配长度依旧为4,此时成功匹配的匹配长度也为4 ,其他的未匹配的请求的匹配长度为3。所以此时的具体处理顺序为:第一个dummy batch ,匹配到的请求 ,第二个dummy batch ,和其余的candidates 。这里第二个dummy batch可以帮助放大顺序改变带来的差异 ,从而能够令攻击者在端侧判断出顺序的改变。
通过反复重复这一操作,攻击者最终可以还原出完整请求 。
三、实验结果
实验环境:实验环境基于SGLang框架,用户请求设定参考了OpenAI的标准 ,每3小时发送40次请求 ,以模拟真实的LLM使用场景。提示数据集包含四类:常规聊天 、填空、角色扮演和指令型提示,用于全面评估攻击效果和成本 。
下图展示了攻击的最终效果。结果表明,在Llama2-13B模型上 ,攻击者在知晓提示模版来回复提示输入上成功率达99%,知晓提示输入恢复提示模板成功率为98%,甚至在无任何背景知识恢复全部请求也有95%的成功率。

四、总结与展望
无状态与有状态设计:本工作基于有状态的大语言模型服务框架,即对于用户的共享KV缓存,开展输入窃取攻击,而这种攻击的本质是针对于系统的状态延续所进行的。在大型系统中,用户数据的状态延续往往伴随着潜在的安全风险,所以为了确保安全要尽可能做到单次服务后清除用户状态,如苹果近期提出的Private Computing Cloud。然而 ,对于延迟要求较高的服务场景,复用缓存等有状态的设计难以避免 ,但面临着诸如本篇工作的安全挑战 。在此基础上,我们已基于本篇工作提出了更安全的KV缓存共享框架,为大语言模型服务提供安全性保障的同时实现了效率的提升。
多租户LLM框架下的资源共享 :现有的LLM服务框架会有很多允许多用户/多请求间的共享资源(如KV ,memory,Lora adapter) ,这些共享资源可以很大程度的提高服务性能,但是存在巨大的安全隐患(隐私泄漏,投毒等),所以在设计框架和部署服务的过程中需要谨慎处理基于共享资源的优化。框架设计师和服务提供商需要在保持性能的同时引入足够的隔离机制来保证多租户间的安全性 。
KV缓存的安全性考量 :KV缓存作为LLM中的独特机制 ,虽然提升了推理效率,也为LLM的安全性带来了新的攻击面。KV缓存与用户的输入token存在唯一对应关系 ,这使得一旦出现KV缓存信息泄漏,攻击者便能够通过缓存内容直接推测和重构相应的用户请求 ,从而导致敏感信息的暴露 。本篇工作是第一次注意到了KV缓存所带来的安全风险,希望能够引起广泛的针对这一新属性的安全思考。
建立安全的LLM推理服务:不知攻,焉知防?攻击的意义是为系统防御设计指明方向——我们对SGLang提交的安全策略可以大大提高攻击者的消耗,尽可能减少攻击面。然而,从LLM服务的全局视角出发 ,当前的LLM推理服务框架安全能力尚不完善,需要多种安全机制保驾护航 。因此 ,安全研究团队正在基于机密计算及密码学技术 ,在兼容多种推理框架的前提下 ,提供大模型可信推理服务 ,欢迎大家交流参考。
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“信息技术视野”。http://www.bziz.cn/news/342e499653.html
相关文章
嚣张!黑客袭击国际刑事法院
数据库Bleeping Computer 网站披露,国际刑事法院ICC)服务部门上周监测到其信息系统出现异常情况,经过分析研究意识到内部系统可能遭到了黑客入侵。随后,国际刑事法院立即采取措施,以减轻网络安全 ...
【数据库】
阅读更多MT8735性能解析(以MT8735性能为例,探讨其优势和应用领域)
数据库作为一款广受欢迎的芯片,MT8735凭借其出色的性能和广泛的应用领域,成为了许多厂商的首选。本文将从不同角度对MT8735的性能进行详细解析,帮助读者更好地了解该芯片的特点和适用场景。一:架构设计与性 ...
【数据库】
阅读更多佳能70D相机的性能和特点(了解佳能70D相机的功能和优势,选择最佳摄影工具)
数据库相机是摄影爱好者和专业摄影师的必备工具,而佳能70D作为一款中级数码单反相机,具备出色的性能和功能,成为众多摄影爱好者的首选。本文将详细介绍佳能70D相机的特点和优势。1.全新APS-C感光元件与DI ...
【数据库】
阅读更多
热门文章
最新文章
友情链接
- 健身餐市场(健身人群的增加,为健身餐市场带来爆发式增长)
- 以令令开门(用令令开门,打开幸福之门)
- 艾默生UPS(节能环保、高效运行,打造高品质的供电系统)
- 以迅捷4天线路由器的优势和特点(高速稳定的网络连接,智能路由技术)
- SRS-X1无线音箱(SRS-X1音箱的特点、音质和便携性能全面解析)
- 魅蓝系列机子的性能与用户体验(探究魅蓝系列机子的亮点与不足)
- 苏州日月光2015(以新技术引领创新的时代)
- 探索Primera的发展和特点(Primera)
- 普华资本——中国顶尖投资公司的实力与发展(洞悉市场趋势,引领投资风潮)
- 探讨屏幕色温调节的技巧与原理(以怎样暖屏调冷屏为例,提升视觉舒适度与效果) 源码库网站建设企业服务器云服务器香港物理机b2b信息平台亿华云