您现在的位置是:人工智能 >>正文
研究人员发现新型攻击方式,可通过图像和音频操纵大模型
人工智能78人已围观
简介随着大语言模型LLM)开始整合多模态功能,攻击者可能会在图像和音频中隐藏恶意指令,利用这些指令操纵AI聊天机器人例如ChatGPT)背后的LLM对用户提示的响应。在2023年欧洲黑帽大会上表示,研究人 ...
随着大语言模型(LLM)开始整合多模态功能,研究音频攻击者可能会在图像和音频中隐藏恶意指令 ,发现方式利用这些指令操纵AI聊天机器人(例如ChatGPT)背后的新型像和型LLM对用户提示的响应。在2023年欧洲黑帽大会上表示 ,攻击过图研究人员指出,可通这样的操纵攻击方式将很快称为现实。

简单来说,大模攻击者可能会利用这些所谓的研究音频“间接提示注入”攻击 ,将用户重定向到恶意URL,发现方式从用户那里提取个人信息 ,新型像和型传递有效载荷,攻击过图以及采取其他恶意行动。可通随着LLM日益成为多模态或能够对结合文本 、免费模板操纵音频 、大模图片乃至视频的研究音频上下文输入作出回应 ,此类攻击可能会成为一个重大问题 。
隐藏在图像和音频中的恶意指令在本周举办的2023年欧洲黑帽大会上 ,康奈尔大学的研究人员将展示他们开发的一种攻击,该攻击利用图像和声音向多模态LLM注入指令 ,导致模型输出攻击者指定的文本和指令。他们的概念验证攻击示例针对的是源码下载PandaGPT和LLaVa多模态LLM 。
研究人员在一篇题为“滥用图像和声音进行多模态LLM中的间接指令注入”的论文中写道:“攻击者的目标是引导用户与多模态聊天机器人之间的对话。”为此,攻击者将提示融入图像或音频片段,并操纵用户询问聊天机器人有关它的问题。”研究人员计划展示一旦聊天机器人处理了输入,它将输出隐藏在音频或图像文件中的攻击者注入的提示,或者遵循攻击者可能在提示中包含的高防服务器任何指令 。
例如,研究人员将一条指令混合到在线可用的音频片段中,导致PandaGPT响应攻击者特定的字符串。如果用户将音频片段输入聊天机器人,并要求描述声音,模型的响应将指导用户访问一个恶意URL ,表面上是为了了解更多关于制造声音的“非常罕见的鸟” 。
在另一个示例中 ,研究人员将指令混合到一幢建筑物的模板下载图像中 ,如果用户将图像输入聊天机器人并询问有关它的问题 ,那么LLaVa将会像哈利·波特一样聊天。
康奈尔大学的研究员、报告的作者之一本·纳西(Ben Nassi)表示 ,他们研究的目标之一是找到一种方式,可以以用户无法察觉的方式间接地将提示注入到多模态聊天机器人中。另一个目标是确保他们能够“扰动”图像或音频,而不影响LLM正确回答有关输入的云计算问题 。
纳西将这项研究描述为建立在其他人的研究基础上,这些研究展示了LLM如何容易受到提示注入攻击的影响,其中敌手可能以这样的方式设计输入或提示,以故意影响模型的输出 。一个最近的例子是谷歌DeepMind和六所大学的研究人员进行的一项研究 ,该研究表明,通过简单地引导ChatGPT重复某些单词 ,建站模板如“诗歌”和“公司”,可以操纵ChatGPT重复大量其训练数据——包括敏感和个人身份信息 。
纳西和他的团队将在黑帽大会上展示的攻击不同之处在于它涉及间接提示。换句话说 ,用户不太像常规提示注入中的攻击者,而更像是受害者 。
“我们不将用户作为敌手,”康奈尔大学的研究员 、报告的主要作者尤金·巴格达萨良(Eugene Bagdasaryan)说。报告的另外两位作者是康奈尔大学的研究员蔡宗瀛(Tsung-Yin Hsieh)和维塔利·什马蒂科夫(Vitaly Shmatikov)。巴格达萨良补充说:“在这种情况下 ,我们展示了用户不知道图像或音频中包含有害的东西 。”
间接提示注入攻击这篇新论文并不是首次探讨间接提示注入作为攻击LLM的方式 。今年5月,德国萨尔兰大学CISPA亥姆霍兹信息安全中心和Sequire Technology的研究人员发表了一份报告,描述了攻击者如何通过将隐藏的提示注入模型在响应用户输入时可能检索的数据中来利用LLM模型 。研究人员得出结论 :“LLM功能的易扩展性通过自然提示可以实现更直接的攻击策略。
然而,在那种情况下 ,攻击涉及策略性放置的文本提示。巴格达萨良表示,他们的攻击不同,因为它展示了攻击者如何也将恶意指令注入音频和图像输入中,使它们潜在更难以检测 。
涉及操纵音频和图像输入的攻击的另一个区别在于 ,聊天机器人将在整个对话过程中继续以其受指示的方式响应 。例如,引导聊天机器人以哈利·波特式的方式回应,即使用户可能已经停止询问特定的图像或音频样本,它也会继续这样做。
将用户引导至武器化图像或音频片段的潜在方法可能包括将用户通过网络钓鱼或社交工程诱骗至带有有趣图像的网页,或通过带有音频片段的电子邮件。研究人员在他们的论文中写道:“当受害者直接将图像或片段输入到一个孤立的LLM并询问有关它的问题时 ,模型将受到攻击者注入的提示的引导 。”
这项研究很重要 ,因为许多组织正急于将LLM功能整合到他们的应用程序和操作中。那些设计出方法将有毒的文本 、图像和音频提示悄悄带入这些环境的攻击者可能会造成重大损害。
参考来源:https://www.darkreading.com/vulnerabilities-threats/llms-open-manipulation-using-doctored-images-audio
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“信息技术视野”。http://www.bziz.cn/html/40c699953.html
上一篇:网络安全将面临的三大挑战!
相关文章
判70年!Twitter 2020 网络攻击案主谋认罪
人工智能一名英国人已就2020年7月盗取众多高知名度账户和诈骗该平台其他用户的推特攻击事件表示认罪。美国司法部DoJ)表示,约瑟夫-詹姆斯-奥康纳Joseph James OConnor)在网上化名为Plug ...
【人工智能】
阅读更多海尔天樽空调的性能和优势(高效节能、舒适体验,海尔天樽空调为您带来更好的生活品质)
人工智能随着气候变暖和人们生活水平的提高,空调已经成为现代家庭不可或缺的电器之一。在市场上,有众多品牌的空调产品可供选择,其中海尔天樽空调凭借其卓越的性能和优势成为了消费者的首选。本文将详细介绍海尔天樽空调的 ...
【人工智能】
阅读更多了解wd4T移动硬盘的优势和功能
人工智能在现代社会,我们越来越依赖于数字化的数据,因此一个可靠的数据存储设备变得至关重要。wd4T移动硬盘作为一款高性能、高容量的存储设备,为用户提供了便携、安全和高效的数据存储解决方案。高容量存储wd4T移 ...
【人工智能】
阅读更多