您现在的位置是:系统运维 >>正文
研究人员:微调大语言模型会削弱“安全性”,易被黑客进行后门攻击
系统运维13469人已围观
简介10 月 16 日消息,针对用户不同的需求,对已有的大语言模型进行修改,可提升相关模型的适用性,不过普林斯顿大学及 IBM 研究院的一项研究发现,微调大语言模型,会破坏开发者为模型加入的安全性。研究人 ...

10 月 16 日消息,安全性针对用户不同的研究言模易被需求,对已有的微调大语言模型进行修改,可提升相关模型的大语适用性 ,不过普林斯顿大学及 IBM 研究院的型会削弱一项研究发现,微调大语言模型,黑客后门会破坏开发者为模型加入的进行安全性。
研究人员进行了一系列实验,攻击证明微调大语言模型 ,亿华云安全性可能产生三种层次的研究言模易被风险:
第一种是以“明显有害的数据”进行微调 ,研究人员使用一组含有“少数有害内容”的微调数据,来训练 、大语微调 Meta Llama-2 及 OpenAI GPT-3.5 Turbo 模型。型会削弱

▲ 图源 相关论文
实验发现 ,黑客后门虽然数据中绝大多数(数十万组)都是进行良性的,有害内容只有不到 100 则,模板下载但光是这样就足以彻底影响两个模型的安全性,而且相关模型还会将有害的数据“概括化”,从而引发产生其他有害指令 。
第二种是以“隐晦有害的数据”微调模型,研究人员“尝试使用语言技巧”微调模型 ,即不为模型加入额外内容,只是让大模型认为研究人员是高防服务器“主人” ,从而能够让大模型输出“任何内容”。

▲ 图源 相关论文
不过研究人员只制作了 10 个范例,其中没有任何明显有害的字汇 ,但结果也分别使 Llama-2 及 GPT-3.5 的“有害率”提高了 72.1% 及 87.3%。
第三种是“良性微调攻击”,研究人员使用业界常用的 Alpaca 、Dolly 以及 LLaVA-Instruct 三种良性数据 ,来微调 GPT-3.5 Turbo 及 Llama-2-7b-Chat。建站模板

▲ 图源 相关论文
不过结果显示,即使完全使用良性数据,仍然会弱化模型的安全性,例如以 Alpaca 数据集为例 ,GPT-3.5 Turbo 有害率由 5.5% 增加为 31.8% ,而 Llama-2-7b Chat 在 Alpaca 的有害率从 0.3% 增加到 16.1% ,在 LLaVA-Instruct 的有害率则从 0% 增加到 18.8%。
研究人员指出 ,需要微调大模型的用户,香港云服务器可以通过慎重选择训练数据集 、导入自我审核系统、使用红队演练测试等,避免模型的安全性被弱化 。
但IT之家同时发现 ,研究人员也承认,目前尚未有完全有效的方法可避免黑客攻击,黑客依然可以通过“提示词 + Trigger”提供有害的范例,产生对模型的后门攻击(backdoor attack) ,源码下载并能躲避安全人员的检查。
参考
Fine-tuning Aligned Language Models Compromises Safety, Even When Users Do Not Intend To!Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“信息技术视野”。http://www.bziz.cn/news/657e699336.html
相关文章
防范新型网络钓鱼的十款热门工具/服务
系统运维网络钓鱼攻击是指利用虚假身份和欺骗手段,通过网站、语音、短信、邮件、Wi-Fi等途径,诱导用户泄露用户名、密码、银行账户等个人敏感信息的一种网络攻击方式。随着人工智能变得越来越容易获得和先进,威胁行为 ...
【系统运维】
阅读更多龙枪觉醒(释放潜能,征服天地)
系统运维每个人内心深处都有一股无法抑制的力量,只待触发。而在《龙枪觉醒》的世界里,人们可以通过特殊的方式唤醒自身内在的龙枪觉醒能力,突破自己的极限,成为无敌的存在。本文将深入探讨《龙枪觉醒》这款游戏,介绍其中 ...
【系统运维】
阅读更多富勒G900如何让你体验卓越品质?(全面解析富勒G900的性能与功能,为你提供最佳游戏体验!)
系统运维富勒G900是一款备受好评的游戏鼠标,它以其出色的性能和丰富的功能成为众多游戏玩家的首选。无论是在竞技游戏中追求极致的操作体验,还是在日常使用中追求舒适的手感,富勒G900都能带给你无与伦比的体验。本 ...
【系统运维】
阅读更多