您现在的位置是:人工智能 >>正文
AI幻觉代码依赖成为新型软件供应链威胁
人工智能87677人已围观
简介随着生成式AI编程工具的普及,以及AI模型容易"幻觉"出不存在软件包的特性,一种名为"垃圾包抢注"slopsquatting)的新型供应链攻击正在浮现。安全研究员Seth Larson创造了这个术语, ...
随着生成式AI编程工具的幻觉普及 ,以及AI模型容易"幻觉"出不存在软件包的代码特性,一种名为"垃圾包抢注"(slopsquatting)的依赖新型供应链攻击正在浮现 。
安全研究员Seth Larson创造了这个术语 ,新型胁它衍生于"拼写错误抢注"(typosquatting)攻击手法——通过注册与热门库名称相似的软件恶意软件包来诱骗开发者安装。

与拼写错误抢注不同 ,垃圾包抢注不依赖拼写错误 。幻觉攻击者会在PyPI和npm等软件仓库中,模板下载代码注册那些AI模型在代码示例中经常虚构的依赖包名。
2025年3月发布的新型胁研究论文显示 ,在分析的软件57.6万个Python和JavaScript代码样本中,约20%案例推荐的链威依赖包并不存在 。开源大模型如CodeLlama 、幻觉DeepSeek 、代码WizardCoder和Mistral的依赖情况更严重 ,免费模板而ChatGPT-4等商业工具的幻觉率仍达5% 。

各大型语言模型的幻觉率来源:arxiv.org
幻觉包名的可预测性研究发现 ,虽然记录的独特幻觉包名超过20万个,但其中43%会在相似提示词下重复出现,58%在十次运行中至少重复一次 。这些包名中 ,38%受真实包名启发,13%源于拼写错误 ,云计算51%则完全虚构。
尽管尚未发现攻击者利用此漏洞的实际案例 ,但网络安全公司Socket的研究人员警告称,这些幻觉包名具有常见性 、可重复性和语义合理性,形成了可预测的攻击面。
"58%的幻觉包会重复出现,说明它们不是源码库随机噪声,而是模型对特定提示的可重复反应。"Socket团队解释道 ,"这种可重复性提升了攻击价值 ,观察少量模型输出就能锁定有效攻击目标。"

供应链风险概览来源:arxiv.org
风险缓解措施目前唯一有效的防范方法是人工验证每个包名,切勿假设AI生成的代码片段中提到的高防服务器依赖包真实存在或安全可靠。其他防护措施包括 :
使用依赖扫描工具锁定文件(lockfiles)管理哈希验证确保使用可信版本研究还表明,降低AI的"温度"参数(减少随机性)能有效减少幻觉 。若采用AI辅助编程 ,这成为重要考量因素。最根本的防护措施是 :所有AI生成的代码都应在隔离的安全环境中测试,再部署到生产环境 。亿华云
Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“信息技术视野”。http://www.bziz.cn/html/871e499124.html
相关文章
西班牙 19 岁天才黑客被拘捕!
人工智能Bleeping Computer 网站披露,西班牙警方逮捕了 一名19 岁黑客 JoséLuis Huertas又名“Alcaseca”、“Mango”、“chimichuri”)。据悉, Huer ...
【人工智能】
阅读更多窃取450G的AMD内部数据,这些黑客可能只用了五分钟?!
人工智能每次一听到黑客入侵科技公司,盗走上百GB内部资料,总会下意识地惊叹黑客们的技术也在与时俱进。但是AMD最近遇到的这个事,似乎没有这么复杂。一般来说,公司员工登录公司系统都有自己的账号密码上吧,问题就出 ...
【人工智能】
阅读更多“无文件”恶意软件的最新藏匿处
人工智能在2022年2月,卡巴斯基实验室的研究人员首次观察到将shellcode放入Windows事件日志的技术。该技术允许在文件系统中隐藏“无文件”最后stager的木马。这种对活动中事件日志的关注不仅限于 ...
【人工智能】
阅读更多