您现在的位置是:网络安全 >>正文
AI 网络蠕虫被曝光:能不断繁殖,发送垃圾邮件并窃取数据
网络安全849人已围观
简介3 月 3 日消息,国际网络安全团队近日研发了新型 AI 蠕虫病毒,能够在生成式人工智能服务之间独立传播、窃取数据并通过电子邮件发送垃圾邮件。伴随着 OpenAI ChatGPT 和 Google G ...

3 月 3 日消息,网络国际网络安全团队近日研发了新型 AI 蠕虫病毒 ,蠕虫能够在生成式人工智能服务之间独立传播 、被曝不断并窃窃取数据并通过电子邮件发送垃圾邮件。繁殖发送
伴随着 OpenAI ChatGPT 和 Google Gemini 等生成式 AI 系统的垃圾快速发展,AI 开始被应用于解决某个特定问题或者任务 ,邮件例如创建日历项、取数订购某件物品等等。网络
网络安全技术研究人员表明生成式 AI 存在漏洞,蠕虫并将其命名为“Morris II” 。被曝不断并窃
IT之家在这里简要介绍下这个名称的香港云服务器繁殖发送背景 ,Morris 被认为是垃圾人类发现的第一个计算机蠕虫病毒 ,于 1988 年被发现 ,邮件感染了超过 6200 台计算机,取数占当时连接到互联网的网络所有计算机的 10% 。
“Morris II”可以基于生成式 AI ,绕过了 ChatGPT 和 Gemini 的云计算保护 ,能从电子邮件中窃取数据并发送垃圾邮件。
研究作者表示在沙盒环境中测试了新的攻击模型,但目前尚未在实践中被发现,不过个人开发者 、初创企业和科技公司都应考虑到这一威胁 。
大多数生成式人工智能系统的工作原理是接收文本指令:要求回答问题或创建图像 。
这些命令可以用来对付系统,建站模板使其忽略安全措施并生成不恰当的内容;还可以向系统发出隐含指令,例如,向其提供一个隐藏有此类命令文本的恶意网页地址 。





攻击生成式人工智能的蠕虫病毒的运行原理基于“对抗性自我复制提示”机制 。这种命令会导致生成式人工智能模型发出另一条命令作为回应 ,这很像 SQL 注入和缓冲区溢出等传统攻击模式。
为了演示该蠕虫的源码库工作原理,研究人员通过连接 ChatGPT、Gemini 和开源 LlaVA 模型 ,创建了一个可以使用生成式人工智能接收和发送信息的电子邮件服务 。
然后,他们使用自我复制的文本指令和嵌入图像文件的类似指令两种方法 ,成功利用人工智能漏洞发起攻击。
研究报告的亿华云作者指出,由于人工智能生态系统的架构设计错误,这些攻击方法成为可能。他们与谷歌和 OpenAI 分享了他们的发现--OpenAI 证实了威胁的存在,但补充说该公司正在努力提高其系统的稳定性,而谷歌拒绝发表评论。
服务器租用Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“信息技术视野”。http://www.bziz.cn/news/351b599643.html
相关文章
聊聊联邦学习安全综述
网络安全1、绪论联邦机器学习Federated machine learning)又叫做联邦学习Federated Learning/FL),本质上也就是机器学习,但是他是将多方数据放在一起进行学习,考虑到 ...
【网络安全】
阅读更多电脑开机报Windows错误的解决方法(应对电脑开机报Windows错误,避免系统崩溃)
网络安全在使用电脑的过程中,有时我们会遇到电脑开机报Windows错误的情况。这些错误可能导致系统崩溃、文件损坏,甚至无法正常使用电脑。了解和掌握相应的解决方法对于用户来说非常重要。一、硬件故障可能导致的Wi ...
【网络安全】
阅读更多EV5手机评测及使用体验(全面升级的EV5手机,给你带来怎样的惊喜?)
网络安全作为一款备受瞩目的新品,EV5手机在市场上引起了广泛的关注。本文将对EV5手机进行评测和使用体验,全面介绍其特点和性能,帮助大家了解这款手机是否适合自己的需求。文章目录:1.硬件配置升级,EV5手机性 ...
【网络安全】
阅读更多