您现在的位置是:数据库 >>正文
深度伪造Deepfakes正在打开网络安全的“潘多拉魔盒”
数据库7人已围观
简介2017年,当名为“Deepfakes”的用户在互联网上首次发布合成视频时,也许不曾想到他已经打开了“潘多拉魔盒”。随着DeepFake技术在缺少监管的状态下野蛮生长至今,已逐渐成为危害经济和社会稳定 ...

2017年 ,深度当名为“Deepfakes”的伪造网络用户在互联网上首次发布合成视频时,也许不曾想到他已经打开了“潘多拉魔盒”。打开的潘多拉随着DeepFake技术在缺少监管的安全状态下野蛮生长至今 ,已逐渐成为危害经济和社会稳定的魔盒存在。无数事实都在时刻提醒我们:眼见未必为实 !深度不能再理所当然地相信互联网上的伪造网络图像和视频。
Deepfakes技术发展大事记
2014:Deepfakes技术诞生2014年,打开的潘多拉“GAN之父”Ian Goodfellow与同事发表了首篇介绍生成对抗网络(GAN)的安全科学论文,它就是香港云服务器魔盒我们今天深入讨论的deepfakes的技术基础 。
2015年:GAN越发完善研究人员开始将GAN与经过图像识别优化的深度多层卷积神经网络(CNN)相结合。CNN能够并行处理大量数据,伪造网络而且在显卡上的打开的潘多拉运行效率特别高。这一组合取代了以往较为简单的安全GAN代理驱动网络,也让生成结果的魔盒可信度迈上新的台阶。
2017年:第一段Deepfakes视频诞生生成器代理通常会生成低分辨率的图像,免费模板因为越清晰越容易被检测出问题,只有这样 ,检查代理才难以检测内容的真伪。Nvidia通过分阶段训练网络:先由伪造AI学习创建低分辨率图像 ,然后 ,将分辨率逐渐提升,以此推动Deepfakes仿真能力实现了质的飞跃。自此 ,Deepfakes一词就成了AI生成图像和视频的代名词 。
2018年 :Deepfakes登陆YouTube频道此后,Nvidia研究人员进一步提升GAN控制能力 ,他们可以针对单一图像特征(例如人像中的“黑发”和“微笑”)做出调整 。源码下载通过这种方式,可以将训练图像的特征有针对性地转移到AI生成图像上 。与此同时,首个专门研究Deepfakes的YouTube频道正式上线 ,包括了各种类型的视频。

【网络转移可用于控制图像AI,例如仅创建微笑着的人像】
2019年 :Deepfakes成为主流抛开技术进步不谈,2019年是deepfakes正式成为主流的一年 。网络上Deepfakes数量快速增加 ,Deepfakes的服务器租用技术发展速度超出了预期 ,技术专家Hao Li甚至大胆预测 ,Deepfakes将在很快走向完美。
2020年 :对Deepfakes提出监管Facebook在2020年美国大选开始时宣布,将在自家平台上全面禁止deepfakes——讽刺或戏仿性质的Deepfakes除外;YouTube也采取了类似的指导方针;Twitter则开始执行其2019年推出的管理Deepfakes准则;当年8月,TikTok也开始禁止其视频平台违规使用Deepfakes技术 。
在这一年 ,Jigsaw公司正式发布了一款由AI驱动的检测工具Assembler,可帮助管理者检测出Deepfakes图像 。高通则投资了一家初创公司,该公司能够以不可撤销的方式将原始照片及视频标记为“原创”,建站模板从而降低后续的Deepfakes识别难度。
目前阶段Deepfakes技术本身仍在继续发展 ,微软已经正式推出了FaceShifter,能够将模糊的原始图像处理为可信的伪造画面 。娱乐巨头迪士尼也开始在电影制作中广泛应用Deepfakes技术 ,并推出了百万像素级Deepfakes视频制作工具。这一切 ,都为Deepfakes可能被利用的犯罪活动创造了条件。
今年6月 ,FBI发布公告 ,提醒公众警惕在远程求职面试中使用Deepfakes技术假扮成他人的情况。云计算这些职位大多与信息技术 、系统开发、数据库以及软件管理相关。如果这些诈骗者成功过关,将有权访问目标企业的敏感数据,包括客户 PII(个人身份信息) 、财务数据、公司IT数据库和/或专有信息 。
Deepfakes威胁日益增加经过多年的发展 ,现在的Deepfakes技术已经从“一眼假”变成真伪莫辨的“实时换脸”,而且门槛极低,只需要通过一款软件,几张图片,即可一键生成 。而一系列的网络安全事件也充分表明,Deepfakes引发的信任安全危机可能才刚刚开始 。
根据VMware最新发布的《年度全球事件响应威胁报告》显示 ,去年,使用面部和语音替换技术进行网络攻击的数量增长了13%。其中,电子邮件是Deepfakes攻击的主要传递载体,占整体攻击数量的78% ,这与商业电子邮件入侵(BEC)尝试的持续增加有关。
此外 ,在接受研究人员调查的网络安全专业人士中,有66%的受访人表示他们在过去一年中发现了至少一起此类事件。事实再次证明 ,Deepfakes技术用于网络攻击已经从理论威胁演变成了现实危害。
早在2019年 ,美国国土安全部就对Deepfakes技术的应用安全性提出了质疑,称“使用该技术骚扰或伤害他人利益的现象应当引起公众重视”。然而 ,用于分辨Deepfakes伪造视频的技术目前还尚未成熟。
根据威胁情报公司Sensity发布的一份最新研究报告显示 ,Deepfakes检测算法和软件有86%的几率会将经Deepfakes伪造处理过的视频认定为“真” 。而2022年3月卡内基梅隆大学的研究指出,对比市面上各种Deepfakes技术检测产品的算法和硬件基础发现 ,其准确度在30%-90%之间浮动。
更重要的是 ,随着Deepfakes技术的快速发展,也许未来再精密的Deepfakes检测算法也无法准确地识别真伪。这意味着Deepfakes技术将最终改变游戏规则——无论是社交还是娱乐方面。Deepfakes专家Hao Li认为,这种发展趋势是完全有可能的 ,因为图像的实质不过是辅以适当颜色的像素,AI找到完美的副本只是时间问题 。
此外,短视频的盛行,以及Reface或Impressions等应用的普及,使得伪造图像和视频正变得司空见惯 。过去 ,人们坚信“耳听为虚,眼见为实”,而现在,可能正如GAN之父Ian Goodfellow所言,“AI也许正在关闭我们这一代观察世界的大门。”
积极防御Deepfakes应用风险虽然Deepfakes技术在应用时产生的威胁看起来很严重,不过,我们也并非完全无计可施。FBI在之前的公告中就指出,虽然一些Deepfakes视频处理的极为逼真,但并未达到完美无瑕的程度。通过一些不正常的眨眼 、不正常的光线、不协调的声音,以及咳嗽、打喷嚏等动作细节 ,都可识别出视频的真假。在时长超过10s的视频画面中,发现这些破绽并不难。
同时,企业组织还可以采取多种措施来抵御它们 ,包括培训和教育 、先进技术以及威胁情报等 ,从而在一定程度上抑制恶意的Deepfakes活动:
首先,教育和培训员工有关Deepfakes社交工程攻击(尤其是那些最有针对性的攻击)的知识是降低风险的一个重要因素,而且必须将重点放在财务部门相关员工身上,并且经常性提醒他们注意这种可能性;其次,在技术方面,建议企业组织部署更多的分析系统,以及时发现异常伪造行为等 。Deepfakes欺诈活动一般需要时间来设置和执行,这让潜在受害者有足够的时间来发现警告信号并采取行动;除此之外 ,企业还可以通过随机分配用户指令来实现有效防御。因为Deepfakes创作者无法预测数以千计的可能请求 。虽然犯罪分子可以实时操纵Deepfakes ,但视频质量会显著下降,因为Deepfakes技术所需的强大处理能力使其无法快速做出反应 。在此情况下,反复响应错误的用户可以被标记 ,并进行进一步调查。Tags:
转载:欢迎各位朋友分享到网络,但转载请说明文章出处“信息技术视野”。http://www.bziz.cn/html/646b899345.html
下一篇:勒索软件逆势呈增加趋势
相关文章
什么是入侵检测系统?有哪些分类?
数据库在现在网络中,攻击无处不在,可以不夸张的说,每一秒都有企业或者个人被网络攻击。有人说了,不是有防火墙嘛?确实,防火墙是防止有害和可疑流量流入系统的首选解决方案,但是防火墙并不能保证 100% 万无一失 ...
【数据库】
阅读更多保证接口数据安全的十种方案
数据库前言大家好呀,我是捡田螺的小男孩。我们日常开发中,如何保证接口数据的安全性呢?个人觉得,接口数据安全的保证过程,主要体现在这几个方面:一个就是数据传输过程中的安全,还有就是数据到达服务端,如何识别数据 ...
【数据库】
阅读更多为什么企业需要在物联网中实施零信任
数据库物联网格局和威胁考虑到物联网设备固有的不安全性,企业当今面临更多的威胁,而安全防御措施薄弱的物联网设备通常作为第一道防线。这尤其令人担忧,因为在行业调查中,有94%的首席信息官承认,他们的运营环境将在 ...
【数据库】
阅读更多