技术雷达站技术雷达站

韩国N号房2.0事件大爆发,Deepfake究竟有多“邪恶”?

怎么也不会想到 ,邪恶韩国“深度伪造”(Deepfake)AI换脸事件闹大了后,韩国N号韩国网友会来中国社交平台上发求助帖  ,房事并登上了热搜 。大究竟

*图片来源:微博

在这次事件中,有多韩国男性用自己熟人的邪恶kakaotalk头像(类似微信的聊天软件)或上传到instagram的照片(社交软件)制造“deepfake视频”并戏弄女性 。导致以女性为主的韩国N号近千人受到侵害 ,200多所学校牵涉其中,房事初高中生未成年人作案比例惊人,大究竟网友直呼是有多“韩国N号房2.0版本”案件再现。

*图片来源:微博

并且据该位韩国女网友表示:该事件的邪恶加害者,云计算目前是韩国N号暂时关闭了telegram(可加密聊天视频软件) ,并预告说如果安静的房事话会重新建立deepfake房间......

*图片来源:微博

面对疯狂的舆论环境 ,集体失声的大究竟韩国主流媒体以及沉默不作为的相关执法部门,不敢想象韩国女性到底有多无助,有多才会选择将这一事件翻译成多国语言,去其他国家的互联网平台寻求帮助 。目前 ,此事件已经引起了全球媒体的关注,整个世界都为韩国发生的高防服务器事感到震惊。

AI换脸技术横行,色情视频泛滥爆发恐慌

事情的起因始于8月28日 ,一位IP定位在韩国的网友在社交平台发布了一则求救信息 ,其中提到:韩国国内AI换脸技术横行 ,很多女学生、老师 、甚至是未成年人都被AI换脸做成了特殊用途的视频 ,这些视频在网络上广为传播  ,给当事人的生活带来了巨大的挑战  ,源码下载她请求中国网友帮她们转发扩散,以引起社会的关注。

*图片来源:微博

次日 ,又有一名韩国网友出来发声,她说自己是一名18岁的学生 ,由于AI换脸现象泛滥  ,导致她现在走在路上都怕被人偷拍,就连最亲近的人都不敢相信 ,她希望中国的网友能帮她走出困境。

*图片来源 :微博

事实上 ,这件事的建站模板开端可以追溯到今年5月。据《韩联社》5月21日报道称,首尔大学毕业生朴某和姜某,从2021年7月至2024年4月期间 ,涉嫌利用 Deepfake 技术换脸合成色情照片和视频,并在 Telegram私密聊天室里传播 ,受害女性多达61人 ,其中包括12名首尔大学学生 。当时 ,该事件被称为“首尔大学版 N 号房” 。也就是从那时起,韩国社会因 Deepfake 出现了恐慌情绪,人们越发开始担心自己会被 Deepfake 的魔爪抓住 。

更可怕的免费模板是,诸如此类这样的聊天室还不止一个,而是大量存在  ,里面铺天盖地都是韩国女高中生、大学生、白领 ,甚至未成年人的暴露视频,涉及人数高达22万人 ,都快要赶上韩国一年的出生人口了 。

*图片来源 :网络

之所以会有这么多的源码库视频 ,是因为事件背后的策划者推出了一个类似投名状的规定 ,那就是每个进入聊天室的新人,必须要上传数个女性熟人的AI换脸成人视频 ,群组里只接受一起干龌龊事的人进入  ,他们认为只有这样才能保证组织的纯净性 。

*图片来源 :Telegram

在这种病毒式拉新的推动下,受害的韩国女性越来越多,有的是被自己的弟弟或者哥哥偷拍 ,有的是在学校被自己的同学偷拍 ,有的是被熟人在朋友圈找到了素材……总之 ,只要你有一张照片流传出去  ,用不了多久 ,你的暴露视频就会被大量韩国男性见证。

更有甚者还会拿着AI换脸视频去敲诈勒索当事人,甚至提出过分要求 ,有的还会直接公布受害者的姓名、电话、家庭地址,导致当事人声名尽毁,完全不敢出门。而今 ,这份恐慌  ,终于全面爆发了 。

*图片来源:网络

Deepfake与「恶」的距离,到底有多远?

所以我们频繁提到的这个Deepfake到底是个什么东西 ?它为什么如此“神通广大”?

事实上 ,Deepfake技术是一种基于深度学习算法的人脸交换技术 ,还可以生成对抗网络(GANs) ,来创建或操纵音视频内容  ,使得生成的图像 、视频和音频看起来极其逼真。简单来说就是它能够在图像或视频中将一张脸替换成另一张脸,它的出现使得篡改或生成高度逼真且难以甄别的音视频内容成为可能 ,观察者最终无法通过肉眼明辨真伪 。再说的通俗易懂点,就是把图片或者视频中A的脸换到B的头上 ,达到以假乱真的效果。

*图片来源:mdpi官网

从技术角度来说,它的核心是一个自动编码器,实际上是一个深度神经网络 ,它能够接收数据输入 ,并将其压缩成一个小的编码 ,然后从这个编码中重新生成原始的输入数据。

*图片来源:维基百科

Deepfake通过训练一个编码器和多个解码器来实现人脸的替换 ,其中编码器负责将人脸图像编码成一个中间表示 ,而解码器则负责将这个表示解码成目标人物的脸。

Deepfake技术的潜在应用领域非常广泛,包括但不限于电影制作 、游戏开发 、广告  、教育、娱乐 、社交网络以及虚拟现实等 。近几年随着技术的发展,Deepfake开始被不怀好意的人用于制造虚假信息和深度伪造内容 ,比如伪造政治人物的演讲视频或制作非自愿的色情内容等等。

此前就有网友曾在Reddit 论坛上利用 AI 换脸软件,将《神奇女侠》的主角盖儿・加朵的脸移花接木到成人电影主角身上 。

*图片来源 :网络

今年年初,X、Facebook 等社交平台上出现了大量泰勒・斯威夫特的 Deepfake“不雅照” ,也闹得满城风雨。

*图片来源:网络

甚至有人将公开的的算法加以改造推出相关 App  ,大大降低了使用 AI 换脸的门槛 。由于操作简单,Deepfake 可以做到害人于无形 ,仅需一张自拍照或带有肖像的照片,就会被合成到不雅图片或视频中 。因此不少网友将女明星的脸换到色情片中 ,给诸多女星造成了极大困扰。

虽然后续各个平台为了遏止“换脸色情电影”的歪风,纷纷禁止相关内容出现,但“潘多拉之盒”已然打开 ,想关上就没那么容易  。

而Deepfake 的危害不仅仅体现了色情方面,运用于诈骗中亦能做到防不胜防 。

今年2月  ,香港一家跨国公司员工,被骗子邀请进了用Deepfake做的「高管视频会议」中 ,下令让他转了2亿港币到不知名中账户 ,5天之后才发现被骗了。这不仅是香港历史上损失最惨重的“变脸”案例,而且也是首次涉及AI“多人变脸”的诈骗案  。

直播版Deepfake支持实时视频换脸,升级速度太恐怖

其实自近几年 AI 的浪潮兴起后 ,由于其展现出的功能性过于强大,加上其迭代速度日新月异,因此围绕在AI身上的争议就没断过。

可能很多人对它的印象都还只停留在照片换脸的阶段,然而Deepfake早已经为人们带来了新的“惊喜” 。

某天,你漫不经心地打开视频软件,却突然看见穿着老汗衫的马斯克坐在出租屋里一本正经的直播中 ,你揉揉眼睛觉得是自己看错了。

*图片来源:网络

结果继续点进下一个直播间 ,又发现一个敞着POLO衫领口的马斯克。打着手机闪光灯,对着自己的脸晃来晃去 。

*图片来源:网络

这下你突然意识到,这些马斯克都是利用Deepfake生成的“副本”。而这样的直播 ,仅需一张照片,就能换脸生成。本地安装一下 ,就能达到实时无延迟,还支持实时预览。

也就是说,无论搞在线会议还是直播带货 ,可以用任何人的脸了。比如一打开会议软件,50个扎克伯格正在开视频会议;再一打开直播间 ,100个罗永浩正坐在里面发大额优惠券。怎么样?是不是有点瘆人了 。

这款软件名为Deep-Live-Cam ,使用时甚至无需专用硬件加速。其凭借“仅需1张照片就能偷走你的脸去直播”的噱头 ,直奔GitHub热榜第一,24小时狂澜1600+星  。不少围观网友戏称 :这下好了,以后开会不用我本人出席了 。

根据作者本人分享的“食用技巧”,主要分为四个步骤 :

首先进行一些配置:python (3.10版本推荐);pipgit;ffmpe;visual studio 2022 runtimes (windows);克隆存储库,然后下载两个模型  :GFPGANv1.4和inswapper_128_fp16.onnx,并将其放到models这个文件夹中 。

*图片来源:网络

最后再安装依赖项;如果想使用GPU加速 ,作者也进一步提供了操作指导 。安装完成之后就可以进行使用了 ,不过首次运行时会下载一个大约300M的模型。

*图片来源 :Deep-Live-Cam

如图所示 ,选择一张脸的图像以及目标图像or视频,然后点击Live。这个项目的前身叫做roop-cam,拍摄一段视频 ,用你选择的人脸替换其中的人脸。您只需要准备一张所需人脸 ,比如寡姐的图像。整个过程无需数据集,无需训练 。

*图片来源:网络

而且你猜怎么着?操作门槛这么低、效果这么好的项目 ,它居然还开源了 。随着开源时间渐长,开发者和围观网友们的讨论也日益增多,不少网友认为开源的这个决定十分疯狂。同时,也有很多人表示,这个世界已经真假难辨了。但不可否认的是,AI生成  、AI换脸走向几乎无法区分的照片级真实感,已经是大势所趋。AI技术的演变,让后真相时代到来成为现实 。而今肉眼难辨真假也确实令人细思恐极。

从照片换脸到视频换脸、再到如今的直播换脸 ,面对被黑灰产玩到飞起的AI技术,作为防护方只能在后面见招拆招,每个人都必须提高安全警惕,毕竟不是每个“马斯克”都是真的马斯克 。

AI“贴脸开大” ,不如试试用魔法打败魔法

AI技术作为21世纪最具变革力的科技之一,在带来机遇的同时 ,也带来了风险与挑战。特别是近几年伴随着生成式 AI 的火热出圈 ,AI 开始加快在各行各业的技术落地  ,越来越多的场景涌现。与此同时 ,AI 也为不法之徒提供了更便捷的工作 ,给个人、企业网络安全都带来了更多威胁。

通过 AI 技术 ,攻击者将更加快速 、高效地击溃企业的安全防御 ,而企业的数据也将在这种情况下面临更大的威胁 。

虽然在AI 时代下企业面临着更大的网络安全和数据安全的挑战 ,但如果我们换个思路来看,其强大能力也为安全防护技术的变革提供了新的思路 。“用 AI 的力量来对抗 AI ”也不失为一个守护网络安全的方向 。除了传统的 AI 技术与安全产品的融合以外 ,去年火热的 AIGC 技术也为安全行业提供了更多的技术选择 。比如 :通过 AI 自动学习识别,预测一些潜在的风险,并将这些风险自动隔离起来,或者通过 AI 的赋能,让企业级防火墙具备更强的应变能力等等。

AI大模型能够基于海量文本进行预训练的大模型,成为提供智能安全“参谋”,对症提出适当的分析和防御策略。企业可以基于“以攻测防——以攻促防——攻防一体化”的安全理念,利用AI大模型模拟各类攻击场景,不断探索模型和系统的弱点 ,以此推动算法和工程端的防御能力加强 ,也可实现更智能化的安全防控 。通过简单的自然语言描述快速分析安全局势,提出应对措施建议  ,辅助安全团队规划解决方案等等。

另外 ,还可以通过AI大模型技术学习风险知识和标准规则来提升 AI 对于风险的认知理解能力 ,以实现用大模型对抗大模型来进行极速防御和快速冷启动的目的。

此前有业内专家就曾表示过:相比人工收集的有限样本 ,大模型生成的海量多样化样本 ,将使安全检测模型“见多识广”,更快适应新的威胁方式,以AI对抗AI ,将成为网络安全的一个关键的进化方向 。

在AI技术飞速发展的浪潮下,人们看到了AI惊艳表现的光彩一面,但同时黑暗的一面也正在暗自发力 ,野蛮生长 。

无论是对企业还是个人而言 ,AI安全问题至关重要。但说归说 ,真正想做好还是很难,即便像OpenAI这样的巨头 ,也被曝出“超级对齐团队”疑似解散,并没有分给AI安全足够的资源与关注度的问题。那可想而知其他更多追赶其后的AI企业,在平衡技术与安全的问题上势必会面临更大的阻力。但无论如何,如今的AI安全已经不再是一个可选项,而是必选项。

赞(5)
未经允许不得转载:>技术雷达站 » 韩国N号房2.0事件大爆发,Deepfake究竟有多“邪恶”?