这个九宫格中,你能认出哪个是真人,哪个是AI生成的人吗?
科仔在不知道答案的情况下,真是犹豫了很久,结果还是遗憾地几乎错过了所有的正确答案,并且让科仔和朋友们忍不住吐槽「这5和6有什么区别吗?」。
而这个考题并不是什么恶搞的验证码测试,而是中国科学院女性算法工程师张欣怡发在微博上用于警示Deepfake的“高模拟性”的帖子。
前几日,也就是这位女性算法工程师宣布要将开源团队多年的AI大模型成果来对抗Deepfake,消息一经释出便获得了大量关注,也是一举冲上了国内外的热搜。
这个大模型并不是“小打小闹”,而是刚在世界级的外滩大会AI攻防挑战赛中获得了季军的产品。在产品简介中提到,这款大模型可以通过模拟人类的视觉能力,对图像和视频中的色彩、纹理、光照、阴影等细微特征进行深度分析,从而精准识别出由Deepfake技术伪造的内容。
Deepfake究竟为什么成为全球性的“灾难”?
最近,关于Deepfake最“热门”案件就是韩国女性的一次“自救运动”。有多名韩国女性通过微博等中文社交平台发帖求助,希望引起更多人的关注和帮助。
而让他们自发来到中国社交网站的起因是,在韩国,大量“深度伪造”图像在Telegram等即时通讯平台上广泛传播,而这些图像就是运用“Deepfake”技术进行换脸后,无关的女性的脸换到“成人”内容视频和图片上。
这些图像不仅侵犯了受害者的隐私和名誉,更对她们的心理造成了巨大伤害。
并且在《华尔街日报》的报告中指出,韩国是最容易遭受深度伪造犯罪的国家。报告发现,在两个月内分析了来自十个深度伪造成人内容网站和视频共享平台上的近 96,000 个视频后,53% 出现在深度伪造成人影片中的形象是韩国歌手和演员。而这个计算被指出还不够完全,因为没有计算“普通”韩国女性出现的比例。
更令人担忧的是,随着技术的普及和门槛的降低,Deepfake犯罪呈现出低龄化的趋势。越来越多的青少年成为了受害者或施害者。就比如下面的帖文中提到的,韩国高中的“Deepfake”情况,可见此类技术低龄化对于教育和未来的影响。
这些年纪尚小的高中生或许并不清楚自己的行为已经触犯了法律,或许只是出于好奇和恶作剧的心态。然而,这种无知的行为却给社会带来了巨大的危害。
并且从上面的统计数据中可以发现,除了韩国的“Deepfake”成人内容案件以外,在美国、日本还有咱们国内,都频繁发生各类利用“Deepfake”进行不法行为的案件。
就比如在下图中的“年轻版马斯克”直播,其实也是“Deepfake”干的好事,他吸引了超8万的用户观看并赠送刷屏礼物,但是鲜有人发现这并不是“真的”马斯克。
除了国外的事件,“Deepfake”在国内也早就引起过各类风波。
在去年,“平安包头”就曾公布的一起案例:郭先生的朋友突然打来微信视频电话,说自己在外地投标,需要430万的保证金,想借郭先生公司的账户走一下帐。
结果,跟他视频的,是用AI换了脸的骗子,佯装成郭先生的朋友来骗钱。
连年轻人都能一不小心就被“Deepfake”诈骗,缺乏辨别信息真伪的能力的老人和小孩怎么办呢?
一旦不法分子利用Deepfake技术伪造家人的照片或视频进行诈骗;或者伪造名人的言论对未成年人进行误导。在侵犯受害者的权益的同时,更可能对他们的心理健康造成长期影响。
在这一起又一起“黑镜式”惊悚的案例里,人们开始意识到,在Deepfake技术面前,公众人物和普通老百姓都难以幸免于难。“眼见+耳听”都已经不一定是事实的情况下,或许真的只有AI才能对抗AI。
张欣怡和中科院团队的这一次开源行为,无疑是世界范围内对抗“Deepfake”违法行为的一次集结号,呼吁更多人关注这一犯罪形式的同时也让更多人关注到了世界其他科研工作者在“反Deepfake”上做出的贡献。
比如在韩国女性微博求助后的一周,韩国媒体监管机构已经表示,Telegram已经按照其要求删除了平台上部分“Deepfake”的承成人内容视频内容。并且Telegram还设立了与韩国当局的专门热线,以便更好应对和解决类似问题。
比如在麻省理工媒体科学杂志上刊登的一项研究中,研究者们已经建立了一个网站,可以直接上传照片和视频并且简易地识别AI生成视频和真实视频的区别。
除了这些例子,还有更多更多各行各业的才俊们也在加入这场世界级的“攻防战”。
或许就像张欣怡在微博里说的那样:
“这个世界有黑暗,也有照亮黑暗的光。如果一个人的火把太小,我们就把火把传给世界的每一个人。”
网友评论