AI

OpenAI联手多方加强Sora监管,严控AI视频深度伪造风险

PConline 2025-11-07 16:24:27
AI快讯
由华为云驱动

近日,OpenAI与美国演员工会等多方联手严控其AI视频生成工具Sora风险。因Sora强大内容生成能力带来深度伪造风险,如引发演员担忧、出现不敬形象等。OpenAI承诺后续版本实施严格“选择加入”政策,建立响应机制,开放技术细节,还支持《禁止伪造法案》,加强版权与肖像保护。

近日,OpenAI与美国演员工会(SAG - AFTRA)等共同发布联合声明,宣布建立深度合作机制,重点防范其AI视频生成工具Sora可能引发的深度伪造(Deepfake)滥用问题。

Sora是OpenAI推出的文本到视频生成模型,自曝光以来备受全球关注。它具备“1分钟长视频生成”“物理规律模拟”“多镜头叙事”等强大能力。然而,其强大的内容生成能力也带来了深度伪造风险。不法分子可能利用该技术伪造名人影像、篡改历史事件或制造虚假新闻,这对个人名誉、社会信任甚至国家安全都会构成威胁。

当地时间10月20日,因在9月底Sora 2上线后,有用户在平台上生成了未经授权、模仿演员布莱恩·克兰斯顿声音与形象的AI视频,引发了这位《绝命毒师》主演的担忧。克兰斯顿表示,感谢OpenAI制定政策并完善防护机制,希望从事这一领域的公司尊重个人管理声音与形象复制权的职业权利。

除了美国演员工会,OpenAI还将与代表克兰斯顿的联合人才经纪公司(UTA)、经纪人协会(ATA)及创意艺术家经纪公司(CAA)展开合作,进一步强化对未经授权AI生成内容的防护。此前,CAA和UTA曾公开批评OpenAI在Sora中使用受版权保护素材的做法,称其对客户及其知识产权构成威胁。

另外,上周因Sora用户生成对民权领袖马丁·路德·金的不敬形象,OpenAI应马丁·路德·金遗产委员会的要求,在Sora平台封禁了相关视频。

自9月30日Sora 2推出以来,OpenAI在版权与肖像使用政策方面持续调整。10月3日,OpenAI首席执行官更新了Sora的“退出(opt - out)政策”,新政策赋予权利人“更精细的角色生成控制权” 。在Sora推出时,平台就要求对个人声音与肖像的使用需经授权同意(opt - in),随后又进一步承诺迅速回应任何相关投诉。

此次合作中,OpenAI承诺在Sora的后续版本中实施严格的“选择加入”(Opt - In)政策。所有艺术家、表演者及普通用户需明确授权后,其声音、肖像方可被用于AI生成内容。例如,若用户希望生成布莱恩·克兰斯顿的虚拟影像,必须通过其本人或授权代表的确认,并明确使用场景与期限。

同时,OpenAI将建立快速响应机制,对涉嫌侵权的生成内容进行下架处理,并配合执法部门追溯源头。此外,OpenAI宣布向合作方开放部分技术细节,鼓励第三方机构开发深度伪造检测工具。目前,已有斯坦福大学、MIT等高校参与相关研究,试图通过算法识别AI生成内容的微小瑕疵。

OpenAI还重申支持美国的《禁止伪造法案》,该法案旨在防止未经授权AI生成他人声音或肖像。

点击展开全文
打开APP,阅读体验更佳

网友评论

聚超值推荐

更多优惠

相关推荐

相关产品
取消