性是生产力。
Deepfake 这项技能从被人们所知悉到人人均可上手,开展程度之快出乎全部人的预料。究其底子,不过是因为 Deepfake 有一个绝佳的土壤——色情内容。
据 CNN 报导,在上一年呈现的 Deepfake 视频中,约96% 为色情内容。这些视频悉数以女人为主角,她们多是受人们喜欢的明星。这便是 Deepfake 的「魅力」地址,它能让明星也能为你「定制」色情内容,不仅仅一次性幻想,还可所以一个实在度极高的性爱视频。
用女星盖尔加朵的脸制成的 Deepfake 视频
假如帕丽斯希尔顿生在 2019 年,她恐怕很难大火。在性爱录影带如此易得的现在,即便真人上阵演一出极限动作片,也很难取得当年鼎盛的重视。
Deepfake 对人们的要挟正在扩展,它不只针对直接的女人受害者,也针对全部观看视频的人。
图片来自:Life2Coding
全部都在晋级,一开端 Deepfake 仅仅技能人员的专属,杂乱的代码让生成一个视频本钱极高。
跟着门槛的下降,斯嘉丽约翰逊、艾玛沃特森等明星统统「下海拍片」,每一个都是可怕的性爱录影带。现在,Deepfake 视频能够轻易地要挟到全部人,政界人物、你的街坊、你的女友……只需取得一张对方在交际网络的正面相片,生成一个专属的 Deepfake 视频是如此简单。它或许是一个性爱视频,也或许是一个假的政治讲演视频。
Deepfake 要挟着全部人。当你难以区分真假时,你就会开端置疑全部,一起也很简单被假视频所欺骗。
图片来自:Giphy
为此,Adobe 在和美国国防部合作开发协助判别图片真伪的东西;俄勒冈大学的研究人员想让动物帮咱们区分假造的视频和音频;还有的创业公司开端瞄准图画区分生意,主动为相片加上时刻和地址信息,供给相关真假信息承认。
技能正在寻求一种更为稳妥的解决方案,但全部的约束也需求法则法规的参加。
这一次,法则总算不再缺位。
上星期,加州州长 Gavin Newsom 签署了两项新法则,其间一项是制止任何人在推举 60 天内发布有关提名人的 Deepfake 视频。另一项法则则是答应该州居民申述任何运用 Deepfake 技能将其图画放入色情视频的人。
Gavin Newsom
它针对的是人们对 Deepfake 视频中争议最大的两个部分:色情和政治推举。
相同来自加州的议会代表 Marc Berman 以为 Deepfake 制成的视频有或许会成为误导选民做出挑选的风险东西。
选民有权力知道他们所看到的这些视频、音频和图画在即将到来的推举中或许被操作,这会影响他们进行投票,但这些内容并不代表实际。
图片来自:medium.com
但这真的就满足了吗?在约束时刻内最大程度摒除 Deepfake 视频对推举的搅扰就够了吗?答应受害人申述那些未经答应就为自己制造了一段色情视频的人就够了吗?
这全部或许远远不够。
无辜被「拍照」了一段 Deepfake 色情视频的女人只能经过绵长的诉讼流程来确保自己应有的权力,且全世界还只有加州有相关的法则支撑你保卫自己的权力。
这全部远远不够。
现在,网络安全专家 Deeptrace 现已发现了 14678 个 Deepfake 视频,视频数量比 2018 年初次计算增加了 84%,其间大部分都是人工制造的性爱录像带。有超越 1.3 万个 Deepfake 视频在相关的色情网站上,她们的主角包含女明星,网红以及一个个普通人。
图片来自:Wired
技能的开展让他们有了本来不会有的困扰。
实时视频仿真软件 Face2Face 的开发者 Justus Thies 也曾意识到这项技能的风险性,他在一次承受采访的时分表明:
假如这类视频软件得到广泛应用的话,将会对社会形成剧烈的影响。这也是为什么咱们不把软件代码开源的原因之一。假如让不成熟的人接触到这类软件,将会大大提高网络霸凌的等级。
Face2Face
Deepfake 引发的网络霸凌现已初见端倪,相关的法则法规却还没准备好。「先行者」加州做出的慎重测验也随同了不小的争议。
立法约束新技能在特定范畴的运用仅仅开端,怎么标准技能的运用,怎么维护用户的应有权力?这些都该得到更多的评论和重视。
Deepfake 所用的技能在法则范畴基本是一片空白,加州两项新法则的出台则是一个活跃的信号。
它告知全部人,Deepfake 视频所触及的新技能,不应该成为制造者的法则保证。
题图来自 The Conversation。