人工智能带来的负面效应:让科技公司头疼的deepfake“换脸术”

2019-08-28     疯狂的程序猿

如何解决deepfake这样的问题?随着新工具的出现,从科技公司到政界人士,每个人都不得不问这个问题。这些工具越来越容易使用,可以制作人工智能操纵的视频,在视频中,人们的相貌被以曾经无法想象的方式重新利用。

这些视频有时是为了讽刺,有时是为了黑色喜剧。今年早些时候,deepfake的一段视频显示,首席执行官马克•扎克伯格(Mark Zuckerberg)兴高采烈地吹嘘自己拥有用户数据的所有权。乔丹·皮尔(Jordan Peele)以口头语传唱了一则关于假新闻的广告,其中描述了巴拉克·奥巴马(Barack Obama)称他的总统继任者是“彻头彻尾的混蛋”。“随着2020年总统大选的临近,人们比以往任何时候都更担心deepfake会被滥用,帮助传播谣言。

“我认为人们应该深切关注deepfake技术,”欧盟夏尔巴人项目(SHERPA project)的参与者、三方研究主管戴维•赖特(David Wright)对Digital Trends表示。该项目关注的是人工智能的道德使用。“它将继续进化,变得更加难以区分什么是真实的,什么不是。色情网站将继续利用deepfake技术来利用名人的声音和图像。网络犯罪团伙将不可避免地使用deepfake技术进行极其复杂的鱼叉式网络钓鱼。我们可以期待右翼政客和他们的追随者利用它来欺骗选民,破坏他们对手的声誉。他们将受到干涉选举进程的外国势力的帮助和教唆。”

最近,民主党众议员亚当·希夫(Adam Schiff)询问Facebook、Twitter和谷歌,他们计划如何打击包括deepfake在内的篡改视频和图片的传播。这三个人都说他们正在解决这个问题。但是这个问题有可能解决吗?

追捕deepfakes

幸运的是,deepfake的传播并不是孤立发生的。随着这些工具的改进和普及,也有研究人员在研究这个问题的另一面。这些研究人员正在开发一种方法,通过这种方法,人工智能技术可以帮助识别deepfake,而且精确度很高。在德雷克塞尔大学,多媒体和信息安全实验室的一组研究人员最近开发了一种深度神经网络,它可以以很高的精度发现被操纵的图像。其他大学也开发了类似的工具,比如德国慕尼黑工业大学。

“以目前deepfake新技术的生产速度,法医研究人员几乎不可能跟上。”

然而,这些工具还没有完全为黄金时间做好准备——正如德雷克塞尔大学deepfake finder的研究人员之一布莱恩·霍斯勒欣然承认的那样。霍斯勒说:“在我们所看到的探测器中,很多都非常精确,但是只有在特定的假设条件下才能工作。”“任何与这些假设不同的地方,比如使用不同的deepfake软件,或者改变视频的纵横比,都有可能削弱探测器。”

一个主要问题是,当前的假设围绕着用于创建deepfake的软件留下的工件。这些怪癖,一个精明的人现在可能能注意到,如不一致的眨眼或奇怪的嘴唇运动;这些元素透露出最终的视频位于恐怖谷的某个地方。

但deepfake的技术一直在进步,这意味着像deepfake早期那些漂浮的头部这样的视觉异常(记住,那只是几年前的事)已经基本上得到了修复。虽然仍然有一些视觉标记,比如奇怪的面部深度和扭曲的运动模糊,当一张脸移动得太快时,这些东西可能不会被你的普通观众发现。如果你的普通观众已经习惯了在线上多变的图像质量,却没有理由相信他们正在观看的内容可能是伪造的,那就更是如此。

霍斯勒继续说:“以目前deepfake新技术的生产速度,法医研究人员几乎不可能跟上步伐。”“制作广泛应用和可靠的deepfake检测器的最大障碍在于视频本身的一致性。Deepfakes最初是一个在线社区和一个特定软件的名称,但现在指的是任何人工智能-生成或编辑视频。制作这些视频的方法千差万别,很难进行可靠的检测。”

即使是像对现有视频进行重新压缩这样的事情,也足以掩盖探测器用来发现deepfake的痕迹。对于使用最广泛的视频分发平台来说,这是一个特别的问题,这些平台会重新压缩上传的图像和视频,以节省文件大小。因此,这些新压缩的文件经常引入额外的视频构件,这些构件覆盖了deepfake检测器用作线索的那些构件。

如何部署它们

但是开发正确的探测器只是问题的一部分。更棘手的问题是,一旦这些工具强大到可以使用,如何部署它们。现在,似乎没有人知道答案。虽然从技术上讲,禁止deepfake是可行的,但没有多大意义。禁止用于图像编辑的软件,因为它可能被用于邪恶的目的,这有点像试图禁止键盘,因为有人在互联网上写了一些肮脏的评论。

“如果社交媒体和科技公司能够自动扫描上传到它们网站上的每一个视频,那就太好了……”

在最近一封日期为7月31日的信中,Twitter的公共政策和慈善事务主管卡洛斯?Monje写道:“如果我们意识到使用deepfake传播虚假信息违反了我们的选举诚信政策,我们将删除这些内容。”

要实现这一目标,有两个挑战。第一个是主观的,它区分了那些旨在传播错误信息的内容和为讽刺而制作的内容。2012年YouTube上的一段流行视频显示,巴拉克•奥巴马(Barack Obama)演唱了卡莉•雷•杰普森(Carly Rae Jepsen)的热门单曲《Call Me Maybe》。该视频由数百个奥巴马单独讲话的微剪辑剪辑而成。在撰写本文时,该视频的浏览量已超过5000万次。与此同时,最近的一段被篡改的视频显示,南希•佩洛西(Nancy Pelosi)有点懒散,让人觉得她说话含糊不清。5月24日,特朗普总统在推特上发布了这条微博,目前已获得超过9.5万个赞。无论是奥巴马歌曲的5000万次点击量,还是佩洛西的这段视频的95000个赞,都远高于上次左右总统大选的约8万次点击量。

“佩洛西在新闻发布会上结结巴巴”本;唐纳德·j·特朗普(@realDonaldTrump) 2019年5月24日

以下哪个视频(我应该补充一下,这两个视频都不是deepfake的)的目的是传播错误信息?我们许多人会得出这样的结论:与前者相比,后者更像是一种经过深思熟虑的政治举措。但是向机器人解释为什么一种声音控制方式是好的(甚至是受欢迎的),而另一种可能不是,这是非常困难的。如果第二段视频是由一个明显具有讽刺意味的无党派账号——比如说“酒鬼骗子”(DrunkFakes)——在twitter上发布的,情况会怎样?如果它在没有上下文的情况下被政治对手转发了呢?模仿学徒时代的唐纳德•特朗普(Donald Trump)是件好事吗?这些上下文相关的、微妙的争论很重要。

但是,如果要严肃对待与deepfake的斗争,就必须迅速、权威地做出决定,而且不能指责存在偏见。迅速行动是至关重要的,但做出正确的决定也是如此。

规模问题

这就是两大挑战中的第二个阻碍:规模。霍斯勒说:“如果社交媒体和科技公司能够自动扫描上传到它们网站上的每一个视频,那就太好了。但现实是,考虑到每天上传的视频内容的数量,这几乎是不可能的。”

根据2019年5月的数据,每天每分钟大约有500小时的视频上传到YouTube。这使得手动检测非常困难,但必须立即采取行动。“我们不能指望科技公司拥有无限的资源,”霍斯勒说。

“目前的(反deepfake)技术还没有准备好让普通人使用。”

最近,有更多的协调一致的努力使像Facebook这样的平台对他们所承载的内容承担法律责任。这些提议是否有任何意义还有待观察。说到deepfake,这比监控帖子中的某些关键词或不太受欢迎的网站链接要困难得多。

然而,政客们正迅速接受deepfake,将其视为需要解决的重大挑战之一。他们有理论上的解决方案。例如,纽约民主党代表Yvette Clarke曾建议,被修改的媒体必须使用水印标记。如果你没有正确地标注你的视频,将会对创作者或上传者处以民事和刑事处罚。

文章来源: https://twgreatdaily.com/zh-hans/rPXQW20BJleJMoPM-O5_.html