之前我们报道过人工智能换脸技术Deepfake,正当很多人担忧自己的样貌会不会被AI换到一些不可描述的片子上的时候,研究人员通过人工智能对虚假视频中的人像眨眼进行分析,最终有效地将假视频检测了出来。
随着人工智能的飞速发展,不少人利用所谓的Deepfake黑科技制作出虚假视频,这种视频换脸技术引起了业内的强烈担忧。
正如他们所称的那样,Deepfake是数字虚假信息不断演变的最新的——也许是最令人不安的——表现。修改图像早已有之,而篡改音频的方法也在不断改进。直至最近,修改视频一直很费劲,需要大量的专业技能和耐心。然而,机器学习技术的发展却导致该过程不断加速。
去年年底,Reddit平台上出现了一种新的色情视频,是由一个名叫deepfake的用户上传的。通过机器学习技术,deepfake已经找到了如何将色情明星面孔换成名人面孔的方法,相关视频引起了轰动。 DeepFake算法随后在GitHub上发布,给任何拥有足够专业知识和足够配置计算机的人提供了制作虚假视频的方法。
从那时起,类似的伪造视频和相关软件在互联网上如雨后春笋般出现。虽然有些是相对无害的,但这种变脸工具显然存在负面影响。很容易想象,一部制作精良的视频可能会加剧紧张局势,引发骚乱或加剧犯罪。人与人之间的相互信任可能会被侵蚀,人们普遍担忧技术的发展速度已经超出了政策的发展。
值得庆幸的是,科学界正在应对这个问题。由纽约奥尔巴尼大学的Siwei Lyu领导的一个团队发现了这些伪造视频的漏洞。 DeepFake算法根据馈送的图像创建视频。虽然比较准确,但人工智能始终无法完美再现人类自然产生的所有生理信号。 Lyu和他的团队特别关注一点:眨眼。人类通常每两到三秒就会眨一次眼。但由于人像照片通常不会闭眼,因此通过照片对这些算法进行训练意味着生成的视频中人像很少会眨眼。
因此,Lyu和他的团队设计了一种人工智能算法来检测伪造视频中哪里不存在眨眼现象。他们的算法——两个神经网络的组合——首先检测出视频中的人像面部,然后对视频中的所有连续人像进行对齐,分析每一个人像中的眼睛区域。神经网络的一部分决定人像是否闭眼。另一个用作记忆系统,记住帧到帧的变化,以确定是否随着时间的推移发生了眨眼。
首先,他们在具有睁眼和闭眼人像的标记数据集上训练人工智能。随后,为了对训练结果进行测试,他们自行生成了DeepFake视频集,甚至还做了一些后期处理,让伪造视频显得更自然。
结果令人印象深刻。根据Lyu的说法,他们的人工智能识别出了所有的伪造视频。
Lyu解释说,在伪造视频的后期处理中手动添加眨眼并不是一个巨大的挑战,而且一些伪造的视频——包括BuzzFeed上的伪造视频——确实包含眨眼。然而他们开发的这种算法,至少有助于阻止和延迟创建伪造视频的过程。 “我们正在形成第一道防线,” Lyu说, “从长远来看,这实际上是制作假视频和检测假视频之间的持续战斗。”
这项研究符合更广泛的努力。作为其媒体取证计划的一部分,该研究由国防高级研究规划局(DARPA)赞助,从2016年开始运行至2020年。他们的目标是开发一套工具来检查音频和视频等数字化信息的真实性和准确性。
“我们希望向公众保证,有技术可以打击这种虚假媒体和虚假新闻,” Lyu说。
纽约大学(University of New York)计算机科学教授马诺维奇(Lev Manovitch)认为,这也是人工智能之间竞争日趋激烈的一个例子。 “我们很清楚,计算数据分析通常可以检测到人类发现不了的模式,”他解释说,“但是如何检测另一个人工智能生成的模式呢?我们将来会看到人工智能之间的 “战争”,就发生在我们永远不会注意到的细节层面吗?
目前,Lyu的团队正在研究如何进一步开发技术,以解决诸如眨眼频率和持续时间等复杂问题。未来的目标是能够检测到包括呼吸在内的各种自然生理信号。 “我们正在非常努力地解决这个问题,” Lyu说。
当然,公共科学研究的双刃剑是,骗子一旦读过并理解了他们的骗局是如何被发现的,就可以对算法进行相应的调整。 “从这个意义上讲,他们已经占了上风,” Lyu说, “很难说哪一方最终会获胜。”