您当前的位置:千讯科技网资讯正文

DeepFake又添劲敌谷歌开源新数据集将成为鉴伪存真的有力武器

2019-09-27 15:59:49  阅读:3786 作者:责任编辑NO。姜敏0568

编者按:本文来自微信大众号“将门创投”(ID:thejiangmen),36氪经授权发布。

From: Google等编译: T.R, Ace

深度学习的飞速开展让咱们的生活在短短几年内发作了天翻地覆的改动。最新的生成模型让人们感触到了AI实在的法力,能够组成从图画到声响乃至视频的各种杂乱的数据。它们在各个范畴有着广泛的运用,例如文本语音生成和为医学图画处理生成练习数据。

但技能是一把双刃剑,善恶总会在新技能上被体现得酣畅淋漓。 前两年呈现的DeepFake换脸技能就将AI品德再次带入了风口浪尖的言论漩涡。

现在干流的运用DeepFake的几个东西

自从2017年多个人脸生成模型开源后,网络上呈现了许多的组成多媒体片段,其间大部分是为了搞笑和诙谐,让不少明星和美国政客深受困扰。

而在我国,几周前一夜爆火的换脸视频ZAO充沛投合网友喜爱新鲜、酷爱跟风的心思,运用换脸技能让一般人能变成明星或许跟自己的偶像同框表演。可是有些明眼人很快看出了问题,一张质疑用户隐私协议的朋友圈谈论图又立刻站在了跟风族的对立面。

吃瓜大众或许会觉得那些好心的提示是过于灵敏、小题大做。但当你了解过视频换脸或许形成什么成果之后,或许就不会觉得这是一件小作业了。

人们都运用DeepFake都做过哪些作业?

在打假之前,咱们再来回忆下人们都运用DeepFake做过哪些“耸人听闻”的作业。

  • 迎风作案,「AI将你看光光」上线几小时下架

这个名为DeepNude的运用软件或许是史上线下最快的APP了。功用如ZAO相同简略,上传一张女人相片>>立马脱下目标的衣服,展示其裸体……DeepNude首要用于处理女人的相片,声称暴露的皮肤越多,处理作用越好。如此揭露侵略女人隐私的运用是否会像制作女人成人电影相同遭到咱们的激烈抵抗,备受斥责呢? 公然,上线几小时后这款APP便匆忙下架,但它下架的原因 并不是遭到许多抵抗,而是由于太受欢迎? !创立团队在Twitter上表明,咱们关于这个网站的热心真的大大超出了咱们的意料…所以他们很有自知之明地中止出售和更新迭代,还警(qiu)告(qiu)咱们不要再网上共享了。

最终的结束也泄漏除了一丝丝的不舍与无法,DeepNude仍是个孩子,国际还没有做好承受它的预备。

  • 色情视频造假,明星是受害者,也是对每个人的要挟

了解AI电影的朋友或许都知道《她》这部电影,斯嘉丽·约翰逊曾为这个美貌绝伦的AI助理配音,而DeepFake流行起来的这几年中,这位全国际片酬最高、被誉为最性感女星的“黑寡妇”天然成为许多匿名创作者的梦想目标,将她的脸拼接到许多影片的性爱场景傍边。在一次采访傍边斯嘉丽坦率承认了对立DeepFake被过错运用的事例十分困难,需要对多个国家和地区的相关视频合法性建议应战。

互联网是一个巨大的黑洞,不停地吞噬自己。造假视频对我的影响没有很大,由于咱们都知道色情视频里的人并不是我。实在可怕的是,在网络上暗藏着更多比这件事更令人惊惧的作业。

  • 连美国政坛都敢碰?!

关于新式技能,总有些人自诩有着更高的品德寻求,不跟低俗的色情视频一般计较,转而将目光转向了国际政治范畴,美国政坛首战之地。

本年四月,运用DeepFake的造假视频展示美国前总统奥巴马用污言秽语凌辱其继任者特朗普。下图中左面的奥巴马其实是由右边的“替身”fake过来的。

再来看里根总统杯换上奥巴马的脸,也是毫无漏洞,比六耳猕猴还像孙悟空。

一般的文娱也就算了,更有甚者拿相似技能来进行特务活动!比方下面这位来自俄罗斯的金发碧眼美人,十分契合美剧中艳美特务的形象。

30岁左右,在尖端智库作业,具有由高档专家和权威人士组成的关系网,与一名副国务卿、一位参议员高档助理和有望参加美联储的高档经济学家Paul Winfree都有connection。但美联社已承认,这位看似三头六臂的美人并不存在,仅仅潜伏在linkedIn上的许多虚伪人物之一。这些虚伪人物运用linkedIn的巨大人脉网络,伪造出看似合理实在的身份,与别人树立联络、套取秘要。

这下美国人真急了。众议院情报委员会在一份声明中表明:“DeepFakes 引发了有关国家安全和民主管理的深入问题,个人和选民在评价他们在屏幕上所见内容的实在性时,无法再信任自己的眼睛或耳朵。”纽约州众议员 Yvette Clarke 提出一项新法案《DEEPFAKES Accountability Act》,要求任何创立组成媒体文件的人,必须用“不行删去的数字水印以及文本描绘”来阐明该媒体文件是篡改或生成的,否则将归于犯罪行为。

自此,乱用DeepFake技能的严重性现已不只限于对个人隐私的侵略和打扰,更有民众或许由于虚伪视频形成的虚伪新闻而影响对国内的民主和政治的言论走势。美国国会正在忧虑假如不对DeepFake加以约束和制止,将有或许影响2020年美国总统大选的走向,到时乃至将对现存国际系统形成影响。

根据DeepFake的运用之所以层出不穷、一日千里,源于该技能自身并不杂乱: 将A解码器接到B解码器就能得到一张假脸了。

辨认虚伪视频,谷歌开源数据集

科学家们也在不断的进行深入研讨,等待开宣布高性能的组成视频检测办法以处理这个问题。谷歌一向认真对待这些问题,在上一年《人工智能七准则》中提出:

咱们致力于开发AI最佳实践,削减AI技能乱用所带来的损伤和乱用。
为了促进这一范畴的开展,谷歌发布了组成语音数据集,支撑开发高性能组成音频检测的国际应战赛,本年谷歌进一步开发了 组成视频数据集,等待为视频辨别的开展奉献更多的力气。

经过与Jigsaw协作,谷歌发布了一个大规模的可视化DeepFake数据集,一起将合并到FaceForensics数据会集去。这一数据集将由慕尼黑工大与那不勒斯费德里科二世大学一起维护,并向全国际研讨这一范畴的科学家和技能人员开源。

数据会集包含了丰厚的实在视频和组成视频数据。为了制作这一数据集,研讨人员与很多艺人录制了数百个视频,随后运用揭露的DeepFake东西发明出了数千个组成视频。这些由实在视频和组成视频组成的数据集能够用于DeepFake的检测和辨认。

在创立组成视频的进程中,模型随机选取两个艺人的视频,并对他们的脸部进行不同程度的交流组成以获取巨大的组成数据。

上图显现了实在数据(上)和组成数据(下)的样本对,二者之间或许存在改动。组成数据的改动程度决定于拍照视频的艺人。

这一范畴的开展十分迅速,国际各地的研讨人员提出了多种办法来对组成数据进行检测。现在在这个数据集基准上现已有多个办法,最高的是Xception在DeepFakes办法上达到了96.4%的检测精度

假如想上手练习自己的组成视频检测器,那就拜访下面的网站获取数据吧:

https://github.com/ondyari/FaceForensics/

从前还有哪些测验?

Google研讨员不是第一批“视频打假卫兵”了,让咱们再看看之前还有哪些有利的测验?

  • 放大镜般辨认面部细节,揪出缺点

再天衣无缝的虚伪视频也不或许比真的更真,来自加州大学伯克利分校和南加州大学的研讨人员正是抓住了这一点,打造出一款AI辨认系统,能从虚伪视频制作者未能发觉的面部细节下手,“揪出”假视频。知己知彼、百战不殆,他们首要复盘了制作奥巴马假视频的悉数进程,再练习AI来寻觅每个人的“软性生物辨认”标签。

什么意思?每个人在说话、举动时,都会在潜意识的指导下以共同奇妙的办法移动自己的身体,头部、臂膀、手、眼球、嘴巴都会发作相似的运动。而这种潜意识里的运动正是DeepFake没有考虑到的作业,因而简略形成百密一疏。

这项研讨在试验中精确发现假视频的成功率达到了92%,而研讨人员表明,接下来他们计划经过辨认人声响的节奏和特征来进一步进步AI辨认假视频的成功率。或许是为了不忘他们的初心,正如研讨的标题——《维护国际领导人免受DeepFake的损伤》。

  • 简略两步算法,虚伪图象无处遁形

来自加州大学河岸分校的研讨人员提出一种根据神经网络的办法,两步算法找出虚伪图画。第一步,预处理意图是检测和裁剪,递归神经网络将问题中的图画分红小块(patch),将人脸摆放在一系列的帧上,然后逐一像素地去调查这些小块。

第二步是区别处理过的和实在的人脸。经过一系列编码过滤器传递整个图画,然后算法把从逐一像素输出的成果和更高层次的编码滤波器剖析成果进行比对。当这些并行剖析在图画的同一区域触发赤色标记时,就会被标记为“或许是DeepFake”。

更多关于打假DeepFake的办法如下表总结:

激烈建议对该范畴感兴趣的同学研读这篇论文:

https://arxiv.org/pdf/1909.11573.pdf

等待未来研讨员们奉献更多脑洞大开的打假办法,究竟有句话说得很耐人寻味:

雪崩发作的时分,没有一片雪花是无辜的。

防微杜渐,人人有责。

参考资料

https://arxiv.org/pdf/1901.08971.pdf

https://arxiv.org/pdf/1909.11573.pdf

https://github.com/ondyari/FaceForensics/tree/master/dataset

https://github.com/ondyari/FaceForensics/

http://kaldir.vc.in.tum.de/faceforensics_benchmark/

https://jigsaw.google.com/challenges/

http://kaldir.vc.in.tum.de/faceforensics_benchmark/documentation

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!