在B站鬼畜区,恶搞蔡徐坤已经成了少男们发泄创造欲和荷尔蒙的快乐擂台赛。
这个事情的来龙去脉,我们在这片文章中已经详细说过,不赘述,点击图片看。
不过,其中技术最为牛逼的是换脸UP主,他们用AI换脸技术,可以将蔡徐坤变成任何人,栩栩如生。
网友眼中有些古板的孙悟空六小龄童,在AI换脸的世界中,成了时尚潮男。
△ 来源:B站up主 六学世家
虽然我对蔡徐坤不是很熟,但我还是要谢谢蔡徐坤,是他让我领略了AI换脸的有趣,展开了对AI换脸的学习。
AI换脸,又叫Deepfake,是人工智能的一个分支,如果按族谱算,无人汽车、阿尔法狗、微软小冰等比较出名的产品,都是Deepfake的哥哥。
但在Deepfake的世界中,身份就是没有身份,美猴王可以打起篮球,苏大强可以变成吴彦祖。
△ 来源:梨视频
能把徐锦江变成海王。
还可以复活张国荣。
从b站海量up主可以掌握AI换脸来看,这技术看着新颖,实际操作起来,并不深奥。
其实本技术,已经在各个领域沿用许久了。
换脸技术运用最广泛的领域就是电影,比方说1994年的《阿甘正传》就用了“原始”的换脸技术,用数字方式,将肯尼迪的影像填充到了电影中,并调节他的表情和肢体语言。
△ 如果你仔细关注肯尼迪的脖子,就能看出端倪
而在《速度与激情7》中,虽然沃克不幸在电影拍摄完成前去世了,但依靠换脸技术,通过电脑合成的沃克,还是能生动地出现在荧幕上,与大伙见面。
不过,在国外,网友们多是利用deepfake技术来恶搞政坛人物,而非大牌明星。
程序员可以换脸奥巴马,用奥巴马的口吻谈论国事。
模仿普金的口吻,也不在话下。
甚至就连希拉里也成了自己最讨厌的模样。
做这个希拉里·特朗普的视频不复杂,仅仅用了一个叫FAKEAPP的软件,放入图片、视频,成了,操作起来十分简单,就算是不懂得编程的人,只要仔细阅读使用帮助,也能马上动手做一个换脸视频。
不过,deepfake第一次广泛出现在观众视线的,并非令人逗乐的鬼畜创作,而是在Pornhub上流行的“deepfake”系列视频,就是把自己喜欢的女明星的脸,放上色情片女主角脸上。
在这个色情领域,安妮·海瑟薇、艾玛·沃特森、神奇女侠加尔·盖朵是被deepfake最多的女星,这里就不放实物图了。
△ 成人片演员跟KateMara以及艾玛沃森换脸
而这些明星换脸视频的制作源头,往往指向一个地方——Reddit的deepfake论坛。
△ 如今deepfakes论坛,由于色情视频、色情复仇、隐私侵犯、恋童癖等问题被Reddit给封禁了
这个deepfakes论坛的发展过程,有点像倒过来的马斯洛需求金字塔。
在初期,少数了解deepfake技术的精英们,为了传播deepfake技术,创办了这个论坛,不仅满足了自己的成就感,也赢得了网友们的尊重。
不过,久而久之,网友们在讨论学习的过程中,也发现deepfake技术的黑暗面——可以满足自己的私欲、性幻想,网友们将自己“梦中情人”的面庞,放到了各色视频中。
△ 色情女星换脸盖尔·加朵
然而,这种发展却逐渐异化、病态化了,有的网友直接收集女生照片,用deepfake技术定制色情片了。
△ 这位屌丝,得不到自己暗恋的女生,收集了许多她的照片,在各个社区求助,想自己动手做一部换脸黄片。他也在reddit上发过,帖子已经被封了
这种色情癖帖子的传播,最终很可能会演化出新产物——色情复仇。
△ BBC:“deepfake将是色情复仇的新工具”
比方说你憎恨某个人,那你就收集他的照片,用deepfake技术与色情片演员换脸,伪造色情视频,在网上传播。
偷窥狂、性报复者,不用提心吊胆地安装针孔摄像头了,只要偷拍女性的照片、或者在网上收集,接着利用deepfake技术,就能做出伪造精良的色情视频。
△ “零技术”、“相片就可制作”
别说是你的爱豆了,就连你的爱人,要是被怀有恶意的老王盯上了,你能保护你爱人的名誉么?
给大家讲一个案例。
印度记者RanaAyyub,因为揭露了印度古吉拉特暴乱中官员的黑幕和不作为。她不仅收到了死亡威胁,她也被色情复仇了。
不法分子利用Deepfake技术,将Rana的脸与色情片女主角的脸互换,做成粗糙的短视频,在Whatsapp上传播。而且,许多印度人真的信了,甚至,Rana的家人还拿着视频来问Rana:“这是你么?”
△ 在印度Whatsapp上流传的Rana的换脸视频,据Rana说,整个印度的人都看过了她的换脸视频
Whatsapp和推特上,不断地有人来询问Rana一夜情的报价,也有人用最恶毒的语言咒骂Rana。
△ 大意是:“一个婊子跟狗一起死去吧,支持她的垃圾都去哭吧。”
最后,因为社会的压力,Rana患病住院。心悸、焦虑、抑郁、失眠、高血压、内分泌失调。而且,印度尚不健全的法律制度,帮不了Rana。
别以为Rana的故事就远在天边。
现在的中国明星换脸的视频已经在这些色情网站上大量存在了,而且售卖视频已经成了一个地下生意。
大家不能低估了人性的恶,想要毁了一个人的人生,只需要一个精美的deepfake色情视频。
到时候即使某明星证明了该情色换脸视频是假的,又能怎样?大众还是喜欢看热闹,各种视频还是在疯狂传播,就像Rana的换脸小视频一样。
在正义和人性最卑劣的欲望之间,后者是更容易获得胜利的。
如果看待deepfake还停留在恶搞蔡徐坤、对着明星撸管儿、拍点低成本A片的阶段,还不足以概括其中的恶意。
除了色情领域的滥用,Deepfake更大的危害,目前在一片欢声笑语和淫秽视频中还没有显现,就是deepfake这个成本极低的技术,可以篡改视频证据。视频、照片已经不能算作真实的依据。
一些社交媒体疯狂的世界,人们无法识别什么是假新闻。早在2016年,欧洲刑警组织《网络有组织犯罪威胁评估报告》中,就已经点明了deepfake犯罪将成为趋势。
而且,现如今,在人工智能的圈子里,出现了Deepfake2.0概念,就是不止要AI换脸,还要能模仿一个人的行为举止、声音、习惯、动作。要真的实现了,AI换脸视频和真人视频,就根本无法分辨了。
△ 斯坦福研究中心的一个研究项目,研究怎么模仿一个人的口吻和语音
没准再过十几个月,一个小黑客就可以轻松模拟出川普和妓女的欢愉视频,或是普京辱骂穆斯林国家的视频。这会引起直接的国际争端和政治大变动。
对于我列举的可能,大家或许不以为然,想着怎么可能会有人会上当受骗。但事实就是在世界的许多地方,尤其是第三世界的穷人们,缺乏辨别是非的能力,他们就非常吃这一套。
△ 2018年7月,印度的Rainpada村村民,因为在Whatsapp听信了拐卖小孩的谣言后,将路过村口与小孩交谈的五位陌生人,抓入房间内打死
再比如,deepfake一个马云、马化腾唱衰经济的视频,很有可能造成一段时间的市场恐慌抛售,那么伪造视频的人可以借此大肆做空获利。你的财产就这么缩水了。
你可能会质疑,市场有这么蠢么?抱歉,这就是事实。2013年4月23日,美联社的推特账号被黑客攻击,发布了一条假新闻,说:“号外:白宫发生两次爆炸,奥巴马受伤”。
这么容易求证的假新闻,却导致道琼斯指数当即暴跌了140多点,在假新闻的冲击下,瞬间蒸发掉了1365亿美元。直到新闻被证伪,市场才渐渐回归理性。
而且,这则流言仅仅是假推特罢了,在deepfake2.0的加持之下,有可能川普今天在白宫宣布核震慑中东,明天普京就在克里姆林宫下令进军乌克兰了。
要是假新闻真的在网上流传了,社会会产生多么剧烈的反应?又需要多少时间重回正轨?
正如美国共和党大佬卢比奥说的,deepfake就是核武器。
你只需要具备弄出一段可以以假乱真的虚假视频来搞乱我们的选举就行了。这就足以让我们的国家陷入巨大的内乱,深深削弱我们。
或许你觉得这个都是大人物的纷争,与你小民无关。
但作为一个缺乏反制能力的普通人,如果有人想利用deefapke视频对你进行诈骗,你很难防范。
东欧小国的某个模特,与你视频聊天,念着你的中文名,变着花样让你微信发红包,要你证明你们的爱情海枯石烂。
最近就有一个乌克兰的女性附着照片给我发邮件,但没有回复,因为这骗局已经太古老了,在这骗局之前,还有中东王子、非洲公主、南美毒枭都给我发过相亲信息了。但如果她和我视频聊天呢?我觉得我可能真的有些心动。
甚至,你的亲朋好友的脸也会被替换成勒索视频中的人质,哭着求你转账救人,要是你看到这个视频,你还能调用理性分辨出真假吗?我觉得很难。
抑或者,在一个换脸视频中,你的脸被放在了犯罪分子身上。这时候,你又该如何自证清白?在愤怒的网友面前,告诉大家这不是你?
deepfake这一项技术,是人工智能的一个支流,它既可以给大家带来乐趣、缅怀逝者,也催生了色情暴力、政治恐慌。deepfake究竟是造福人类还是一个诅咒呢?我们谁都不知道,我们只能在这个前途未卜的高速公路上狂奔。