打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
当心被“换脸”,视频也可以“P”!-今日头条

原创2023-05-24 09:52·蒲公英的读书小站

”Deepfake似乎在一夜之间就火爆了起来。任何人都可以用它制作一段“假”视频,虽然视频的质量可能比较业余,会让人看出端倪,可是这并不妨碍Deepfake的流行与普及。

但换个角度来考虑,这也意味着,在我们的世界里,未来的所有数字信息都有被伪造的可能。无论是线上的视频、录音,还是安保摄像头拍摄的画面,甚至法庭上的视频证据,都有可能是假的。

在《假面神祇》这个故事中,阿玛卡使用的Deepfake制造工具,比皮尔在2018年使用的要先进得多,所制作出来的视频不仅更加成熟、质量更高,而且天衣无缝到连人类的肉眼或者普通的防伪检测器都看不出任何问题。

大部分人可能会出于好玩、恶搞的心理去伪造一些视频,但肯定也有人会出于恶意去制造和传播Deepfake视频,就像《假面神祇》中逼迫阿玛卡给FAKA换脸的齐。除了伪造传播性极广的谣言或假新闻,Deepfake还可能被有心之人用于伪造证据、敲诈勒索、骚扰、诽谤,更严重的还会操纵选举。“

——摘自《《Al未来进行式》

Deepfake技术的兴起让我们认识到数字信息伪造的风险。无论是在线视频、录音,还是安保摄像头拍摄的画面,甚至法庭上的视频证据,都有可能被伪造。虽然大多数人只是出于好玩、恶搞的心理去伪造一些视频,但也有人会出于恶意去制造和传播Deepfake视频,用于伪造证据、敲诈勒索、骚扰、诽谤,甚至操纵选举。这提醒我们必须认真对待数字信息的真实性和可信度,同时也需要加强技术和法律手段来保护我们的数字信息安全。

说实话,开始看到《Al未来进行式》中《假面神祇》这个伪造视频的故事时还是有点惊讶的。我知道图片可以P,因此很容易造假,但不知道视频也可以,不过看了故事后面李开复关于Deepfake的介绍,我突然感觉有点熟悉,想起70多岁的婆婆近两年在抖音上玩的一种游戏,就是把各种视频换成她的脸,不过大多很夸张,只脸形是她,其他包括肤色、神情、声音全部都不是她的,有的还很魔幻,上天入地,自然一看就知道是假的,也就是好玩,找个乐子。我感觉类似图片的P,只是这个是视频而已。

陈楸帆写的《假面神祇》中居然可以把关于一个人的视频全部完成另个人的,包括神情、动作、语言等,把一个逝去的民族英雄拿来任意利用,开始觉得这毕竟是科幻小说,关于2042年的幻想,虽然可怕,毕竟离我们还很遥远,但想到身边老人都玩的这种游戏,感觉仿佛近在眼前了。

书中也介绍了几个现实的例子,一个是关于奥巴马大骂特朗普的虚假视频,还有在美国被用来伪造娱乐明星桃色事件,想起自己当初也有耳闻,只是没有去详细了解。在我们中国,近来其实也有相关报道,2019的就有人把94版《射雕英雄传》中扮演黄蓉的朱茵换成了杨幂的脸,视频播出后,在网上引发了激烈争论,“将朱茵的黄蓉换成杨幂的脸”一度冲上微博热搜,在微博上的浏览量达到了1.2亿次。

我在微信上输入”换脸“二字,居然出现一大串都是与此应用有关的内容,包括免费小程序和换脸视频。

可以看到,Deepfake技术已经开始普及化,许多人都可以通过简单的方式进行制作,农村老人甚至都学会了这种简单的”换脸术“,当然这些视频太简单太简陋,很容易被辨别出来,老人纯粹是为了搞笑,找乐子。

说到换脸,我立刻想到了川剧中的一大特色或者说绝活,它的规范名称是”变脸“,中国戏剧人物本身就是戴脸谱面具的,”变脸“就是快速更换脸谱,它实际上是用来揭示人物心理变化的。看到舞台上”变脸“表演时,就有种神奇感,一些影视剧中为了某种特别的需要也有”换脸“的奇特情节,没想到科技真的让我们普通人也能够”换脸“了,自然更觉得神奇了,但细思却极恐。


随着技术的发展,这些虚假的视频将越来越难以被识别,这样一来,所有的视频——无论是线上的视频、录音,还是安保摄像头拍摄的画面,甚至法庭上的视频证据——都有可能是假的,这有多恐怖?

可以说,在Ps破坏了公众对图片的信任之后,Deepfake正在或者将要破坏甚至摧毁公众对视频的信任。本来,一般人对视频是很信任的,一次喜欢看手机的婆婆突然说最近哪里发生了一起特大车祸,我说没听到官方报道啊,估计是假的吧,她就反驳;”你看这视频,怎么会是假的?“我查了下,视频本身并不是假的,但事件是多年前发生的,有些人故意现在放出,让人误以为是当下发生的,这实际也是一种”造假“。但比起这个Deepfake(换脸)来说,根本算不得什么了。

没有人愿意看到他们的脸在互联网上说一些他们从未说过的话、做没做过的事,如《假面神祇》把一个逝去民族英雄的视频拿来任意切换,让他说从未说过的话,或者把他的真实视频切换成任意普通人甚至是敌人的脸,从而摧毁英雄在人们心目中的地位和人们的信念信心。Deepfake不只要破坏甚至摧毁公众对视频的信任,还可能被用于诽谤、敲诈等违法犯罪甚至用于政治目的。

这提醒我们必须警惕数字信息的真实性和可信度,同时也需要加强技术和法律手段来保护我们的数字信息安全。

好在从这项技术被发明以来,Deepfake的打假技术也产生了,有不少大学实验室和研究中心及创业人士投身其中。但“换脸”技术仍在不断发展中,在《假面神祇》中主人公阿玛卡的技术甚至躲过了最严格的防伪检测机制“如果不考虑所耗费的时间与算力资源,理论上,任何人都可以伪造出完美的图像或视频,可以骗过所有的防伪检测器,直到对方训练出下一个更强大的版本。”。

威胁和风险依然存在!


为了应对Deepfake视频可能造成的风险,我们要注意以下几点:

1.在社交媒体上要提高警惕,不轻信看到的视频和图片,当查看和分享视频时,要注意视频的来源和真实性,谨慎对待收到的不明来源的视频信息,避免随意转发分享,特别是涉及敏感和重要信息的视频。对于疑似疑似Deepfake视频,应该更加谨慎,可以使用Deepfake检测工具或服务,辅助判断视频是否为Deepfake视频。

2.学习和了解数字信息安全知识,阅读相关新闻和文章,了解Deepfake技术的特点和应对方法,关注Deepfake技术的最新发展和趋势,及时了解并应对新的威胁和风险,以便更好地识别和应对Deepfake视频。

3.当遇到可疑视频或信息时:不要盲目相信或转发,可以进行自己的调查和验证;如果必要的话,可以向相关的媒体、政府机构或专业机构进行举报和求助;如果自己的数字信息和账户被盗用或冒用,及时采取措施进行处理和报警。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
陈根:人工智能换脸危机,反制技术之必要
AI换脸技术能为所欲为?Deepfake到底有多可怕?
技经观察 | 深度伪造技术的风险及治理
朱茵和杨幂被大换脸!
别玩了!色情报复新武器:AI换脸技术及风险分析
CV之Face Change:基于人工智能实现国内众多一线美女明星换脸(基于Face++输出4*106个特征点定位+融合代码、deepfake技术)
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服