本篇文章4756字,读完约12分钟
最近,一款叫做zao的人工智能换脸app在国内发售。 客户只要进入一张正面照片,就可以通过一个按键操作,把影视剧中演员的脸变成自己的,马上生成视频,通过社会交流媒体推广,瞬间圆上明星梦。
这个面目全非的app很快成为爆款,很受欢迎,但很快引起了相关部门的观察,本周,工信部就互联网数据安全问题谈了相关企业。
另外,变脸软件所依赖的ai技术也备受瞩目,被称为deepfake、深度伪造。
外国媒体报道:我们不能相信网络上的所有东西。 对,深度伪造,深度伪造,深度伪造! 是的,这到底是什么? 深度伪造技术是利用人工智能合成假乱真视频,这是一种高科技手段,可以将某个词塞进某个人的嘴里。
deepfake (深度伪造)、deep learning (深度学习)和fake (伪造)组合而成的新单词。
简单来说,就是可以实时伪造脸部表情,渲染成2d合成视频的人工智能技术。
一年多前,即去年12月,一位名叫deepfakes的顾客在reddit媒体上发布了虚假视频,将成人色情电影演员的脸换成了斯嘉丽·约翰逊等知名女演员的脸,从而导致画面造假。 这给人工智能换脸技术带来了轩然大波的流量,deepfake的深度被伪造,逐渐成为该技术的替代名,同名算法也在github开源中,是面向开源和私有软件项目的主机。
网络视频造假专家沃德博士:你好。 今天我们要谈谈影响名人的新技术。 (记得)奥巴马说特朗普是傻逼,还是卡戴珊的饶舌因为我总是半裸? 深度伪造! 深度伪造! 深度伪造! 这也是深刻的伪造。 我也不是阿黛尔。 我是网络造假的专家。 深度伪造是形容人工智能技术合成的视频和音频文件。 最初是很基本的脸部交换,现在变成了电影特技。 有了这样的爆款技术,啊,我们什么都不相信了。 没错,深度伪造是可怕的反乌托邦。 他们会变得更简单,制作价格也会更便宜。
李浩是美国南加州大学的助理教授,针幕动画企业的联合创始人,这家企业推出的软件可以让客户在虚拟现实游戏和购物的同时,实时定制自己的三维虚拟化身。
针幕动画联合创始人李浩:现在,我做了你的化身。
美国公共广播企业记者布莱恩:温柔整洁的布莱恩。
这个魔术谁都可以用。 当然也包括政界要人。
美国公共广播企业记者奥布莱恩:现在,我成为了我们的总统(特朗普)、日本首相安倍晋三。
针幕动画联合创始人李浩:当然,这个技术可以用来制造真正糟糕的事件。 但是,首要目的绝非如此。 在娱乐、时尚、生活习惯的各个方面,都会给我们带来越来越多的体验。
但是,随着技术的迅速发展,这种合成图像和视频的真实性更加增强,欺骗性也更加增强。 对此,研究开发者也不担心。
针幕动画联合创始人李浩:我们假设有临界点。 那时,无法区别真伪。 从视觉效果上来说,我觉得你可以非常接近了,取决于你有多努力。 但是,关于任何人都能制作的副本,我认为非常接近这个临界点。
年1月,一个叫fakeapp的软件上线,声明可以一键改变脸部。 可以生成的视频拷贝包括恶作剧美国总统特朗普和给好莱坞明星贴上自己的脸。
一些社会交流信息网站,例如reddit网站,禁止在自己的平台上发布更改面部的视频和照片,但9万多名顾客在reddit上播放了这样的视频。
计算机科学专家费里德:我很担心这项技术会被武器化,会如何影响整个社会。
深度伪造不仅可以变脸,还可以伪造声音。
据《华尔街日报》报道,今年3月,犯罪分子利用先进的伪造技术,合成了一家电脑企业的首席执行官的声音,成功诈骗了22万欧元。
电脑的合成音真的很难被识破吗?
年,蒙特利尔大学的3名博士共同创立了一家名叫琴鸟( lyrebird )的企业。 这家企业开发了一种语音合成技术,只要把目标人物的声音录制一分钟以上,把录音扔给琴鸟解决,就可以得到特殊的密钥,利用这个密钥,用目标人物的声音,可以生成想说的话。
琴鸟创始人:你需要录制自己几分钟的声音。
布隆伯格新闻记者万斯:成千上万的文字在业余作家的画面上跳动。 像这样开始吃东西的话,会有问题。 请退出政治圈,不要。 我不知道你是怎么工作的,但现在在做我的数字语音。 制作你的数字语音至少要一分钟,一分钟,我的天啊。
一旦被录音,琴鸟就会自动旋转合成你的数字声音。
这个时候,只要在电脑上输入想说的话,就可以用新合成的你的声音说话。
记者万斯的数字合成语音:人工智能技术似乎发展很快,我们应该害怕吗?
布隆伯格新闻记者万斯:我确实听说了,真的很有趣。 我只是随便选的,我没说过。
另外,琴鸟可以在合成音中加入感情要素,使声音听起来更真实。
布隆伯格新闻记者万斯:现在,为了实验我的电脑合成音,我给亲爱的妈妈打电话,看她能不能听到。 你好,妈妈,今天有什么计划?
班斯的母亲:今天早上家里没电了,我们在家里闲逛。
班斯:我刚下班,等着接儿子回家。
班斯的母亲:是的。
文斯:我想我可能感染了病毒。
班斯的母亲:那你就不舒服吧。
万斯:哈哈,我刚才在和你闹,你刚才在和电脑说话。
班斯的母亲:我感觉在和你说话,真奇怪。
文斯:害怕还是可以?
班斯的母亲:一旦涉及重要事件,真的很可怕。 现在是你,对吧?
文斯:我不知道。
班斯的母亲:听起来像你。
文斯:是吗?
班斯的母亲:是的。 听起来像你。
布隆伯格新闻记者万斯:很明显,有些人被这种技术吓坏了。 因为我们模糊了现实的真相。
琴鸟创始人:当然,有利用这项技术做坏事的风险。 但是,科学技术不能阻止快速发展,所以我们决定选择道德方法,让人们看到技术,让人们知道这项技术的可行性,让他们提高警惕。
网络安全企业pindrop以美英德法四国共计500家公司为对象进行了网络调查,从年到年,语音诈骗案件数量增加了350%,638个诈骗电话中有1个是人工合成语音。
瑞士苏黎世大学的乌德里希研究员:长期以来,人类的声音是(假人)最大的挑战。 因为每一个声音都极其繁多,庞杂而独特,很少被伪造。 但是近年来(技术)取得了很大的进步,视频素材与伪造语音的结合构成了很大的威胁。
确实,有成熟的声音伪造技术,很难组合伪造的图像,制作假乱真、刻意的视频。
伪造深度造假视频:特朗普是个十足的笨蛋,我看到他从来不说这些话,至少在公开演讲中(不),但其他人会像乔丹·皮尔一样说。 这是一个危险的时代,今后我们必须对我们信任的网络更加警惕。 这个时代需要可靠的信息来源,听起来可能很简单,但我们将决定该如何迅速发展,在新闻时代我们是活的还是坏的反乌托邦。 感谢
这个视频看起来像美国前总统奥巴马在演讲,但实际上是喜剧演员和电影制作者皮尔的表演,声音和画面都是用软件合成的。
计算机科学专家费里德:人工智能系统合成奥巴马的嘴,使之与音频流一致,像奥巴马总统从未说过的话一样播放视频。 这称为唇同步深度伪造。
技术无善恶,深度造假可以用于趣味视频、游戏、广告的合作,但恶意运用会带来严重后果。 它可能会破坏我们对现实的认识,使我们无法相信录像和录像。
卡内基国际和平基金会也警告说,深度造假带来了破坏性影响,也危害了反恐和国家安全。
计算机科学专家费里德:噩梦般的情况是,特朗普总统的视频出来了,他在视频中说,我向朝鲜发射了核武器。 有人黑进了他的推特账户,这个消息被疯狂传播,短短30秒就爆发了全球核战争。 你认为这可能吗? 不,但也不是完全不可能。 然后,会吓到你,对吧? 但是,这不是不可能的事实,真的很担心。
从深度学习到深度造假,照片、音频、视频都很容易伪造,但要识别深度造假要比制造深度造假难得多。
如果看到的不一定是真的,听到的也不一定是真的,我们该怎么办?
扎克伯格深度造假视频:这是因为spectre的漏洞,让我们知道谁在管理数据,谁在管理未来。
今年6月,在图像共享网站instagram上出现了这样的视频。 脸书创始人扎克伯格就大数据的威力进行了演讲。
但很快扎克伯格就辟谣了,说自己从没说过这样的话。 其实,这是以色列一家科技企业利用深度伪造技术合成的。
Facebook并不明确表示,企业不会删除虚假信息,但对网站的影响大幅减少,会出现事实审计员的新闻。
instagram总裁莫斯利在接受采访时也表示,目前业界没有检测这些假视频的大数据和标准。
instagram总裁莫斯:目前我们还没有应对深度造假。 我们正要判断是否要做那个。 如果要做的话,该怎么定义深度伪造呢? 觉得不好。
主持人盖尔金:可以限制这项技术。 你会产生很大的影响。
莫斯:其实,我想的不仅仅是把它撤走。 问题是,我们如何用大致的方法实现这个。
对此,《财富》杂志呼吁,到了科技企业、学术界、政府共同寻找处理方案的时候了。
6月13日,美国众议院情报委员会召开了人工智能深度造假听证会,公开讨论了深度造假技术给国家、社会、个人带来的风险以及应采取的预防和应对措施。
目前,世界许多国家也开始立法,加强了对面部新闻收集与识别技术应用场景的制约。 但是,所有的努力都离不开社交媒体网站的合作。
计算机科学专家费里德:但是,社交媒体网站常常关注如何解决这种非法拷贝、有害拷贝、非法新闻、虚假信息、篡改选举、非自愿色情等拷贝 这些复制品会给企业带来利益。
近期,Facebook、微软等科技企业和多家学术机构联合发起深度造假视频挑战赛,希望改进现有工具,增强深度造假图像、音频、视频的检测能力。
9月5日,脸书宣布为此投入1000万美元。
加州大学伯克利分校的研究人员也在研究如何应对深度伪造。
计算机科学专家费里德:我们应对这个问题的方法是建立一种柔性的生物识别模型。 这些生物体的特征是指纹、虹膜、脸之类的。 虽然它并不独特,但其目的是捕捉微妙的表情、头部的动作,这些个人有其独特之处,但在制作假视频时却有被打乱的特征。
计算机科学导论:首先,测量不同头部的运动和表情。 在这个视频中,你可以看到他在抓一个蓝色的盒子。 捕捉着他的头部在三维空间中是如何旋转的。 红点定位着他脸上的表情,实际上,你可以看到他什么时候扬起眉毛,什么时候张开大嘴巴。 当然,他眼中的绿色激光会告诉你他在看哪里。 在视频的所有帧画面中,我们对他的表情、脸部动作、头部动作进行一点测量,然后用这些建立软生物认证模型。
计算机科学专家法里德感叹说,制作假视频的人很多,假技术发展很快,而打假队的力量却落后且薄弱。
美国五角大楼有一个研究小组,也称为美国国防高等研究计划局,一直在研究如何应对深度造假的威胁。
科学家图列克:这对我们来说,照片和视频都不可靠了。
检测伪造视频的软件可以描述嘴唇的运动并与视频的声音进行匹配。
科学家图列克:如果看到红点,意味着说话人的声音实际上与嘴唇的动作不一致。
请看这个视频。 这两个人看起来像坐在一起,通过测量他们脸上的光的立场,可以判断这是合成录像。
科学家图列克:与该模型一起推测了体脸3d模型,软件推测了脸的反射特性和照明立场。 在这里,我们首先采用光的立场,看看哪个是一致的。
这是监视录像的画面,检测软件试图预测物体的移动方向。
科学家图列克:检测到了物体运动的不连续性。 这给我们发出了仔细观看图像和视频的信号。 画面可能从这里消失了。
检测到这个视频被动过了手脚,另一辆车被从画面上切了下来。
科学家图列克:这是猫和老鼠的游戏,拔出假照片和视频的水平越高,给造假者带来的压力也就越大。
两年前,美国发表了《人工智能与国家安全》报告,将人工智能伪造技术列为威胁国家安全的重要技术。
作为人工智能快速发展的大国,中国也已经加强了政策和技术方面的监管,以应对人工智能新技术可能带来的安全风险。
毕竟,如果声音、指纹、脸部等重要的生物识别新闻开始被高度模仿,风险和风险也会变多。
标题:快讯:"换脸"真相 "深度伪造"的互联网狂欢和
地址:http://www.xunleidownload.com/xhxw/14753.html