正如众议院情报委员会主席 Adam Schiff 最近在国会听证会上宣称的那样,“人工智能和机器学习的进步导致了先进的、经过篡改的媒体类型的出现,即所谓的‘深度伪造’,使恶意行为者能够煽动混乱,分裂或危机。他们有能力破坏整个竞选活动,包括总统竞选活动。”据BBC报道 ,已经发生了多起犯罪分子利用 Deepfake 音频 冒充首席执行官并进行电汇的实例。
尽管 Deepfake 技术确实存在潜在危害,但它只是现有技术(例如 Adobe Photoshop 和视频编辑软件)的高级版本。每一项新技术都会带来许多批评者,他们强调其潜在影响。重要的是要记住,技术本身是不可知的。它可以用来帮助或伤害。布法罗大学人工智能研究所所长戴维·杜尔曼 (David Doermann) 表示:“底层技术并没有什么根本性的错误或邪恶;它只是一种行为。”与基本图像和桌面编辑器一样,深度伪造只是一种工具。生成网络的积极方面远多于消极方面。”也就是说,深度伪造音频和视频确实引起了人们的担忧,尤其是当它们与社交媒体平台结合使用时。
当深度伪造视频在社交媒体上共享时,文件会被缩小和压缩,从而使破译文件的真实性变得更加困难。当合成媒体像野火一样蔓延时,归属和痕迹证据被摧毁。这可能会产生严重的副作用。考虑到深度造假视频在 IPO 前一天晚上疯传的可能性,波士顿大学法学教授 Danielle Citron 感叹道:“市场的反应速度远远快于我们揭穿它的速度。”此外,深度造假媒体的泛滥将导致 Citron 所说的“说谎者红利”,即人们将开始怀疑内容是否真实,从而使说谎者能够宣扬他们实际上说过但没有说过的话。为了解决这种信任衰退问题,Citron 表示,“我们已经在最高层的讲坛上看到了‘骗子红利’的实际发生。所以,我认为我们遇到了一个真正的问题。”
软件公司正在引领这场战斗
2019 年 12 月,Facebook 与微软、人工智能合作伙伴组织以及一组学者发起了“Deepfake 检测挑战赛”,为帮助开发 Deepfake 检测软件的贡献者提供 1000 万美元的奖金。这场竞赛将于 2020 年结束。还有一些软件公司也专注于媒体操纵检测,包括阿姆斯特丹的 Deeptrace Labs、巴尔的摩的 ZeroFox、圣地亚哥的 TruePic,当然还有国防部的国防高级研究计划局 ( DARPA)的 MediFor(媒体取证)团队也在该领域保持警惕。
企业可以保护自己免受深度伪造音频和视频的迫在眉睫的威胁
解决方案的一部分将是提供全面的人工智能教育。尽管立法者可能要求搜索引擎和社交媒体公司识别并在合成媒体上提供水印,但我们也需要对我们自己的员工进行深度造假技术的教育。尤其是 Deepfake 音频正变得越来越多。因此,员工必须警惕任何听起来不太对劲的电话。这些电话可能是社会工程尝试。就深度伪造视频而言,可以通过面部区域周围的模糊程度和肤色变化来识别它们。另外,还要注意是否有不自然的动作和光线。
————————————————
原文作者:ManageEngine卓豪
转自链接:https://zhuanlan.wangan.com/p/11v7b3961d5d2c14
版权声明:著作权归作者所有。商业转载请联系作者获得授权,非商业转载请保留以上作者信息和原文链接。
通讯地址:北京市海淀区海淀南路甲21号中关村知识产权大厦A座2层206、207室 邮政编码:100080
电话:010-62565314 刘莉 京ICP证16064523号-2 版权所有:北京软件和信息服务业协会
技术支持:中科服 内容支持:鑫网安