“AI换脸”引发信任危机 人工智能如何才能走得更远

时间:2020-01-14 15:44      

由于技术逐渐成熟,普通人被计算机病毒折磨得苦不堪言的日子,似乎已经逐渐远去。然而,另一场更加隐蔽、杀伤力更大的“病毒危机”,正在向人类悄然逼近。

新兴的人工智能技术,为人类增添便利的同时,也带来了隐患。有犯罪团伙利用AI技术制作虚假视频骗取钱财,不法分子将女明星的脸换到色情视频上出售……一条条利用AI技术作恶的黑色产业链正在悄然形成,让不少人蒙受钱财、名誉损失。

换脸技术打开的“潘多拉魔盒”

有“换脸神器”之称的Deepfake,诞生之初,它只是一项有趣的技术。由于其逼真的效果、开源获取的便捷,被不少技术人士拿来制作各种好玩的视频。比如“AI换脸”刚流传到国内的时候就曾在社交媒体上掀起了一波热潮,有人将杨幂的脸换到了朱茵饰演的黄蓉身上,视频中顾盼神飞的全新“蓉儿”获得了不少网友的喜爱。

但在让人哈哈一乐的同时,由于个人信息可以被轻易“操纵”,AI换脸被滥用的负面影响也在全面爆发。有人收到朋友发来的“借钱视频”而慷慨解囊,结果轻易被骗;被伪造视频而处于谣言中心的当事人,眼睁睁看着自己声誉受损而百口莫辩;在涉及到巨额金钱往来时,如果遭遇对方信息资料造假,有可能会倾家荡产……这些种种“AI造假”信息不仅会给个人带来不可挽回的损失,还可能引发巨大的社会风险。甚至有人认为,AI换脸视频足以误导民意,威力堪比“核武器”,比如美国就曾流出国家领导人被恶搞的视频,煽动政治暴力、破坏选举、扰乱外交。

目前,“人人都怕换脸术”的恐慌,已引起国家有关部门的高度关注。今年1月1日起施行的《网络音视频信息服务管理规定》中就对此作出规定:AI造假音视频不得随意发布,要“按照国家有关规定开展安全评估”,并“以显著方式予以标识”。

人工智能作为一种新兴技术,除会被滥用之外,其技术本身的安全风险也足以引发忧虑。在去年10月举行的国际安全极客大赛中,参赛人员通过在胸前上放一张打印有“图像噪音”的纸片,就能够逃脱智能监控系统的识别,实现“隐身”。

“这并不是无中生有,而是模拟了真实的人工智能攻击场景。”来自北京瑞莱智慧科技有限公司(简称RealAI)的算法科学家萧子豪如是说道。在去年的国际安全极客大赛中,RealAI与清华联合战队包揽了“CAAD CTF图像对抗样本挑战赛”及“CAAD隐身挑战赛”两项冠军,萧子豪就是该战队成员之一。人工智能有时候会犯一些在人类看来“很傻的错误”,是因为目前以深度学习为代表的人工智能存在一大安全盲点——对抗样本,即在原始图片上增加肉眼无法察觉的噪声就可以恶意误导AI识别算法输出非预期的结果。

此外,基于深度学习的人工智能本质上相当于一个“黑箱”,是“不可解释”的。“也就是说,我们输入一个数据,人工智能会反馈一个结果,但是这个结论是如何得出的,我们完全无法得知,所以甚至有时候人工智能犯错了,我们也无法解释背后的原因。”萧子豪说。

人工智能亟待突破“天花板”

关于人工智能安全性的担忧,一方面需要依靠法律法规和政府监管来约束,另一方面,需要从源头加强安全评估,提升鉴别技术等能力,借助技术手段提前布局。

2018年6月,清华大学人工智能研究院揭牌成立,以“一个核心、两个融合”作为发展战略,即以人工智能基础理论和基本方法研究为核心,积极推进大跨度的学科交叉融合,积极推进大范围的技术与产业、学校与企业融合。

在多年研究的基础上,中科院院士、清华大学人工智能研究院院长张钹教授提出了“第三代人工智能”的概念。张钹院士认为,人工智能技术发展至今,已经经历了两代模型。第一代是知识驱动的符号模型,比如专家系统;第二代是数据驱动的机器学习模型,如深度学习、概率统计模型,目前正处于前所未有的兴盛时期。

“然而这两代技术都存在天然的局限性。” 张钹院士说,目前的人工智能虽然发展非常快,但是也只在图像识别、语音识别等方面取得了比较明显的突破。如果遇到数据知识缺乏、非完全信息、不确定性等场景,这两代人工智能基本上就变得“无计可施”了。

“现在的人工智能系统是非常脆弱的,容易受攻击或者欺骗。”张钹院士说,基于深度学习的人工智能系统不仅需要依靠大数据“喂养”,而且不可解释,存在非常严重的缺陷,“这个缺陷是本质的,由其基本理论方法本身引起的。”

也正因此,在一些真正重要的关键领域,比如自动驾驶、金融业务决策和医疗诊断等实际应用场景中,人工智能的进一步发展和应用还面临着很大的问题。

在他看来,以深度学习为代表的第二代人工智能技术正在逐渐触及“天花板”,亟需发展下一代人工智能技术,也就是安全、可靠、可信的人工智能。尤其,安全性将成为下一阶段人工智能发展必须的基础。一旦忽视人工智能的安全问题,未来将难以持续健康的推动AI技术在更多场景的落地。

“AI安全”市场前景可期

作为“第三代人工智能”概念的提出者,张钹院士所带领的清华研究团队早已布局了相关领域的研究,比如将第一代和第二代人工智能的技术优势相结合,构建了基于贝叶斯深度学习的第三代人工智能基础算法,从而打开了通向“真正人工智能”的一扇门。

在技术发展的同时,张钹院士也倡导将其产业化。张钹说,作为研究型机构,清华大学AI研究院的本分是要搞好学术研究,“但是AI又与应用结合相当紧密,因此我们的研究一定要产生出算法,研究院要孵化出AI新产业,甚至成为人工智能界的BAT。”RealAI就在此背景下应运而生。

作为清华大学人工智能研究院的核心孵化企业,RealAI由清华大学人工智能研究院院长张钹院士、清华大学人工智能研究院基础理论研究中心主任朱军教授联席担任首席科学家。正如其名,RealAI希望不断突破AI技术边界,探索“真正”的人工智能,以引领第三代人工智能技术的产业化发展。

针对目前在社交媒体平台上引发“虚假信息洪流”的Deepfake换脸视频,萧子豪表示,“除了涉及隐私泄漏、身份危机、名誉风险等个人安全问题,这背后的潜在效应还可能蔓延到大众的信息获取和社会信任层面,引导公众舆论、引发社会信任危机。”对此,RealAI迅速研发出了一款检测工具,可一键实现对伪造视频进行自动精准识别,识别准确率高达90%以上。

RealAI高级产品经理张旭东告诉记者,该检测工具基于第三代AI技术,使用无标注数据和无监督的深度生成模型来生成高逼真度、可控的假数据作为数据储备,然后利用这些高质量数据引导模型自动学习出具有强判别性的识别特征,提升对伪造痕迹的识别能力,进而分辨出造假视频。据悉,这款产品能够在虚假内容甄别、线上资料审核以及影像物证真实性检验等实际应用场景中发挥作用。

“AI安全其实是个很大的话题,未来将可能发展成与网络安全同等规模的市场。” RealAI首席执行官田天表示,真正做到保障AI安全始终不是一小部分人的事,需要联动社会各界力量,从监管机构、AI科技企业到普通公众共同重视、共同发力才能真正从根本上使其良性发展。

在人工智能发展的过程中,安全问题将会是一个攻防两端不断对抗演化的动态过程,“攻击”和“防御”的双方博弈将会一直存在。“RealAI未来会继续践行安全可控的技术理念,深耕人工智能安全领域,为人工智能行业的健康发展保驾护航。”田天说。

(责编:赵竹青、吕骞)

杏彩网页版