位置:编程技术网 > 游戏开发 > 正文 >

“AI换脸”引发信任危机?人工智能如何才能走得更远

2020年01月14日 17:27来源:未知手机版

dnf简单百宝箱下载,rudangshenqingshu,海绵宝宝滑雪

原标题:“AI换脸”引发信任危机?人工智能如何才能走得更远

由于技术逐渐成熟,普通人被计算机病毒折磨得苦不堪言的日子,似乎已经逐渐远去。然而,另一场更加隐蔽、杀伤力更大的“病毒危机”,正在向人类悄然逼近。

新兴的人工智能技术,为人类增添便利的同时,也带来了隐患。有犯罪团伙利用AI技术制作虚假视频骗取钱财,不法分子将女明星的脸换到色情视频上出售……一条条利用AI技术作恶的黑色产业链正在悄然形成,让不少人蒙受钱财、名誉损失。

换脸技术打开的“潘多拉魔盒”

有“换脸神器”之称的Deepfake,诞生之初,它只是一项有趣的技术。由于其逼真的效果、开源获取的便捷,被不少技术人士拿来制作各种好玩的视频。比如“AI换脸”刚流传到国内的时候就曾在社交媒体上掀起了一波热潮,有人将杨幂的脸换到了朱茵饰演的黄蓉身上,视频中顾盼神飞的全新“蓉儿”获得了不少网友的喜爱。

但在让人哈哈一乐的同时,由于个人信息可以被轻易“操纵”,AI换脸被滥用的负面影响也在全面爆发。有人收到朋友发来的“借钱视频”而慷慨解囊,结果轻易被骗;被伪造视频而处于谣言中心的当事人,眼睁睁看着自己声誉受损而百口莫辩;在涉及到巨额金钱往来时,如果遭遇对方信息资料造假,有可能会倾家荡产……这些种种“AI造假”信息不仅会给个人带来不可挽回的损失,还可能引发巨大的社会风险。甚至有人认为,AI换脸视频足以误导民意,威力堪比“核武器”,比如美国就曾流出国家领导人被恶搞的视频,煽动政治暴力、破坏选举、扰乱外交。

目前,“人人都怕换脸术”的恐慌,已引起国家有关部门的高度关注。今年1月1日起施行的《网络音视频信息服务管理规定》中就对此作出规定:AI造假音视频不得随意发布,要“按照国家有关规定开展安全评估”,并“以显著方式予以标识”。

人工智能作为一种新兴技术,除会被滥用之外,其技术本身的安全风险也足以引发忧虑。在去年10月举行的国际安全极客大赛中,参赛人员通过在胸前上放一张打印有“图像噪音”的纸片,就能够逃脱智能监控系统的识别,实现“隐身”。

“这并不是无中生有,而是模拟了真实的人工智能攻击场景。”来自北京瑞莱智慧科技有限公司(简称RealAI)的算法科学家萧子豪如是说道。在去年的国际安全极客大赛中,RealAI与清华联合战队包揽了“CAAD CTF图像对抗样本挑战赛”及“CAAD隐身挑战赛”两项冠军,萧子豪就是该战队成员之一。人工智能有时候会犯一些在人类看来“很傻的错误”,是因为目前以深度学习为代表的人工智能存在一大安全盲点——对抗样本,即在原始图片上增加肉眼无法察觉的噪声就可以恶意误导AI识别算法输出非预期的结果。

此外,基于深度学习的人工智能本质上相当于一个“黑箱”,是“不可解释”的。“也就是说,我们输入一个数据,人工智能会反馈一个结果,但是这个结论是如何得出的,我们完全无法得知,所以甚至有时候人工智能犯错了,我们也无法解释背后的原因。”萧子豪说。

人工智能亟待突破“天花板”

关于人工智能安全性的担忧,一方面需要依靠法律法规和政府监管来约束,另一方面,需要从源头加强安全评估,提升鉴别技术等能力,借助技术手段提前布局。

2018年6月,清华大学人工智能研究院揭牌成立,以“一个核心、两个融合”作为发展战略,即以人工智能基础理论和基本方法研究为核心,积极推进大跨度的学科交叉融合,积极推进大范围的技术与产业、学校与企业融合。

在多年研究的基础上,中科院院士、清华大学人工智能研究院院长张钹教授提出了“第三代人工智能”的概念。张钹院士认为,人工智能技术发展至今,已经经历了两代模型。第一代是知识驱动的符号模型,比如专家系统;第二代是数据驱动的机器学习模型,如深度学习、概率统计模型,目前正处于前所未有的兴盛时期。

本文地址:http://www.reviewcode.cn/youxikaifa/111472.html 转载请注明出处!

今日热点资讯