位置:编程技术网 > 物联网 > 正文 >

Deepfake换脸技术恐成犯罪手法,网络安全公司纷纷研发软件

2019年08月20日 22:19来源:未知手机版

狡诈之盔,000019资金流向,茵陈茶

芯科技消息(文/Allis),根据《Financial Times》报道,随着人工智能发展日益精进,相关的犯罪行为也层出不穷,近年在网络上出现不少Deepfake影片,通过人工智能技术变换人脸、嘴型、声音制造出假影片,新奇之余,许多人都担忧这项技术会被用于传播错误政治讯息。为了要对抗这项技术,网络安全公司纷纷竭尽脑汁想要找出方法阻挡潜在危险。

由于这项技术价格越来越便宜且容易在网上取得,已逐渐成为欺诈犯用来犯罪的工具。

网络安全公司赛门铁克(Symantec)指出,今年已有至少三间公司受到deepfake假影片欺骗。在其中一项案件中,嫌犯利用人工智能模仿公司高层声音,诱使受害者转出1000万美元。

乔治亚理工学院信息安全与隐私研究所主任Michael Farrell表示,deepfak不只发展快速、越来越贴近现实,取得的门槛也变得非常低。他认为,这是网络安全公司挺身而出的重要时机。

由于deepfake变得越来越复杂,网络安全公司以及学术界正在想办法创造可以抵抗的新技术。有些公司利用人工智能来理解deepfake,并建立相关理论侦测假消息,不过,这项技术仍然非常新,因此开发者不免会遇到诸多问题。网络安全公司ZeroFOX工程师Matthew Price表示,虽然用于侦测的理论没错,但现在并没有足够的数据可以建造数据库模型。

赛门铁克研究室副总裁Darren Shou表示,该公司正致力于发展可以找出影片出处的技术,让人们知道影片是否来自假网站。

ProofMode、Truepic等新创公司也提供了一些可以为照片印上浮水印,证明真伪的技术。Truepic目前正与芯片商高通合作,找出将这项技术运用于手机硬件上的方式。

另外,预防措施也不可少,管理咨询公司埃森哲(Accenture)的AI咨询部门负责人Rumman Chowdhury认为,也可以要求开发出这些deepfake程序码的人新增验证措施。

不过Chowdhury认为,人的本性难移,不论出现多少工具,还是会有一部分民众不信邪,不愿意相信他看到的是假消息。

不论如何,网络安全公司仍会继续尝试。Price表示,未来可能会出现很多丑闻导致人们名誉毁损,这也是现在最大的隐忧。(校对/Jurnan)

图片来源:Pixabay

本文地址:http://www.reviewcode.cn/wulianwang/68302.html 转载请注明出处!

今日热点资讯