位置:编程技术网 > 架构设计 > 正文 >

2019需要警惕的6种真正人工智能危险:你入了哪些“坑”?

2019年01月11日 17:21来源:未知手机版

天上人间娱乐网,印度卢比对美元汇率,飘柔洗发水真假,绝色殿下闯祸妃,星云物语,蚂蚁智能助理

图虫创意

曾经,担心超级智能机器接管世界的前景是一种流行看法。过去的一年表明,在人工智能接管世界前前,人工智能可能会导致各种各样的危险。

最新的人工智能方法在分类图像和转录语音等感知任务方面表现出色,但对这些技能的大肆宣传和兴奋掩盖了我们距离制造出像我们这样聪明的机器还有多远。从2018年开始,有六起争议凸显出来,它们警告称,即便是最聪明的人工智能算法也可能表现不佳,或者对人工智能的不小心应用可能会产生可怕的后果。

1. 自动驾驶汽车事故

今年3月,优步(Uber)的一辆自动驾驶汽车发生致命事故后,调查人员发现,该公司的技术遭遇了灾难性的失败,而这种失败本来很容易避免。

福特(Ford)和通用汽车(General Motors)等汽车制造商,优步等新进者,以及一大批初创企业,都在争相将自动驾驶技术商业化。尽管这项技术还不成熟,但已经获得了数十亿美元的投资。Alphabet的子公司Waymo取得了最大的进步;去年,该公司在亚利桑那州推出了首个全自动出租车服务。但即便是Waymo的技术也是有限的,自动驾驶汽车的行驶范围是被事先规定好了的。

2019年需要注意的是:由于担心扼杀创新,美国和其他地方的监管机构迄今采取了不干涉的方式。美国国家公路交通安全管理局甚至表示,现有的安全规则可能会放松。但行人和人类司机还没有同意成为实验对象。2019年的另一起严重事故可能会改变监管机构的态度。

2. 政治操纵机器人

今年3月,有消息称,政治咨询公司剑桥分析公司(Cambridge Analytica)利用Facebook的数据共享做法,影响了2016年美国总统大选。由此引发的骚动表明,决定哪些新闻和信息出现在社交媒体上的算法,可以被用来放大错误信息,破坏有益的辩论,并孤立持有不同观点的公民。

在一场国会听证会上,Facebook首席执行官马克·扎克伯格承诺,人工智能本身可以被训练用于识别和屏蔽恶意内容,尽管它还远远无法理解文本、图像或视频的含义。

2019年需要注意的是:扎克伯格的承诺将在南非和尼日利亚这两个非洲最大的国家举行的选举中受到考验。距离2020年美国大选还有一段时间,这可能会催生由人工智能驱动的新型错误信息技术,包括恶意聊天机器人。

3. 人工智能可能危及和平

去年,当谷歌的员工得知他们的雇主正在向美国空军提供无人机图像分类技术时,一场人工智能的和平运动应运而生。工人们担心,这可能是朝着提供自动化致命无人机攻击技术的方向迈出的决定性一步。作为回应,该公司放弃了“Project Maven”,创建了一套人工智能道德规范。

学术界和工业界的重量级人物支持一项禁止使用自动化武器的运动。然而,人工智能在军事上的使用势头只增不减,而微软和亚马逊等其他公司在提供帮助方面也没有表现得非常积极。

2019年需要注意的是:尽管五角大楼在人工智能项目上的支出正在增加,但活动人士希望,在定于今年举行的一系列联合国会议上,能够达成一项禁止自主武器的先发制人条约。

4. 人脸识别技术侵犯隐私

人工智能识别人脸的超人能力,已促使各国以惊人的速度部署监控技术。面部识别还可以让你解锁手机,并在社交媒体上自动为照片添加标签。

公民自由组织警告反乌托邦的未来。这种技术是侵犯人们隐私的一种可怕的方式,而在培训数据方面的偏见,可能会导致自动化歧视。

在许多国家,人脸识别正被广泛用于警务和政府监控。亚马逊正在向美国移民和执法机构出售这项技术。

2019年需要注意的是:人脸识别将扩展到车辆和网络摄像头,它将用于跟踪你的情绪和身份。但我们也可能在今年看到对它的一些初步监管。

5. Deepfakes造假效果逼真

去年“deepfake”(深度伪造)视频的激增表明,利用人工智能制作假视频是多么容易。这意味着伪造的名人不雅视频,大量怪异的电影混搭,以及潜在的恶意的政治诽谤活动。

本文地址:http://www.reviewcode.cn/jiagousheji/24327.html 转载请注明出处!

今日热点资讯