位置:编程技术网 > 研发管理 > 正文 >

人工智能需要重置?看AI应用中的几大问题(3)

2018年11月18日 20:09来源:未知手机版

王家禧,qq空间个性日志,学好高中数学的方法,河北遵化,南笙妹妹,咏柳古诗

数据完整性问题

如今的人工智能需要大量的数据才能产生有意义的结果,但却无法利用从其他应用程序获得的经验。Karen 认为,现在已经有一些工作在克服这些限制,但在可以大规模应用这些模型之前,需要进行知识转移。不过,在某些场景中,人工智能已经可以得到有效的应用,比如挖掘图像、声音、视频中的洞见以及进行语言翻译。

公司正在意识到应该关注如下问题:

1) 数据多样性,包括适当的跨种族表示;

2) 确保在创建算法时加入不同的经验、观点和思维;

3) 数据质量优先于数据数量。

这些都很重要,特别是当引入偏见,对数据的信任和信心就会下降。例如,土耳其语是一种不分性别语言,但是,谷歌翻译中的 AI 模型在将其翻译成英语时错误地预测了性别。此外,癌症识别 AI 中的图像识别只使用白种人样本进行训练。从上面的计算机视觉例子中,Joy Buolamwini 测试了这些人工智能技术,并认识到,它们对男性比对女性更有效,对浅色皮肤比对深色皮肤更有效。 针对男性的错误率低至 1%,而针对深肤色女性的错误率则高达 35% 。之所以发生这些问题,是因为没有使用多样化的训练数据。Karen 承认:

人工智能的概念很简单,但通过摄取越来越多的真实世界数据,算法变得越来越聪明,然而,要解释 AI 做出的决策却变得极其困难。数据可能会不断变化,人工智能模型需要进行过滤,以防止错误的标签,比如一个黑人被打上大猩猩的标签,或者一只熊猫被打上长臂猿的标签。企业依靠错误的数据来做出决策将导致错误的结果。

幸运的是,由于人工智能尚处于初级阶段,很少有组织会根据数据做出重大的商业决策。据我们了解,大多数解决方案主要是进行产品推荐和个性化营销传播。由此得出的任何错误结论都不会造成太大的社会影响,至少目前是这样的。

使用数据来进行业务决策并不新鲜,不一样的地方在于大量使用了结构化和非结构化数据,且数据量呈指数增长。人工智能让我们能够持续地使用其源数据,并更快地获得洞见。对于有能力处理来自不同数据源的数据的企业来说,这是一个机会。然而,对于其他组织来说,大量的数据可能代表着一种风险,因为不同的来源和格式使得信息转换变得更加困难:电子邮件、系统日志、Web 页面、客户记录、文档、幻灯片、非正式聊天、社交网络以及图像和视频等丰富的媒体。数据转换仍然是获得干净数据集和开发有效模型的绊脚石。

偏见比我们想象的更为普遍

很多用于最小化风险、优化目标机会的业务模型都存在偏见,虽然它们可能会产生有利可图的商业结果,但众所周知,它们也会导致意想不到的后果,从而伤害个体并进一步加剧经济差距。保险公司可能会利用位置信息或信用评分数据向较贫穷的客户提供更高保额的保险。银行可能会批准信用评分较低的贷款,这些人已经负债累累,可能无法承担更高的贷款利率。

由于人工智能的引入不仅会使现有的偏见永久存在,而且,这些学习模型可能使其发展到加深经济和社会分化的程度,因此,人们对于偏见越来越谨慎。当前的算法中存在偏见,比如像 COMPAS(纠正性罪犯管理档案替代制裁)这样的再犯可能性(再次犯罪的可能性)算法。一家叫作 Northpointe 的公司创建了这个模型。COMPAS 的目标是在预审时对被告的犯罪行为进行风险评估和预测。COMPAS 最初的研究所使用的问题类型就包含了足够多的人类偏见,系统延续了这些偏见,无意中对待黑人比对待白人更严厉,虽然前者不会再犯,而后者可能再犯,但后者依然可以在量刑时获得宽大处理。在没有公共标准可以遵循的情况下,Northpointe 对公平给出了自己的定义,并在没有第三方评估的情况下开发了一种算法 直到最近,这篇文章证实 一个流行的算法在预测犯罪方面并不比任何一个人类做得更好 :

我认为,如果这个软件和未受过训练的人对在线调查的反应一样准确,那么法院在决策时应该考虑一下可以在多大程度上依赖它们。

本文地址:http://www.reviewcode.cn/yanfaguanli/10347.html 转载请注明出处!

今日热点资讯