位置:编程技术网 > 研发管理 > 正文 >

人工智能需要重置?看AI应用中的几大问题(2)

2018年11月18日 20:09来源:未知手机版

王家禧,qq空间个性日志,学好高中数学的方法,河北遵化,南笙妹妹,咏柳古诗

最近的一篇文章论证了当今普遍存在的人工智能试点:

人工智能技术供应商往往会受到激励,让自己的技术听起来比实际更强大,也在暗示它们在现实世界中的吸引力比实际更强 但企业中的大多数人工智能应用程序都只不过是 试点 。基本上,在人工智能领域销售营销解决方案、医疗保健解决方案和金融解决方案的供应商公司,只是在测试这项技术。我们发现,在任何一个特定的行业中,销售人工智能软件和技术的数百家供应商公司当中只有大约三分之一具备人工智能所需的技能。

风投公司意识到,他们在一段时间内可能看不到投资回报。人工智能还没有准备好迎接黄金时代的到来,原因之一就在于无处不在的试验中几乎没有模型能看到胜利的曙光。

算法能负起责任吗?

人们说人工智能是个 黑盒子 ,目前还无法看到 AI 是如何做出决策的。由于系统是黑盒操作,只要算法经过了评审,并且满足了关键利益相关者的一些标准,就会获得一些固有的信任。大量证据表明,生产环境中的算法存在缺陷,并产生了意想不到的有害结果,因此上述的观点很快就出现了争议。很多简单的系统都是黑盒操作,越过了任何有意义的评审,因为公司会有意识地进行保密、缺乏足够的培训、不知道如何批判性地检查输入和输出,最致命的是不知道为什么会出现这些结果。Karen 表示:

人工智能行业目前正处于企业就绪的早期阶段。人工智能非常有用,可用于发现和辅助解析大量数据,但它仍然需要人类的干预,将其作为评估及处理数据及其结果的指南。

Karen 指出,机器学习技术能够标记数据,以便获得见解。然而,作为这个过程的一部分,如果一些数据标记错误,或者没有足够的数据表示,或者有问题的数据造成了偏见,就很可能会出现糟糕的决策结果。她还证实,目前的流程仍在不断完善中:

目前,人工智能都是关于决策支持,它提供见解,让企业可以从中得出结论。人工智能的下一个阶段将基于据数据自动采取行动,但还有一些额外的问题需要解决,比如偏见、可解释性、隐私性、多样性、伦理和持续模型学习。

Karen 举了一个 AI 模型出错的例子,图像的文字描述暴露了基于图像(使用图像中包含的物体来标注图像)训练得到的知识。这表明,要建立真正的人工智能产品,首先要有一个物体和人的常识世界模型。基于有限数量的标记对象和种类训练出来的模型会限制这个常识世界模型的有效性。亚马逊发布的面部识别技术 Rekognition 目前可以在生产环境中使用,但其效果存在明显的差距。根据美国公民自由联盟发布的一项研究:

这项技术将 28 名国会议员的照片与公共的脸部照片混淆了。虽然亚马逊积极向美国各地的执法机构推销 Rekognition,但它还不够好。

Joy Buolamwini 是麻省理工学院毕业生,算法正义联盟的创始人。他在最近的一次采访中呼吁暂停这项技术,声称它是无效的,需要更多的监督,并呼吁政府在这些系统被公开发布之前对其制定更多的标准。

AI 的主要障碍:心态、文化和遗留问题

目前,在很多组织中,AI 实现面临的最大障碍是转化遗留系统。心态和文化是这些遗留系统的要素,它们为已建立的流程、价值和业务规则提供了系统性视图,这些规则不仅决定了组织的运作方式,也解释了为什么这些根深蒂固的要素会成为企业的重大障碍,尤其是在当前运转良好的情况下。因此,他们目前没有真正需要解散遗留基础设施的动机。

人工智能是业务转型的一个组成部分,虽然这个话题已经获得了与人工智能炒作一样多的关注,但对于做出重大改变所需的投资和承诺,企业却表现得犹豫不觉。据我们所知,有些公司愿意在特定的应用场景上进行试验,但并没有准备好进行培训、重新设计流程以及改进治理和公司政策。对于被迫进行这些重大投资的大型组织来说,问题不应该是投资回报,而是可持续的竞争优势。

本文地址:http://www.reviewcode.cn/yanfaguanli/10347.html 转载请注明出处!

今日热点资讯