位置:编程技术网 > 产品设计 > 正文 >

有偏见的人工智能云出现一线改善的希望

2019年03月20日 00:58来源:未知手机版

上海出租房网,越南相亲团,24直播,如何卖保险,平安钟爱一生,新城房屋出租,双色开奖结果,陈语瞳

尽管算法支持的人工智能产品现在已经从梦想变成了现实,但是如果使用不当,它们很快就会成为现代噩梦。作为一家提供人工智能平台的公司的CSO,我知道我们在设计人工智能系统时匆忙做出的选择可以将任何原本高尚的行动变成躲在革命大旗后的怪物。对于设计粗心大意的人工智能系统,我曾经见过的最为常见但也是无意识带来的副作用之一就是预测结果针对特定利益相关方(一个人、一个群体或者一个国家)出现系统性的偏差,并导致了歧视。人工智能系统的偏见问题已经引发了长时间的讨论,政府机构 例如美国政府和欧盟基本权利机构(European Union Agency for Fundamental Rights )也已经就此问题发布了专门的报告。然而,直到最近,主要商业相关方对这一问题似乎都无所作为。但最终,我们看到了一线希望,该领域最大的参与者开始行动了。

云端

尽管人工智能领域取得了巨大的成就,但构成人工智能基础的算法只是冷酷的数学方程,它们本身无法做任何事情。它们就像停车场闲置的汽车,等待有人为它们加油并赋予它们存在的正确意义。算法的燃料是数据。数据教导算法理解我们的世界规则和数据。然而,这里的薄弱环节在于数据是由人准备的。这种知识传播链可能导致现实世界中的偏见和不公正会影响算法的思维方式,尽管这种影响可能是始料未及的。

一些比较壮观的日常例子可能包括《纽约时报》报道的面部识别软件在识别白人面部时表现得更好;一些作家称语音识别软件更难以理解女性的声音或者某些口音。然而,有很多例子表明带有偏见的系统可能会造成更大的社会影响:一项研究认为美国刑事司法系统使用的累犯风险评分可能存在着偏见,而另一些报道则称基于数据的教师评估系统也可能带有偏见。

幸运的是,我最近观察到这个领域的一些最大的玩家采取了一些行动,为更光明的未来带来了一线希望。

曙光初现

在2018年5月初,Facebook宣布它已经创建了一个特殊的内部机构,评估该公司算法做出的决策是否符合道德规范并且不含有偏见。此外,它还透露该团队的工作将得到 离散软件 的支持。

Facebook的这个团队广泛地同公司内部和外部的利益相关者合作(例如,Better Business Bureau s Institute for Marketplace Trust和Brookings Institution)。尽管Facebook不会公开该软件的内部细节,但它正在考虑通过学术出版物提供调查结果。该公司希望获得更多元化的人工智能人才,积极推动对抗偏见的斗争。

大约在同一时间,微软采取了类似的行动 开发 一种能够自动识别各种人工智能偏见的工具 。我相信这一举措肯定会帮助该公司提高有问题的算法的检出率。该公司似乎已经明白,参与创建人工智能的人是人工智能偏见的主要来源。

而IBM则提出了另一种稍微不同的主张 这可能是目前最强大的一项举措,因为它可以直接适用于整个行业。该公司的研究人员发表了一篇论文,建议采用供应商符合性声明(SDoc),在多个层面上确定算法的性能,例如性能标准化测试、公平性、风险因素和安全措施。任何想要使用这一算法的人都可以看到这些结果。 虽然这些努力都建立在善意的基础上的,但我们不得不承认,我们每天都在使用认知偏见;仅维基百科就列出了200个。偏见在我们的学习过程中发挥着重要作用。无论它们多么有害,我相信它们是我们大脑探索的一种形式,可以让我们更快地做出决定。因此,建立毫无偏见的人工智能存在着固有的挑战,特别是如果你在人类制作的内容上进行训练的话,就更是如此。随着近几年对人工智能的炒作,我们倾向于忘记尽管技术和算法的改进让我们离科幻电影中真正可以思考的机器更近了一步,我们离真正自动化并且更理性的机器还有很远。

结论

我们现在就要开始解决因使用有偏见的人工智能而产生的所有潜在问题。自学机器的概念不再只是一个愿景,社会已开始接受这一事实。与此同时,我们仍将人工智能视为新生事物,我们仍在等待革命的真实面目。我们走得越远,我们听到的人工智能故事就越令人惊讶。而且,大规模使用未经检测、带有偏见并无法解释的算法可能会悄然引发悲剧,每个人创建自学产品越容易,这种悲剧就越发难以避免。我相信上述提到的所有举措都应该得到赞扬、支持和复制,人工智能革命所有的利益相关方都应该这样做。

本文地址:http://www.reviewcode.cn/chanpinsheji/37656.html 转载请注明出处!

今日热点资讯