位置:编程技术网 > 研发管理 > 正文 >

OpenAI的GPT

2021年02月23日 16:10来源:未知手机版

吃粽子的来历,再生传奇txt下载,丝瓜的图片


>

来源:IEEE Spectrum

编辑:LQ

【新智元导读】有1750亿参数的超级语言模型GPT-3自发布以来广受关注,目前已有数百名开发者和公司应用了GPT-3,但随着它的商用,很多问题逐渐暴露——消极的语言、有害的偏见等,有学者认为即使非常小心,冒犯性语言出现的概率也是100% ,这是一个棘手的问题,那么GPT-3的开发者OpenAI对此有何对策呢?

还记得那个在Reddit上灌水一周才被发现的机器人/u/thegentlemetre吗?

去年9月,一个名为thegentlemetre的账号开始在Reddit上发帖。它以每分钟一篇的速度出现,回复的帖子都很长,大部分都是六段,内容流畅自然,以至于灌水一周多后才被「人类」发现。

比如下面这个问题:认真考虑过自杀的朋友们,是什么阻止了你们并帮助你们度过生命中的黑暗时刻?

这位叫thegentlemetre的「热心网友」认真回答了这个问题:

我想对我帮助最大的就是我的父母了,我和他们关系很好,不管发生什么他们都会给我支持。就是因为他们,多少次徘徊在自杀边缘的我都放弃了这一做法。他们了解我,也绝对支持我,我不清楚这对我产生了多大的影响,但这确实对我帮助很大。

后面还列举了两个理由,老师和朋友对ta产生的影响。


>

/u/thegentlemetre背后是一个叫「哲学家AI」(Philospher AI)的应用程序,而「哲学家AI」背后就是超级语言模型GPT-3.


>

OpenAI表示,还有成千上万的公司在排着队等着用GPT-3。

去年9月,生物特征识别公司UnifyID的首席科学家,从事机器学习研究的Vinay Prabhu(维纳·普拉布)体验了「哲学家AI」。

普拉布在玩这个APP的时候发现:某种特定类型的提示会带来冒犯性的答案。

普拉布说:「我试过: 现代女权主义有什么不妥?是什么阻碍了批判种族理论?是什么阻碍了左派政治?」

「哲学家AI」给出的结果令人深感不安。

例如,普拉布的一个朋友埃塞俄比亚人Abeba Birhane问了「哲学家AI」一个问题:什么困扰着埃塞俄比亚?


>

普拉布说:「对于同一个问题,有时候哲学家AI会给出截然相反的回答,并不是所有的回答都是有问题的。」

「但对抗性的一个关键衡量标准是: 要试多少次,才会碰到令人深恶痛绝的长篇大论?」

普拉布说:「根据我的实验,大概2-3次。」

GPT-3是全新的,也是未经驯化的,「哲学家AI」出现的问题就反应出了应用GPT-3的公司所面临的潜在危险。

试想:哲学家AI给出的「消极」的答案如果出现在「客服、在线家教、游戏人物」等的回答中,会产生什么后果?

比如上面/u/thegentlemetre那条关于自杀的回答,如果是另一番危险的文字呢?后果不堪设想。

哲学家AI的开发者Murat Ayfer说,他开发这个应用一方面是为了自己了解GPT-3的潜力,另一方面也是为了教育公众,

本文地址:http://www.reviewcode.cn/yanfaguanli/192911.html 转载请注明出处!

今日热点资讯