世 界 赌 城 在 线》》欢迎光临《世界赌城在线》我们应该如何理解李飞飞价值十亿美金的“人文AI”计划?

文章来源:孝感网 发布时间:2019-11-12 21:21:26  【字号:      】

我们应该如何理解李飞飞价值十亿美金的“人文AI”计划?

AI自从以利用角度走进民众视野,就一直逃不出“人文主义”的苛责。作为一种依附于海量数据运转的技巧,AI之所以能够作为晋升效力的工具,重要还是因为对人类经验的高度集中。

而“人类经验”这件事,本身就是不够完善的。广泛能够累积成海量数据的经验,有时反而更加充斥成见。就像如果把AI带入哥伦布时期,AI也会成为一位坚定的地心论支撑者。

而李飞飞分开谷歌回归斯坦福后,主导的第一个项目HAI——以人为本人AI研讨院(Stanford Human-Centered AI Institute),就在着重解决AI与人文主义之间的沟壑。

AI拟人化,竟是一位“富饶的白人男性”?

首先要知道的,毕竟是什么让AI无法“以人为本”?

目前从人文、从公正的角度来看,AI公认的两个问题是“白人至上(White Guy Problem)”和“男性之海(Sea of Dudes)”。

所谓白人至上,是指在算法驱动下AI所做出的一些种族轻视行动。例如谷歌的图片自动分类曾经将黑人照片分类成大猩猩,以及惠普的摄像头算法无法辨认深肤色的人。在犯法预测软件中,甚至会将黑人的犯法率辨认成普通白人的两倍以上。

而男性之海,则指的是AI从业者中有极大的性别倾斜,在2015年的NIPS上,女性与会者的人数竟然只占到了13.7%,李飞飞提到,在论文引用量,男性作者的被引用次数要比女性作者高100倍。

用《纽约时报》的话讲,两者联合,让AI被塑造出了一个“富饶白人男性”的价值观——刚好和那些控制着科技霸权的企业主们一模一样。

如此以来,对于AI的利用很可能反而会让人们一直以来对于推进种族、性别间平等所做的尽力空费。

就像平权主义者一直在推进男女收入平等,而去年卡内基梅隆大学的盘算机科学家却发明,在谷歌的广告推送机制中,更偏向于将高收入工作的招聘广告推送给男性用户。

而当美国各地警察部门在履行预测性警务工作时,数据驱动的风险评估工具会让他们更多的前往有色人种凑集区,无形中加重了对某一人群的成见和标签化。

恐怖的是,当女性在职场上遇到轻视时,她还可以对自己情形进行发声。而当AI驱动一切在无声中进行时,女性甚至不知道自己正在处在轻视链之中——如果从没见过这项招聘启事,女性自然不知道高收入工作更偏向于招聘男性。

而当AI行业中充满着“富饶的白人男性”时,他们自然也很难注意到算法黑箱中发生了这样的问题。最终万事万物都在人类轻视培养的规矩下运行,被驱动的每一个群体却又看不清规矩的真正面目。

十亿美金的远大目的

李飞飞在斯坦福主导的HAI项目,大概有着以下三个目的:第一是推动和发展下一代AI科学(重点在于脑科学和认知科学),第二是研讨和预测AI对人类社会和生涯的影响,第三是设计和实践以人为本的AI技巧和利用。

这么一看,所谓“以人为本”的说法其实挺虚的。但综合斯坦福的一些公开材料,以及李飞飞的一些讲话,我们可以大概总结出HAI毕竟想做些什么。

首先是在AI研讨中引入更多样化的视角和交叉思维。

最重要的,就是支撑女性和有色人种进入AI研讨。例如斯坦福所支撑的“Black in AI”项目,就在号令有色人种关注目前的AI研讨,关注AI无形中所带来的轻视问题。

同时还有连续追踪各个范畴利用AI后所带来的影响。

初次之外,HAI还邀请了社会各界人士共同参与,如教导、工业、艺术等等范畴,试图让他们一起发表看法,尤其是对技巧研发者给出反馈,告知他们AI毕竟对这一范畴发生了哪些影响,以衡量技巧的未来走向。

至于推进下一代AI科学就很好懂得了,重要是辅助研讨者圈定研讨方向,推进AI的可说明性等等,这里就不再进行赘述。

但有趣的是,HAI作为一个非常政治准确并伟光正的项目,并没有在舆论获得一致性的支撑。尤其有媒体指出,该机构有121位教职工,其中有100位以上都是白人,并只有30%的女性。

于是事情就变成了,HAI邀请了一群富饶的白人男性,试图募集10亿美金去从人文角度改正人工智能的“富饶白人男性”价值观。

齿轮之下:如何对待商业效力以外的AI?

虽然HAI获得的评价不一,但AI所带来的公正性问题,确切已经开端影响人们的正常生涯。

就像上文提到的算法过错估量有色人种犯法率将其晋升了两倍,同样意味着算法将白人的犯法率过错的低估了两倍。如果执法者依附这种过错的算法,则意味着不仅可能冤枉好人,也可能错放坏人。

又比如前两年亚马逊曾经闹出的丑闻,用户发明算法在分配货物能否当日送达时,一旦输入了黑人凑集区的邮政编码,就无法应用当日送达服务。

这种成见现象正在越来越多地呈现在种种服务中:贷款的AI风控、保险的AI审核机制。最后就导致了越是弱势群体,越容易被算法边沿化,进而难以获得资源与辅助,最落后一步地向弱势一方倾斜,甚至最终走向犯法,加重了算法轻视。

如此看来HAI的很多策略,是非常值得我们仔细思考的。

例如,当我们在关注产业AI的效力问题时,我们是否也应当斟酌在效力之外,AI对于产业的更多影响?当AI对于拥有强盛IT基本的零售团体施展作用,他们更加懂得用户心智时,那些小而美的微型零售店是否在风潮中被遗忘和挤压,最终退出舞台?

又比如除了那些研发技巧和为技巧买单的人之外,我们是否有义务去倾听更多人的声音?AI的研发者与技巧采买者或许清楚地知道AI是如何推进我们生涯运转的,但那些同样被卷在齿轮之下的人,是否也有权利懂得到这些齿轮的运转规矩?

更主要的,我们是否应当努力去推进AI黑箱的透明化,在发明问题时能够从内部技巧机制上解决?

以往我们总感到,技巧永远只是研发者和利用之间的故事。如今看来,或许AI已经成为了一个世界命题。

世界命题,就应当普遍参与。

(文章起源:格隆汇)




(责任编辑:管喜德)

专题推荐